[go: up one dir, main page]

DE102018109680A1 - Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product - Google Patents

Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product Download PDF

Info

Publication number
DE102018109680A1
DE102018109680A1 DE102018109680.1A DE102018109680A DE102018109680A1 DE 102018109680 A1 DE102018109680 A1 DE 102018109680A1 DE 102018109680 A DE102018109680 A DE 102018109680A DE 102018109680 A1 DE102018109680 A1 DE 102018109680A1
Authority
DE
Germany
Prior art keywords
images
dimensional feature
motor vehicle
environment
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018109680.1A
Other languages
German (de)
Inventor
Ganesh Sistu
Senthil Kumar Yogamani
Jonathan Horgan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102018109680.1A priority Critical patent/DE102018109680A1/en
Publication of DE102018109680A1 publication Critical patent/DE102018109680A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Unterscheiden von Fahrbahnmarkierungen (7) und Bordsteinen (8) in einer Umgebung (U) eines Kraftfahrzeugs (1) mit einem Kamerasystem (2) des Kraftfahrzeugs (1). Durch die folgenden Schritte wird diese Unterscheidung mit verbesserter Genauigkeit zu ermöglicht:- Bereitstellen zweier Bilder (4) der Umgebung (U) durch das Kamerasystem (2) des Kraftfahrzeugs (1), wobei sich eine jeweilige Perspektive der zwei Bilder (4) unterscheidet,- Bestimmen zumindest eines zweidimensionalen Merkmals (42) zumindest in einem (5) der zwei Bilder (4), wobei das zumindest eine zweidimensionale Merkmal (42) ein Objekt (6) in der Umgebung (U) des Kraftfahrzeugs (1) repräsentiert,- Auswerten des zumindest einen zweidimensionalen Merkmals (42) mittels eines künstlichen neuronalen Netzes (33),- Extrahieren einer Tiefeninformation aus den zwei Bildern (4) der Umgebung (U), und- Klassifizieren des Objekts (6) in der Umgebung entweder als Fahrbahnmarkierung (7) oder als Bordstein (8) sowohl anhand eines Ergebnisses (40) beim Auswerten des zweidimensionalen Merkmals (42) als auch anhand der Tiefeninformation.The invention relates to a method for distinguishing lane markings (7) and curbs (8) in an environment (U) of a motor vehicle (1) with a camera system (2) of the motor vehicle (1). The following steps make this distinction possible with improved accuracy: provision of two images (4) of the environment (U) by the camera system (2) of the motor vehicle (1), wherein a respective perspective of the two images (4) differs, Determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the surroundings of the motor vehicle; Evaluating the at least one two-dimensional feature (42) by means of an artificial neural network (33), extracting depth information from the two images (4) of the environment (U), and classifying the object (6) in the environment either as a lane marking ( 7) or as a curb (8) both on the basis of a result (40) in the evaluation of the two-dimensional feature (42) and on the basis of the depth information.

Description

Die Erfindung betrifft ein Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen in einer Umgebung eines Kraftfahrzeugs mit einem Kamerasystem des Kraftfahrzeugs, wobei zumindest zwei Bilder der Umgebung bereitgestellt werden, die mit dem Kamerasystem aufgenommen werden, wobei sich eine jeweilige Perspektive der zumindest zwei Bilder unterscheidet. Die Erfindung betrifft außerdem eine Steuereinrichtung zum Beurteilen von Objekten in einer Umgebung eines Kraftfahrzeugs und ein Fahrerassistenzsystem mit einer solchen Steuereinrichtung sowie ein Computerprog ram m produ kt.The invention relates to a method for distinguishing lane markings and curbs in an environment of a motor vehicle with a camera system of the motor vehicle, wherein at least two images of the environment are provided, which are recorded with the camera system, wherein a respective perspective of the at least two images differs. The invention also relates to a control device for assessing objects in an environment of a motor vehicle and a driver assistance system having such a control device and a computer program.

Aus dem Stand der Technik bekannt ist es, eine Umgebung eines Kraftfahrzeugs mittels einer oder mehrerer Kameras zu erfassen. Beispielsweise werden Bilder der Umgebung erfasst und auf in der Umgebung befindliche Objekte hin ausgewertet. Beispiele hierfür sind Kameras an der Front und/oder am Heck des Fahrzeugs, welche einen dem Fahrzeug vorausliegenden oder rückwärtigen Bereich erfassen. Informationen, insbesondere über Objekte in der Umgebung des Kraftfahrzeugs, können einem Fahrerassistenzsystem des Kraftfahrzeugs bereitgestellt werden. Beispiele für Objekte, welche erfasst werden können sind unter anderem Fahrbahnmarkierungen, Bordsteine beziehungsweise Randsteine, Fußgänger, andere Verkehrsteilnehmer oder jegliche Art von Hindernissen in der Umgebung des Kraftfahrzeugs.From the prior art it is known to detect an environment of a motor vehicle by means of one or more cameras. For example, images of the environment are captured and evaluated for nearby objects. Examples include cameras at the front and / or at the rear of the vehicle, which detect an area ahead or rearward of the vehicle. Information, in particular about objects in the vicinity of the motor vehicle, can be provided to a driver assistance system of the motor vehicle. Examples of objects that can be detected include road markings, curbs or curbs, pedestrians, other road users or any kind of obstacles in the vicinity of the motor vehicle.

Ein zentrales Problem bei der Erfassung der Umgebung des Kraftfahrzeugs stellt dabei die Unterscheidung von Fahrbahnmarkierungen und Bordsteinen dar. Fahrbahnmarkierungen sowie Bordsteine können aufgrund ähnlicher Merkmale oftmals nur schwer voneinander unterschieden werden.A key problem in detecting the environment of the motor vehicle is the distinction of road markings and curbs. Road markings and curbs can often be difficult to distinguish from each other due to similar features.

Um eine verbesserte Unterscheidung von Fahrbahnmarkierungen und Bordsteinen zu ermöglichen, offenbart die US 2016/0104047 A1 ein Verfahren, bei welchem anhand zweier Bilder einer Umgebung des Kraftfahrzeugs ein Bordstein erkannt werden kann. Hierbei werden in zwei nacheinander aufgenommenen Top-View-Bildern Linien erkannt und für diese ein optischer Fluss zwischen den beiden nacheinander aufgenommenen Bildern berechnet. Anhand dieses optischen Flusses können Bordsteine und Fahrbahnmarkierungen unterschieden werden.In order to allow an improved distinction of lane markings and curbs, discloses the US 2016/0104047 A1 a method in which a curb can be detected on the basis of two images of an environment of the motor vehicle. In this case, lines are recognized in two consecutively recorded top-view images and an optical flow between the two consecutively recorded images is calculated for them. On the basis of this optical flow curbs and lane markings can be distinguished.

Es ist Aufgabe der vorliegenden Erfindung, eine Unterscheidung von Fahrbahnmarkierungen und Bordsteinen in einer Umgebung eines Kraftfahrzeugs mit verbesserter Genauigkeit zu ermöglichen.It is an object of the present invention to allow a distinction of lane markings and curbs in an environment of a motor vehicle with improved accuracy.

Diese Aufgabe wird erfindungsgemäß gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.This object is achieved by the subject matters of the independent claims. Advantageous embodiments with expedient developments are the subject of the dependent claims.

Die Erfindung beruht auf einem Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen beziehungsweise Randsteinen in einer Umgebung eines Kraftfahrzeugs mit einem Kamerasystem des Kraftfahrzeugs. Dabei liegen dem Verfahren die folgenden Schritte zugrunde:

  • Bereitstellen zweier Bilder der Umgebung durch das Kamerasystem des Kraftfahrzeugs, wobei sich eine jeweilige Perspektive der zwei Bilder unterscheidet, Bestimmen zumindest eines zweidimensionalen Merkmals zumindest in einem der zwei Bilder, wobei das zumindest eine zweidimensionale Merkmal ein Objekt in der Umgebung des Kraftfahrzeugs repräsentiert, Auswerten des zumindest einen zweidimensionalen Merkmals mittels eines künstlichen neuronalen Netzes, Extrahieren einer Tiefeninformation aus den zwei Bildern der Umgebung und Klassifizieren des Objekts in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein sowohl anhand eines Ergebnisses beim Auswerten des zweidimensionalen Merkmals als auch anhand der Tiefeninformation.
The invention is based on a method for distinguishing lane markings and curbs or curbs in an environment of a motor vehicle with a camera system of the motor vehicle. The method is based on the following steps:
  • Providing two images of the environment through the camera system of the motor vehicle, wherein a respective perspective of the two images differs, determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the vicinity of the motor vehicle, evaluating the at least one two-dimensional feature by means of an artificial neural network, extracting depth information from the two images of the environment and classifying the object in the environment either as a lane marking or as a curb on the basis both of a result in the evaluation of the two-dimensional feature and on the basis of the depth information.

Insbesondere handelt es sich bei den zwei Bildern der Umgebung um einen sogenannten Front-View, also eine Darstellung eines dem Kraftfahrzeug vorausliegenden Bereichs. Somit kann die jeweilige Perspektive der zwei Bilder gemäß einer Fahrtrichtung des Kraftfahrzeugs ausgerichtet sein. Ein Erfassungsbereich des Kamerasystems kann im Wesentlichen einen dem Kraftfahrzeug in Fahrtrichtung vorausliegenden Bereich der Umgebung umfassen. Mit anderen Worten wird anhand der zwei Bilder der Umgebung vorteilhafterweise ein dem Kraftfahrzeug vorausliegender Bereich der Umgebung erfasst.In particular, the two images of the environment are a so-called front view, that is to say a representation of a region ahead of the motor vehicle. Thus, the respective perspective of the two images can be aligned according to a direction of travel of the motor vehicle. A detection area of the camera system may essentially comprise an area of the surroundings ahead of the motor vehicle in the direction of travel. In other words, an area of the environment ahead of the motor vehicle is advantageously detected on the basis of the two images of the surroundings.

Das zweidimensionale Merkmal ist insbesondere ein Merkmal in der zweidimensionalen Bildebene des jeweiligen Bildes. In der Bildebene können Merkmale nur zweidimensional bestimmt und ausgewertet werden. Zweidimensional bedeutet dabei insbesondere, dass eine Ausdehnung beziehungsweise eine Auswertung des Merkmals nur bezüglich zwei unabhängiger (also insbesondere rechtwinkliger) Raumrichtung vorliegt. Diese zwei Raumrichtungen (beispielsweise definiert durch eine x-Achse sowie eine y-Achse) können die Bildebene des jeweiligen Bildes aufspannen. Mit anderen Worten liegen diese beiden Raumrichtungen (insbesondere x-Achse und y-Achse) in der Bildebene des jeweiligen Bildes. Eine dritte Raumrichtung (beispielsweise definiert durch eine z-Achse), welche unabhängig von den zuvor genannten Achsen (x-Achse und y-Achse) ist und insbesondere rechtwinklig zu diesen verläuft, kann in einem einzelnen der zwei Bilder der Umgebung nicht repräsentiert sein, da diese zweidimensional sind und daher einzeln keine Information betreffend der dritten Raumrichtung aufweisen.The two-dimensional feature is in particular a feature in the two-dimensional image plane of the respective image. In the image plane, features can only be determined and evaluated two-dimensionally. Two-dimensional means in particular that an expansion or an evaluation of the feature is present only with respect to two independent (ie in particular right-angled) spatial direction. These two spatial directions (defined for example by an x-axis and a y-axis) can span the image plane of the respective image. In other words, these two spatial directions (in particular x-axis and y-axis) lie in the image plane of the respective image. A third spatial direction (defined, for example, by a z-axis) which is independent of the aforementioned axes (x-axis and y-axis) and in particular runs at right angles thereto can be seen in a single one of the two pictures Environment are not represented because they are two-dimensional and therefore individually have no information regarding the third spatial direction.

Diese Information betreffend die dritte Raumrichtung (z-Achse) wird vorliegend als die Tiefeninformation bezeichnet. Die Tiefeninformation kann Abstände und Längenverhältnisse bezogen auf die dritte Raumrichtung (z-Achse) beinhalten. Die dritte Raumrichtung (z-Achse) verläuft insbesondere parallel zu einer Erfassungsrichtung der jeweiligen Kamera durch welche das jeweilige Bild erfasst beziehungsweise aufgenommen wird. Mit anderen Worten beschreibt die Tiefeninformation auf abstrakte oder konkrete Weise den Abstand von Bildinhalten oder Merkmalen von der Kamera. Die Tiefeninformation kann aus den zwei Bildern der Umgebung extrahiert werden, da diese eine jeweils unterschiedliche Perspektive auf die Umgebung aufweisen. Somit ist jedes der zwei Bilder für sich genommen zweidimensional und ohne die Tiefeninformation. Werden die zwei Bilder jedoch gemeinsam ausgewertet, kann die Tiefeninformation aus diesen extrahiert werden.This information concerning the third spatial direction (z-axis) is referred to herein as the depth information. The depth information may include distances and aspect ratios relative to the third spatial direction (z-axis). The third spatial direction (z-axis) runs in particular parallel to a detection direction of the respective camera through which the respective image is detected or recorded. In other words, the depth information describes the distance of image contents or features from the camera in an abstract or concrete way. The depth information can be extracted from the two images of the environment since they each have different perspectives on the environment. Thus, each of the two images is two-dimensional in itself and without the depth information. However, when the two images are evaluated together, the depth information can be extracted therefrom.

Als Objekte im Sinne der vorliegenden Erfindung gelten insbesondere eine Fahrbahnmarkierung und/oder ein Bordstein. Mit anderen Worten werden zweidimensionale Merkmale in dem zumindest einen der zwei Bilder bestimmt, welche eine Fahrbahnmarkierung und/oder einen Bordstein repräsentieren. Diese zweidimensionalen Merkmale werden durch ein künstliches neuronales Netz dahingehend ausgewertet, ob diese zweidimensionalen Merkmale eine Fahrbahnmarkierung oder einen Bordstein repräsentieren. Das künstliche neuronale Netz kann zuvor anhand von Trainingsdaten angelernt werden beziehungsweise angelernt worden sein. Die Trainingsdaten können eine Vielzahl an Bildern von Fahrbahnmarkierungen und/oder Bordsteinen umfassen, welche von ihrer Art und Perspektive den zwei Bildern der Umgebung, welche durch das Kamerasystem bereitgestellt werden, nachempfunden sind. In den Bildern der Trainingsdaten sind Fahrbahnmarkierungen und Bordsteine, beispielsweise durch einen Nutzer oder Hersteller einer Steuereinrichtung beziehungsweise eines Fahrassistenzsystems oder eines Kraftfahrzeugs mit einem solchen Fahrassistenzsystem, bereits markiert. Somit kann das künstliche neuronale Netz bei dem Vorgang des Anlernens lernen, anhand der zweidimensionalen Merkmale Fahrbahnmarkierungen und/oder Bordsteine zu erkennen, und insbesondere diese voneinander zu unterscheiden. Zum Verbessern der Genauigkeit beim Anlernen, können falsch zugeordnete zweidimensionale (oder in nachfolgend beschriebenen Ausführungsformen auch falsch zugeordnete dreidimensionale) Merkmale, welche fehlerhaft erkannt werden, zum weiteren Anlernen genutzt werden. Dieses Vorgehen wird auch als Hard Negative Mining, zu Deutsch in etwa Nutzung falscher Zuordnungen, bezeichnet.As objects within the meaning of the present invention, in particular a roadway marking and / or a curb apply. In other words, two-dimensional features are determined in the at least one of the two images representing a pavement marker and / or a curb. These two-dimensional features are evaluated by an artificial neural network as to whether these two-dimensional features represent a lane marker or a curb. The artificial neural network may have previously been trained or learned by means of training data. The training data may include a plurality of images of lane markers and / or curbs that are modeled on the nature and perspective of the two images of the environment provided by the camera system. In the images of the training data are lane markings and curbs, for example by a user or manufacturer of a control device or a driver assistance system or a motor vehicle with such a driver assistance system already marked. Thus, in the process of learning, the artificial neural network can learn to recognize lane markings and / or curbs based on the two-dimensional features, and in particular to distinguish them from one another. To improve accuracy in teaching, mismatched two-dimensional (or mis-assigned three-dimensional) features that are misrecognized may be used for further training. This procedure is also referred to as Hard Negative Mining.

Das Bestimmen des zumindest einen zweidimensionalen Merkmals in dem zumindest einen der zwei Bilder kann durch eine Erkennungseinheit beziehungsweise einen Eingangsteil des künstlichen neuronalen Netzes erfolgen. Ein solcher Eingangsteil des künstlichen neuronalen Netzes wird auch mit dem Fachbegriff CNN-Encoder bezeichnet. Diese Erkennungseinheit beziehungsweise dieser Eingangsteil kann dazu ausgebildet sein, das zumindest eine zweidimensionale Merkmal in dem zumindest einen der zwei Bilder zu bestimmen. Zusätzlich kann der Eingangsteil beziehungsweise die Erkennungseinheit das zumindest eine zweidimensionale Merkmal für die Auswertung durch das künstliche neuronale Netz aufbereiten. Das zumindest eine zweidimensionale Merkmal kann durch semantische Segmentierung auf Pixelebene bestimmt werden. Insbesondere segmentiert die Erkennungseinheit beziehungsweise der Eingangsteil das eine der Bilder semantisch, also durch Untersuchen eines Bedeutungsgehalts der jeweiligen Pixel des zumindest einen der Bilder.The determination of the at least one two-dimensional feature in the at least one of the two images can be performed by a recognition unit or an input part of the artificial neural network. Such an input part of the artificial neural network is also referred to by the technical term CNN encoder. This recognition unit or this input part can be designed to determine the at least one two-dimensional feature in the at least one of the two images. In addition, the input part or the recognition unit can process the at least one two-dimensional feature for evaluation by the artificial neural network. The at least one two-dimensional feature can be determined by pixel-level semantic segmentation. In particular, the recognition unit or the input part semantically segments one of the images, that is, by examining a meaning content of the respective pixels of the at least one of the images.

Es ist ausreichend, nur eines der beiden Bilder der Umgebung zweidimensional auszuwerten. Es kann jedoch, beispielsweise zum Auswerten redundanter Informationen, vorgesehen sein, dass beide der zwei Bilder der Umgebung zweidimensional ausgewertet werden. In diesem Fall werden insbesondere beide Bilder der Umgebung unabhängig voneinander durch das künstliche neuronale Netz auf Basis jeweiliger zweidimensionaler Merkmale ausgewertet.It is sufficient to evaluate only one of the two images of the environment in two dimensions. However, it can be provided, for example for evaluating redundant information, that both of the two images of the environment are evaluated in two dimensions. In this case, in particular, both images of the environment are independently evaluated by the artificial neural network based on respective two-dimensional features.

Anschließend wird das Objekt in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein klassifiziert beziehungsweise klassiert. Das Klassifizieren beziehungsweise Klassieren des Objekts erfolgt anhand des Ergebnisses beim Auswerten des zweidimensionalen Merkmals und anhand der Tiefeninformation. Mit anderen Worten wird das Objekt abhängig von dem Ergebnis beim Auswerten des zweidimensionalen Merkmals durch das künstliche neuronale Netz und abhängig von der Tiefeninformation klassifiziert beziehungsweise klassiert. Somit erfolgt das Klassifizieren des Objekts einerseits anhand einer zweidimensionalen Information (Ergebnis des Auswertens des zumindest einen zweidimensionalen Merkmals) und anhand einer dreidimensionalen Information (Tiefeninformation). Auf diese Weise können Fahrbahnmarkierungen und Bordsteine besonders gut unterschieden werden, da Fahrbahnmarkierungen flach sind und demgegenüber Bordsteine eine Erhöhung gegenüber einem Fahrbahnniveau einer Fahrbahn auf dem sich das Kraftfahrzeug befindet, aufweisen.Subsequently, the object is classified or classified in the environment either as a lane marking or as a curb. The classification or classification of the object takes place on the basis of the result in the evaluation of the two-dimensional feature and on the basis of the depth information. In other words, the object is classified or classified depending on the result in the evaluation of the two-dimensional feature by the artificial neural network and depending on the depth information. Thus, the classification of the object takes place, on the one hand, on the basis of two-dimensional information (result of the evaluation of the at least one two-dimensional feature) and on the basis of three-dimensional information (depth information). In this way, lane markings and curbs can be distinguished particularly well, since lane markings are flat and curbs on the other hand have an increase compared to a lane level of a lane on which the motor vehicle is located.

Gemäß einer Weiterbildung ist vorgesehen, dass als die Tiefeninformation zumindest ein dreidimensionales Merkmal bestimmt wird, wobei das zumindest eine dreidimensionale Merkmal das Objekt in der Umgebung des Kraftfahrzeugs repräsentiert. Außerdem ist vorgesehen, dass das zumindest eine dreidimensionale Merkmal ebenfalls mittels des künstlichen neuronalen Netzes ausgewertet wird. Das dreidimensionale Merkmal ist analog zu dem zweidimensionalen Merkmal zu verstehen, wobei das dreidimensionale Merkmal zusätzlich eine Ausdehnung gemäß der dritten Raumrichtung (z-Achse) aufweist. Das dreidimensionale Merkmal kann aus den zwei Bildern der Umgebung gemeinsam extrahiert werden. Dabei kann in einem Zwischenschritt eine dreidimensionale Karte beziehungsweise eine Abstandskarte der Umgebung aus den zwei Bildern erzeugt werden. Das dreidimensionale Merkmal kann beispielsweise anhand von Gradienten und/oder Kanten in der dreidimensionalen Karte der Umgebung beziehungsweise in der Abstandskarte bestimmt werden. Zum Bestimmen des zumindest einen dreidimensionalen Merkmals kann eine weitere Erkennungseinheit beziehungsweise ein weiterer Eingangsteil des künstlichen neuronalen Netzes, auch weiterer CNN-Encoder genannt, vorgesehen sein. Durch diese weitere Erkennungseinheit beziehungsweise den weiteren Eingangsteil kann das zumindest eine dreidimensionale Merkmal bestimmt werden. Zusätzlich kann das zumindest eine dreidimensionale Merkmal für die Auswertung durch das künstliche neuronale Netz aufbereitet werden.According to a further development, it is provided that at least one three-dimensional feature is determined as the depth information, wherein the at least one three-dimensional feature is the Object in the environment of the motor vehicle represents. In addition, it is provided that the at least one three-dimensional feature is likewise evaluated by means of the artificial neural network. The three-dimensional feature is to be understood analogously to the two-dimensional feature, wherein the three-dimensional feature additionally has an extension according to the third spatial direction (z-axis). The three-dimensional feature can be jointly extracted from the two images of the environment. In this case, in an intermediate step, a three-dimensional map or a distance map of the surroundings can be generated from the two images. The three-dimensional feature can be determined for example on the basis of gradients and / or edges in the three-dimensional map of the environment or in the distance map. For determining the at least one three-dimensional feature, a further recognition unit or a further input part of the artificial neural network, also called another CNN encoder, may be provided. By means of this further detection unit or the further input part, the at least one three-dimensional feature can be determined. In addition, the at least one three-dimensional feature can be prepared for evaluation by the artificial neural network.

In diesem Fall ist das künstliche neuronale Netz beziehungsweise wird das künstliche neuronale Netz zuvor anhand weiterer Trainingsdaten angelernt, welche Paarungen zweier Bilder der Umgebung, welche den zwei Bildern der Umgebung nachempfunden sind, enthalten. In diesen Paarungen können die Fahrbahnmarkierungen die Bordsteine, beispielsweise durch den oben genannten Nutzer oder Hersteller, bereits markiert sein. Auf diese Weise kann das künstliche neuronale Netz darauf angelernt sein beziehungsweise werden, anhand des zumindest einen dreidimensionalen Merkmals Fahrbahnmarkierungen und/oder Bordsteine zu erkennen und diese insbesondere zu unterscheiden. Dadurch, dass das zumindest eine zweidimensionale Merkmal und das zumindest einen dreidimensionale Merkmal mittels des künstlichen neuronalen Netzes gemeinsam ausgewertet werden, können Fahrbahnmarkierungen und Bordsteine besonders gut unterschieden werden. Außerdem profitiert sowohl die Auswertung des zumindest einen zweidimensionalen Merkmals als auch die Auswertung des zumindest einen dreidimensionalen Merkmals von der hohen Anpassungsfähigkeit und Lernfähigkeit des künstlichen neuronalen Netzes.In this case, the artificial neural network or the artificial neural network is previously trained on the basis of further training data, which pairings of two images of the environment, which are modeled on the two images of the environment contain. In these pairings, the lane markings may already be marked on the curbs, for example by the above-mentioned user or manufacturer. In this way, the artificial neural network can be trained or become aware of it on the basis of the at least one three-dimensional feature road markings and / or curbs and to distinguish them in particular. Characterized in that the at least one two-dimensional feature and the at least one three-dimensional feature are evaluated jointly by means of the artificial neural network, road markings and curbs can be distinguished particularly well. In addition, both the evaluation of the at least one two-dimensional feature and the evaluation of the at least one three-dimensional feature benefit from the high adaptability and learning capability of the artificial neural network.

Gemäß einer Weiterbildung ist vorgesehen, dass das zumindest eine zweidimensionale Merkmal und das zumindest eine dreidimensionale Merkmal gemeinsam mittels des künstlichen neuronalen Netzes ausgewertet werden. Mit anderen Worten wird das zumindest eine zweidimensionale Merkmal und das zumindest eine dreidimensionale Merkmal durch das künstliche neuronale Netz gemeinsam ausgewertet. Auf diese Weise kann die Genauigkeit beim Unterscheiden von Fahrbahnmarkierungen und Bordsteinen weiter verbessert werden, da eine besonders frühe Fusion der unterschiedlichen Bildinformationen, also der zweidimensionalen Merkmale und dreidimensionale Merkmale, gewährleistet ist. Mit anderen Worten wird das zumindest eine zweidimensionale Merkmal und das zumindest eine dreidimensionale Merkmal in einem besonders frühen Verarbeitungsschritt, nämlich hier vor dem Auswerten mittels des künstlichen neuronalen Netzes, zusammengeführt.According to a development it is provided that the at least one two-dimensional feature and the at least one three-dimensional feature are evaluated jointly by means of the artificial neural network. In other words, the at least one two-dimensional feature and the at least one three-dimensional feature are jointly evaluated by the artificial neural network. In this way, the accuracy in distinguishing lane markings and curbs can be further improved, since a particularly early fusion of the different image information, so the two-dimensional features and three-dimensional features is guaranteed. In other words, the at least one two-dimensional feature and the at least one three-dimensional feature are combined in a particularly early processing step, namely here before the evaluation by means of the artificial neural network.

Gemäß einer Weiterbildung ist vorgesehen, dass die Abstandskarte als die Tiefeninformation bestimmt wird. Die Abstandskarte kann einen Abstand von Bereichen der Umgebung, und somit auch des Objekts, von einer Kameraebene des Kamerasystems angeben. Dabei kann die Abstandskarte aus den zwei Bildern der Umgebung gebildet werden. Die Abstandskarte kann bezüglich zweier Raumrichtungen (beispielsweise x-Achse und y-Achse) parallel zu den zumindest zwei Bildern der Umgebung ausgerichtet sein. Im Gegensatz zu den zwei Bildern der Umgebung weist die Abstandskarte jedoch zusätzlich eine Ausdehnung in die dritte Raumrichtung (z-Achse) auf. Die Tiefeninformation ist somit durch die Ausdehnung der Abstandskarte in die dritte Raumrichtung (z-Achse) bereitgestellt. Die Ausdehnung der Abstandskarte in die z-Achse kann beispielsweise dadurch bereitgestellt sein, dass jedem Pixel der Abstandskarte ein jeweiliger Abstandswert zugeordnet ist, der einen Abstand des durch den jeweiligen Pixel repräsentierten Teils der Umgebung von einem Bezugspunkt des Kamerasystems angibt. Dieser Bezugspunkt kann beispielsweise durch die Position einer Kamera des Kamerasystems definiert sein. Die Pixel der Abstandskarte können gemäß eines Gitters, welches durch die ersten beiden Raumrichtungen (x-Achse und y-Achse) aufgespannt ist beziehungsweise definiert ist, angeordnet sein. Mit anderen Worten kann das Gitter der Bildebene einem der ersten zwei Bilder entsprechen. Dadurch, dass die Abstandskarte bestimmt wird, ist auf besonders effektive und einfache Weise eine dreidimensionale Karte zumindest eines Teils der Umgebung bereitgestellt.According to a development, it is provided that the distance map is determined as the depth information. The distance map can specify a distance of regions of the environment, and thus of the object, from a camera plane of the camera system. In this case, the distance map can be formed from the two images of the environment. The distance map may be aligned parallel to the at least two images of the environment with regard to two spatial directions (for example x-axis and y-axis). In contrast to the two images of the environment, however, the distance map also has an extension in the third spatial direction (z-axis). The depth information is thus provided by the extension of the distance map in the third spatial direction (z-axis). The expansion of the distance map into the z-axis can be provided, for example, by associating with each pixel of the distance map a respective distance value indicating a distance of the part of the environment represented by the respective pixel from a reference point of the camera system. This reference point can be defined for example by the position of a camera of the camera system. The pixels of the distance card can be arranged according to a grid which is defined or defined by the first two spatial directions (x-axis and y-axis). In other words, the grid of the image plane may correspond to one of the first two images. By determining the distance map, a three-dimensional map of at least part of the environment is provided in a particularly effective and simple manner.

Gemäß einer Weiterbildung ist vorgesehen, dass mittels maschinellen Sehens, insbesondere unter Ausnutzung mathematischer Algorithmen, eine Repräsentation des Objekts in der Abstandskarte gesucht, insbesondere bestimmt, wird. Mit anderen Worten wird in der Abstandskarte durch maschinelles Sehen, auch mit dem englischen Fachbegriff Computervision bezeichnet, eine Repräsentation des Objekts gesucht. Als Repräsentation des Objekts wird insbesondere ein Muster in der Abstandskarte bezeichnet, welches das Objekt in der Umgebung repräsentiert. Mit anderen Worten wird in der Abstandskarte ein Muster gesucht, welches für das Objekt charakteristisch ist. Insbesondere können hierzu Gradienten, Linien und geometrische Formen in der Abstandskarte gesucht werden, welche jeweils einem vorbestimmten Muster entsprechen. Als maschinelles Sehen, auch als Bild verstehen oder Computervision bezeichnet, wird die computergestützte Lösung von Aufgabenstellungen, die sich an den Fähigkeiten des menschlichen visuellen Systems orientieren, bezeichnet. Hierbei ist dem Fachmann bekannt, dass sich die Bildauswertung durch maschinelles Sehen grundlegend von der Bildauswertung mittels künstlicher neuronaler Netze unterscheidet. Während letztere Methode auf Basis großer Datensätze (Trainingsdaten) angelernt wird, wird im Rahmen des maschinellen Sehens bevorzugt unter Ausnutzung der mathematischen Algorithmen und anhand von Mustererkennung optische Information aus dem zugrundeliegenden Bild/Abbild erfasst. Beispiele für derartige mathematische Algorithmen als Werkzeuge für das maschinelle Sehen sind Hafttransformation, Kontrastanalyse, optischer Fluss, Sobel-Operator, Wavelets, Gauß-Laplace-Pyramide, und ähnliche Verfahren beispielsweise zur Kontrastanalyse, Bewegungsextraktion und Kantenerkennung. Durch die Mustererkennung beziehungsweise vorbestimmte Muster, die gesucht werden, ist hierbei großes Vorwissen über die zu erkennenden Objekte nötig. Durch die Verknüpfung von maschinellem Sehen und künstlichem neuronalen Netz kann die Unterscheidung von Fahrbahnmarkierungen besonders robust und dennoch besonders leicht an unterschiedliche Einsatzszenarien anpassbar gestaltet sein.According to a further development, it is provided that a representation of the object in the distance map is sought, in particular determined, by means of machine vision, in particular using mathematical algorithms. In other words, in the distance map by machine vision, also referred to by the English term computer vision, a representation of the object is sought. As a representation of the object in particular a pattern in the distance map denotes, which represents the object in the environment. In other words, a pattern is searched in the distance map, which is characteristic of the object. In particular, for this purpose, it is possible to search for gradients, lines and geometric shapes in the distance map which respectively correspond to a predetermined pattern. Machine vision, also referred to as image or computer vision, is the computer-aided solution to problems that are based on the capabilities of the human visual system. In this case, it is known to the person skilled in the art that the image evaluation by machine vision fundamentally differs from the image evaluation by means of artificial neural networks. While the latter method is trained on the basis of large data sets (training data), optical information from the underlying image / image is preferably acquired within the scope of machine vision, utilizing mathematical algorithms and pattern recognition. Examples of such mathematical algorithms as machine vision tools are adhesive transformation, contrast analysis, optical flow, Sobel operator, wavelets, Gauss-Laplace pyramid, and similar methods for contrast analysis, motion extraction, and edge detection, for example. Due to the pattern recognition or predetermined patterns that are searched, this requires a great deal of prior knowledge about the objects to be recognized. The combination of machine vision and artificial neural network makes the differentiation of lane markings particularly robust and yet particularly easy to adapt to different application scenarios.

Gemäß einer Weiterbildung ist vorgesehen, dass das Klassifizieren des Objekts zusätzlich auf Basis des Suchens der Repräsentation erfolgt. Mit anderen Worten erfolgt das Klassifizieren des Objekts einerseits auf Basis des Ergebnisses beim Auswerten des zweidimensionalen Merkmals durch das künstliche neuronale Netz und andererseits auf Basis des Suchens der Repräsentation. Beispielsweise werden beim Suchen der Repräsentation des Objekts zumindest ein vorbestimmtes Muster für einen Randstein und zumindest ein vorbestimmtes Muster für eine Fahrbahnmarkierung in der Abstandskarte gesucht. Das zumindest eine vorbestimmte Muster für den Randstein kann entsprechend eines typischen Erscheinungsbildes eines Randsteins in der Abstandskarte vorgegeben sein. Das zumindest eine vorgegebene Muster für eine Fahrbahnmarkierung kann anhand eines typischen Erscheinungsbildes einer Fahrbahnmarkierung in der Abstandskarte vorgegeben sein. Je nachdem ob beim Suchen der Repräsentation des Objekts das vorbestimmte Muster einer Fahrbahnmarkierung oder eines Bordsteins gefunden wird, kann das Objekt entweder als Fahrbahnmarkierung oder als Bordstein klassifiziert werden.According to a development, it is provided that the classification of the object additionally takes place on the basis of the search of the representation. In other words, the classification of the object takes place, on the one hand, on the basis of the result in the evaluation of the two-dimensional feature by the artificial neural network and, on the other hand, on the basis of the search of the representation. For example, when searching for the representation of the object, at least one predetermined pattern for a curb and at least one predetermined pattern for a lane mark are searched in the distance map. The at least one predetermined pattern for the curb may be predetermined according to a typical appearance of a curb in the distance map. The at least one predetermined pattern for a lane marking can be predefined on the basis of a typical appearance of a lane marking in the distance map. Depending on whether the predetermined pattern of a lane marking or a curb is found when searching for the representation of the object, the object can be classified either as a lane marking or as a curb.

Gemäß einer Weiterbildung ist vorgesehen, dass das Klassifizieren des Objekts mittels des künstlichen neuronalen Netzes und des maschinellen Sehens zunächst unabhängig voneinander erfolgt und jeweilige Ergebnisse des Klassifizierens anschließend, insbesondere wahrscheinlichkeitsbasiert, fusioniert werden. Mit anderen Worten erfolgt die Auswertung der zwei Bilder basierend auf zweidimensionaler Informationen, nämlich dem zumindest einen zweidimensionalen Merkmal, und dreidimensionale Informationen, nämlich der Tiefeninformation, größtenteils getrennt voneinander. Die jeweiligen Ergebnisse (also das Ergebnis des Auswertens des zumindest einen zweidimensionalen Merkmals und das Ergebnis beim Auswerten der Tiefeninformation, insbesondere das Ergebnis beim Suchen der Repräsentation des Objekts) werden anschließend, insbesondere wahrscheinlichkeitsbasiert, fusioniert. Die wahrscheinlichkeitsbasierte Fusion kann auf Basis eines Konfidenzniveaus der jeweiligen Ergebnisse erfolgen. Mit anderen Worten wird sowohl beim Auswerten des zweidimensionalen Merkmals durch das künstliche neuronale Netz als auch beim Suchen der Repräsentation des Objekts beziehungsweise beim Suchen eines der vorbestimmten Muster ein jeweiliges Konfidenzniveau für das jeweilige Ergebnis berechnet werden. Das jeweilige Konfidenzniveau kann angeben, mit welcher Wahrscheinlichkeit das jeweilige Ergebnis zutreffend ist. Mit anderen Worten kann das Konfidenzniveau angeben, wie zuverlässig das jeweilige Ergebnis ermittelt werden konnte. Dieses Konfidenzniveau kann beim Fusionieren der unterschiedlichen Ergebnisse im Rahmen der wahrscheinlichkeitsbasierten Fusion genutzt werden. Beispielsweise wird im Rahmen der wahrscheinlichkeitsbasierten Fusion eines der Ergebnisse höher gewichtet als das andere der Ergebnisse, wenn dessen Konfidenzniveau höher ist, also das Ergebnis zuverlässiger ermittelt werden konnte. Auf diese Weise kann die Unterscheidung zwischen Bordstein und Fahrbahnmarkierung noch zuverlässiger und robuster gewährleistet werden. Außerdem können die unterschiedlichen Auswertungszweige (künstliches neuronales Netz und maschinelles Sehen) unkompliziert jeweils unabhängig voneinander weiterentwickelt werden.According to a further development, it is provided that the classification of the object by means of the artificial neural network and the machine vision initially takes place independently of each other and respective results of the classification are subsequently fused, in particular based on probability. In other words, the evaluation of the two images is based on two-dimensional information, namely the at least one two-dimensional feature, and three-dimensional information, namely the depth information, largely separated from each other. The respective results (ie the result of evaluating the at least one two-dimensional feature and the result when evaluating the depth information, in particular the result when searching for the representation of the object) are then merged, in particular based on probability. The probability-based merger can be based on a confidence level of the respective results. In other words, both when evaluating the two-dimensional feature by the artificial neural network and when searching for the representation of the object or when searching for one of the predetermined patterns, a respective confidence level for the respective result is calculated. The respective confidence level can indicate with which probability the respective result is correct. In other words, the confidence level can indicate how reliably the respective result could be determined. This confidence level can be used to merge the different results of the probability-based merger. For example, in the context of the probability-based merger, one of the results is weighted higher than the other of the results if its confidence level is higher, ie the result could be determined more reliably. In this way, the distinction between curb and lane marking can be ensured even more reliable and robust. In addition, the different evaluation branches (artificial neural network and machine vision) can be easily further developed independently.

Gemäß einer Weiterbildung ist vorgesehen, dass das Klassifizieren des Objekts anhand des künstlichen neuronalen Netzes ausschließlich auf zweidimensionaler Ebene und das Klassifizieren des Objekts auf Basis des maschinellen Sehens ausschließlich auf dreidimensionaler Ebene erfolgt. Mit anderen Worten werden durch das künstliche neuronale Netz ausschließlich zweidimensionale Merkmale ausgewertet. Zudem erfolgt das Klassifizieren des Objekts auf Basis des maschinellen Sehens ausschließlich unter Berücksichtigung der Tiefeninformation. In manchen Ausführungsformen erfolgt das Klassifizieren des Objekts auf Basis des maschinellen Sehens ausschließlich anhand der Abstandskarte. Hierbei wird der Erkenntnis Rechnung getragen, dass sich das künstliche neuronale Netz besonders gut zum Auswerten der zweidimensionalen Merkmale eignet und sich demgegenüber das maschinelle Sehen besonders gut zum Auswerten der Tiefeninformation eignet.According to a development, it is provided that the classification of the object on the basis of the artificial neural network takes place exclusively on a two-dimensional plane and the classification of the object on the basis of machine vision exclusively on a three-dimensional plane. In other words, only two-dimensional features are evaluated by the artificial neural network. In addition, the classification of the object based on the machine vision takes place exclusively taking into account the depth information. In some embodiments, classifying the object is based on machine vision using only the distance map. In this case, it is taken into account that the artificial neural network is particularly well suited for evaluating the two-dimensional features and, in contrast, machine vision is particularly suitable for evaluating the depth information.

Gemäß einer Weiterbildung werden die beiden Bilder der Umgebung mittels derselben Kamera des Kraftfahrzeugs zeitlich versetzt erfasst. Mit anderen Worten werden die zwei Bilder durch dieselbe Kamera des Kamerasystems erfasst, wobei sich aufgrund der Fahrt des Kraftfahrzeugs diese Kamera beim Erfassen der beiden Bilder in einer jeweils unterschiedlichen Position befindet. Dabei handelt es sich um ein Verfahren, welches auch als Motion-Stereo, zu Deutsch Bewegungs-Stereo, bezeichnet wird. Die zwei Bilder der Umgebung können in diesem Beispiel insbesondere durch Bewegungsdaten des Kraftfahrzeugs bezüglich ihrer jeweiligen Perspektive in Verbindung gesetzt werden. Dabei können die Bewegungsdaten des Kraftfahrzeugs durch Odometrie mit der jeweiligen Perspektive der zwei Bilder in Verbindung gesetzt werden. In anderen Ausführungsformen der Erfindung weist das Kamerasystem des Kraftfahrzeugs zwei Kameras auf, wobei ein erstes der zwei Bilder durch eine erste der zwei Kameras und ein zweites der zwei Bilder durch eine zweite der zwei Kameras erfasst werden. In diesem Fall können die zwei Bilder insbesondere zeitgleich erfasst werden. Die zwei Kameras können beide einen Erfassungsbereich aufweisen, der dem Kraftfahrzeug im Wesentlichen in Fahrtrichtung vorausliegt. Die unterschiedliche Perspektive der zwei Bilder wird in diesem Fall durch die unterschiedliche Position der Kameras am Kraftfahrzeug gewährleistet.According to a further development, the two images of the environment are detected offset in time by means of the same camera of the motor vehicle. In other words, the two images are captured by the same camera of the camera system, wherein due to the drive of the motor vehicle, this camera is in a respectively different position when capturing the two images. This is a method which is also referred to as motion stereo, to German motion stereo. The two images of the environment in this example can be related in particular by movement data of the motor vehicle with respect to their respective perspective. In this case, the movement data of the motor vehicle can be connected by odometry with the respective perspective of the two images. In other embodiments of the invention, the camera system of the motor vehicle has two cameras, wherein a first of the two images are detected by a first of the two cameras and a second of the two images by a second of the two cameras. In this case, the two images can be detected in particular at the same time. The two cameras can both have a detection range, which lies ahead of the motor vehicle essentially in the direction of travel. The different perspective of the two images is ensured in this case by the different position of the cameras on the motor vehicle.

Ein zweiter Aspekt der Erfindung betrifft eine Steuereinrichtung zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen in einer Umgebung eines Kraftfahrzeugs anhand von Bildern eines Kamerasystems des Kraftfahrzeugs mit einer Empfangseinheit zum Bereitstellen zweier Bilder der Umgebung aus dem Kamerasystem des Kraftfahrzeugs, wobei sich eine jeweilige Perspektive der zwei Bilder unterscheidet, und mit einer Erkennungseinheit zum Bestimmen zumindest eines zweidimensionalen Merkmals in zumindest einem der zwei Bilder, wobei das zumindest eine zweidimensionale Merkmal ein Objekt in der Umgebung des Kraftfahrzeugs repräsentiert, und einem künstlichen neuronalen Netz zum Auswerten des zumindest einen zweidimensionalen Merkmals, und einer Extraktionseinheit zum Extrahieren einer Tiefeninformation aus den zwei Bildern der Umgebung, und einer Klassierungseinheit zum Klassifizieren beziehungsweise Klassieren des Objekts in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein sowohl anhand eines Ergebnisses beim Auswerten des zweidimensionalen Merkmals als auch anhand der Tiefeninformation. Bei der Erkennungseinheit kann es sich um einen Eingangsteil des künstlichen neuronalen Netzes handeln, welcher auch mit dem englischsprachigen Fachbegriff CNN-Encoder bezeichnet wird. Bei der Extraktionseinheit zum Extrahieren der Tiefeninformation kann es sich um einen weiteren Eingangsteil des künstlichen neuronalen Netzes handeln. Dieser weitere Eingangsteil des künstlichen neuronalen Netzes kann dazu ausgebildet sein, zumindest ein dreidimensionales Merkmal in den zwei Bildern zu bestimmen, wobei das zumindest eine dreidimensionale Merkmal das Objekt in der Umgebung repräsentiert, In diesem Fall kann das künstliche neuronale Netz zusätzlich zum Auswerten des zumindest einen dreidimensionalen Merkmals ausgebildet sein. Alternativ handelt es sich bei der Extraktionseinheit zum Extrahieren der Tiefeninformation um eine Auswertungseinheit zum maschinellen Sehen. Beide Ausführungsformen sind im Rahmen des zuvor erläuterten Verfahrens bereits beschrieben, weshalb an dieser Stelle auf eine erneute Beschreibung verzichtet wird. Alle vorteilhaften Weiterbildungen und Merkmale des erfindungsgemäßen Verfahrens gelten analog auch für die erfindungsgemäße Steuereinrichtung. Vorteilhafterweise ist die Steuereinrichtung dazu eingerichtet, ein Verfahren nach einer oder mehrerer der im Vorherigen beschriebenen Ausführungsformen durchzuführen.A second aspect of the invention relates to a control device for distinguishing lane markings and curbs in an environment of a motor vehicle based on images of a camera system of the motor vehicle with a receiving unit for providing two images of the environment from the camera system of the motor vehicle, wherein a respective perspective of the two images differs and an identification unit for determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the surroundings of the motor vehicle, and an artificial neural network for evaluating the at least one two-dimensional feature, and an extraction unit for Extracting depth information from the two images of the environment, and a classification unit for classifying the object in the environment either as a lane marking or as a curb s owohl based on a result in the evaluation of the two-dimensional feature as well as the depth information. The recognition unit can be an input part of the artificial neural network, which is also called the English-language technical term CNN encoder. The extraction unit for extracting the depth information may be another input part of the artificial neural network. This further input part of the artificial neural network can be designed to determine at least one three-dimensional feature in the two images, wherein the at least one three-dimensional feature represents the object in the environment. In this case, the artificial neural network can additionally evaluate the at least one be formed three-dimensional feature. Alternatively, the extraction unit for extracting the depth information is a machine vision evaluation unit. Both embodiments are already described in the context of the previously explained method, which is why a renewed description is omitted here. All advantageous developments and features of the method according to the invention apply analogously to the control device according to the invention. Advantageously, the control device is adapted to perform a method according to one or more of the embodiments described above.

Ein weiterer Aspekt der Erfindung betrifft ein Fahrassistenzsystem mit einem Kamerasystem, welches zumindest eine Kamera zum Erfassen zweier Bilder der Umgebung sowie die oben genannte Steuereinrichtung aufweist. Das Fahrassistenzsystem kann an einem Kraftfahrzeug angeordnet sein. Somit gehört auch ein Kraftfahrzeug mit einem solchen Fahrassistenzsystem zur vorliegenden Erfindung. Die Merkmale des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Steuereinrichtung gelten somit analog auch für das Fahrassistenzsystem und das Kraftfahrzeug.A further aspect of the invention relates to a driver assistance system having a camera system which has at least one camera for capturing two images of the surroundings as well as the abovementioned control device. The driver assistance system can be arranged on a motor vehicle. Thus, a motor vehicle with such a driver assistance system is part of the present invention. The features of the method according to the invention and the control device according to the invention thus also apply analogously to the driver assistance system and the motor vehicle.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen nach einer oder mehreren Ausführungsformen des oben beschriebenen Verfahrens durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinrichtung abgearbeitet wird. Zur Erfindung gehört somit auch ein computerlesbares Medium, insbesondere in Form einer computerlesbaren Diskette, CD, DVD, Speicherkarte, USB-Speichereinheit, oder ähnlichen, in dem Programmcodemittel gespeichert sind, um das Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen nach einer oder mehrerer der oben genannten Ausführungsformen durchzuführen, wenn die Programmcodemittel in einen Speicher einer elektronischen Steuerungseinheit geladen und auf einem Prozessor der elektronischen Steuerungseinheit abgearbeitet werden.Another aspect of the invention relates to a computer program product having program code means stored in a computer readable medium for performing the method of distinguishing lane markers and curbs according to one or more embodiments of the above-described method when the computer program product is executed on a processor of an electronic controller , The invention thus also includes a computer-readable medium, particularly in the form of a computer-readable floppy disc, CD, DVD, memory card, USB memory device, or the like, stored in the program code means for discriminating lane markers and curbs according to one or more of the above mentioned embodiments perform when the program code means are loaded into a memory of an electronic control unit and processed on a processor of the electronic control unit.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively specified combination but also in other combinations, without departing from the scope of the invention , Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim. Moreover, embodiments and combinations of features, in particular by the embodiments set out above, are to be regarded as disclosed, which go beyond or deviate from the combinations of features set out in the back references of the claims.

Dabei zeigen:

  • 1 in einer schematischen Draufsicht ein Kraftfahrzeug in dessen Umgebung sich eine Fahrbahnmarkierung und ein Bordstein befinden, welche durch ein Kamerasystem des Kraftfahrzeugs erfasst werden;
  • 2 in einem Blockdiagramm eine erste Ausführungsform einer Rechenstruktur für das vorliegende Verfahren; und
  • 3 in einem Blockdiagramm eine zweite Ausführungsform einer Rechenstruktur für das vorliegende Verfahren.
Showing:
  • 1 in a schematic plan view of a motor vehicle in the vicinity of which are a lane marking and a curb, which are detected by a camera system of the motor vehicle;
  • 2 a block diagram of a first embodiment of an arithmetic structure for the present method; and
  • 3 in a block diagram, a second embodiment of an arithmetic structure for the present method.

1 zeigt ein Kraftfahrzeug 1, welches entsprechend einer Fahrtrichtung 11 eine Fahrbahn 12 befährt. Ein Kamerasystem 2 des Kraftfahrzeugs 1 weist vorliegend eine Kamera 20 zum Erfassen von Bildern 4 der Umgebung U auf. Eine Erfassungsrichtung 22 der Kamera 20 ist dabei im Wesentlichen parallel zu der Fahrtrichtung 11 des Kraftfahrzeugs 1 ausgerichtet. Dadurch erfasst die Kamera 20 einen dem Kraftfahrzeug 1 in Fahrtrichtung 11 vorausliegenden Bereich einer Umgebung U des Kraftfahrzeugs 1. Die Kamera 20 kann daher auch als Frontkamera bezeichnet werden. Derartige Frontkameras sind aus dem Stand der Technik bekannt. Das Kamerasystem 2 beziehungsweise die Kamera 20 ist Teil eines Fahrassistenzsystems 10 des Kraftfahrzeugs 1. Das Fahrassistenzsystem 10 umfasst weiterhin eine Steuereinrichtung 3. Die Steuereinrichtung 3 ist in mehrere Funktionseinheiten untergliedert. Konkret umfasst die Steuereinrichtung 3 vorliegend eine Empfangseinheit 31 zum Empfangen und/oder Bereitstellen von Bildern 4 der Umgebung U aus dem Kamerasystem 2 beziehungsweise der Kamera 20, eine Erkennungseinheit 32, ein künstliches neuronales Netz 33, eine Extraktionseinheit 34 sowie eine Klassierungseinheit 35. Die Funktion der einzelnen Funktionseinheiten wird im Folgenden noch genauer erläutert. 1 shows a motor vehicle 1 , which according to a direction of travel 11 a roadway 12 is traveling. A camera system 2 of the motor vehicle 1 has a camera in the present case 20 for capturing images 4 the environment U on. A detection direction 22 the camera 20 is essentially parallel to the direction of travel 11 of the motor vehicle 1 aligned. This captures the camera 20 a the motor vehicle 1 in the direction of travel 11 lying area of an environment U of the motor vehicle 1 , The camera 20 can therefore also be referred to as a front camera. Such front cameras are known from the prior art. The camera system 2 or the camera 20 is part of a driver assistance system 10 of the motor vehicle 1 , The driver assistance system 10 further comprises a control device 3 , The control device 3 is divided into several functional units. Concretely, the control device comprises 3 in the present case, a receiving unit 31 for receiving and / or providing images 4 the environment U from the camera system 2 or the camera 20 , a recognition unit 32 , an artificial neural network 33 , an extraction unit 34 and a classification unit 35 , The function of the individual functional units will be explained in more detail below.

In der Umgebung U befinden sich Objekte 6, vorliegend eine Fahrbahnmarkierung 7 sowie Bordstein 8. Das Fahrassistenzsystem 10 beziehungsweise die Steuereinrichtung 3 ist dazu ausgebildet, Bordsteine 8 und Fahrbahnmarkierungen 7 zu unterscheiden. Dies ist insbesondere daher wichtig, da sowohl Fahrbahnmarkierungen 7 als auch Bordsteine 8 jeweils langgestreckte Objekte 6, welche im Rahmen einer Bildauswertung leicht verwechselt werden können. Das Fahrassistenzsystem 10 erkennt somit Objekte 6, vorliegend Fahrbahnmarkierungen 7 und Bordsteine 8, in der Umgebung U. Außerdem ist die Steuereinrichtung 3 beziehungsweise das Fahrassistenzsystem 10 dazu ausgebildet, Fahrbahnmarkierungen 7 und Bordsteine 8 zu unterscheiden. Derart gewonnene Daten können weiteren Fahrassistenzsystemen des Kraftfahrzeugs 1 bereitgestellt werden. Auf Basis dieser gewonnenen Daten über Objekte 6 können beispielsweise Fahrerassistenzfunktionen bereitgestellt werden. Beispiele für Fahrerassistenzfunktionen sind Spurhalteassistent, Autopilot beziehungsweise autonome Steuerung des Kraftfahrzeugs 1 sowie Assistenten zur Vermeidung einer Kollision.In the environment U there are objects 6 , in this case a road marking 7 as well as curb 8th , The driver assistance system 10 or the control device 3 is designed to curbs 8th and road markings 7 to distinguish. This is especially important because both lane markings 7 as well as curbs 8th each elongated objects 6 , which can easily be confused in the context of an image analysis. The driver assistance system 10 recognizes objects 6 , in this case road markings 7 and curbs 8th , in the environment U. Also, the control device 3 or the driver assistance system 10 adapted to road markings 7 and curbs 8th to distinguish. Data obtained in this way can be used by other driver assistance systems of the motor vehicle 1 to be provided. Based on this data about objects 6 For example, driver assistance functions can be provided. Examples of driver assistance functions are lane departure warning, autopilot or autonomous control of the motor vehicle 1 and collision avoidance wizards.

Die 2 und 3 zeigen jeweils beispielhaft eine Ausführungsform einer Rechenstruktur zum Durchführen eines Verfahrens zum Unterscheiden von Fahrbahnmarkierungen 7 und Bordsteinen 8. Die in den 2 und 3 beispielhaft dargestellten Rechenstrukturen können in der Steuereinrichtung 3 des Kraftfahrzeugs 1 realisiert beziehungsweise programmiert sein. Beiden Ausführungsformen ist zu eigen, dass zwei Bilder 4 der Umgebung U durch die Empfangseinheit 31 der Steuereinrichtung 3 aus der Kamera 20 beziehungsweise aus dem Kamerasystem 2 empfangen werden. In den zwei Bildern 4 ist die Umgebung U in einer jeweils unterschiedlichen Perspektive erfasst. Mit anderen Worten weisen die zwei Bilder 4 eine jeweilige Darstellung der Umgebung U aus einer jeweils unterschiedlichen Perspektive auf. Die unterschiedliche Perspektive der zwei Bilder 4 kommt vorliegend durch eine Bewegung des Kraftfahrzeugs 1 in Fahrtrichtung 11 zustande. Durch die Bewegung des Kraftfahrzeugs 1 verändert die Kamera 20 ihre Position bezüglich der Umgebung U, wodurch sich die jeweilige Perspektive der zeitversetzt aufgenommenen Bilder 4 unterscheidet. Dieses Verfahren wird auch als Bewegungs-Stereo beziehungsweise Motion-Stereo bezeichnet.The 2 and 3 each show, by way of example, an embodiment of an arithmetic structure for carrying out a method for distinguishing lane markings 7 and curbs 8th , The in the 2 and 3 Example computational structures shown in the control device 3 of the motor vehicle 1 be realized or programmed. Both embodiments own two pictures 4 the environment U through the receiving unit 31 the control device 3 out of the camera 20 or from the camera system 2 be received. In the two pictures 4 is the environment U captured in a different perspective. In other words, the two pictures show 4 a respective representation of the environment U from a different perspective. The different perspective of the two pictures 4 in the present case is due to a movement of the motor vehicle 1 in the direction of travel 11 conditions. By the movement of the motor vehicle 1 changes the camera 20 their position regarding the environment U , whereby the respective perspective of the delayed taken pictures 4 different. This Method is also referred to as motion stereo or motion stereo.

Bei den beiden Ausführungsformen gemäß 2 und 3 ist jeweils vorgesehen, dass die zwei Bilder 4 gemeinsam auf dreidimensionaler Ebene ausgewertet werden und ein Bild 5, welches vorzugsweise eines der zwei Bilder 4 ist, auf zweidimensionaler Ebene ausgewertet wird. Mit anderen Worten wird eines der zwei Bilder 4 als das Bild 5 zweidimensional ausgewertet. Die Auswertung auf zweidimensionaler Ebene des Bildes 5 erfolgt in beiden Ausführungsformen gemäß 2 und 3 mittels des künstlichen neuronalen Netzes 33. In manchen Ausführungsformen der Erfindung können auch beide Bilder 4 unabhängig beziehungsweise redundant als jeweiliges Bild 5 auf zweidimensionaler Ebene ausgewertet werden. Dies ist jedoch nicht zwangsläufig nötig. Zum Sparen von Rechenkapazitäten wird vorliegend nur eines der beiden Bilder 4 als das Bild 5 zweidimensional ausgewertet.In the two embodiments according to 2 and 3 is provided in each case that the two pictures 4 be evaluated together on a three-dimensional level and a picture 5 which is preferably one of the two images 4 is evaluated on a two-dimensional plane. In other words, one of the two pictures 4 as the picture 5 evaluated in two dimensions. The evaluation on two-dimensional level of the image 5 takes place in both embodiments according to 2 and 3 by means of the artificial neural network 33 , In some embodiments of the invention, both images may also be used 4 independent or redundant as the respective image 5 be evaluated on a two-dimensional level. However, this is not necessarily necessary. In the present case, only one of the two images is used to save computing capacity 4 as the picture 5 evaluated in two dimensions.

Zunächst soll die Ausführungsform gemäß 2 beschrieben werden. Der dieser Ausführungsform zugrundeliegende Ansatz kann als späte Fusion bezeichnet werden, da die Auswertung auf zweidimensionaler Ebene und dreidimensionaler Ebene getrennt voneinander erfolgt und erst in einem letzten Schritt die jeweiligen Ergebnisse 40, 47 fusioniert werden. Durch die Erkennungseinheit 32 wird in dem Bild 5 zumindest ein zweidimensionales Merkmal 42 bestimmt. Die Erkennungseinheit 32 ist insbesondere als Eingangsteil des künstlichen neuronalen Netzes 33 ausgeführt. Insbesondere handelt es sich bei der Erkennungseinheit 32 um einen sogenannten CNN (Convolutional Neural Network)-Encoder, also Encoder für ein künstliches neuronales Netz. Durch die Erkennungseinheit 32 und das künstliche neuronale Netz 33 wird das Bild 5 semantisch segmentiert. Dabei werden zweidimensionale Merkmale 42, welche in der Erkennungseinheit 32 bestimmt werden, zu Segmenten zusammengefasst. Die semantische Segmentation erfolgt vorzugsweise auf Pixelebene. Mit anderen Worten wird das Bild 5 auf Pixelebene semantisch segmentiert. Dabei werden semantisch zusammengehörige Bereiche des Bildes 5 anhand der zweidimensionalen Bildinformation des Bildes 5 in Segmenten zusammengefasst. Im Rahmen dieser semantischen Segmentation können Fahrbahnmarkierungen 7 und Bordsteine 8 erkannt werden. Da die Fahrbahnmarkierungen 7 und die Bordsteine 8 jedoch oftmals keine unterscheidungskräftigen Kennzeichen aufweisen ist es oftmals schwierig, diese zu unterscheiden. Das künstliche neuronale Netz gibt als Ergebnis 40 der Auswertung der zweidimensionalen Merkmale 42 eine semantische Karte aus. Die Klassierungseinheit 35 klassiert beziehungsweise klassifiziert die Objekte 6 anhand des Ergebnisses 40, insbesondere der semantischen Karte, entweder als Fahrbahnmarkierung 7 oder als Bordstein 8.First, the embodiment according to 2 to be discribed. The approach underlying this embodiment may be referred to as late fusion, since the evaluation on two-dimensional level and three-dimensional level is done separately and only in a final step, the respective results 40 . 47 be merged. Through the detection unit 32 is in the picture 5 at least a two-dimensional feature 42 certainly. The recognition unit 32 is especially as an input part of the artificial neural network 33 executed. In particular, it is the recognition unit 32 a so-called CNN (Convolutional Neural Network) encoder, so an encoder for an artificial neural network. Through the detection unit 32 and the artificial neural network 33 becomes the picture 5 semantically segmented. Thereby two-dimensional features become 42 which are in the detection unit 32 be determined, grouped into segments. The semantic segmentation is preferably done at the pixel level. In other words, the picture becomes 5 segmented semantically at the pixel level. In doing so, semantically related areas of the image become 5 based on the two-dimensional image information of the image 5 grouped in segments. In the context of this semantic segmentation may be lane markings 7 and curbs 8th be recognized. Because the lane markings 7 and the curbs 8th however, often lack distinctive features, it is often difficult to distinguish them. The artificial neural network gives as a result 40 the evaluation of the two-dimensional features 42 a semantic card. The classification unit 35 classifies or classifies the objects 6 based on the result 40 , in particular the semantic map, either as a lane marking 7 or as a curb 8th ,

Um eine verbesserte Unterscheidung zwischen Fahrbahnmarkierungen 7 und Bordstein 8 zu ermöglichen, wird vorliegend zusätzlich eine Tiefeninformation aus den zwei Bildern 4 bereitgestellt. Die Tiefeninformation ist in den Bildern 4 aufgrund deren unterschiedlicher Perspektive enthalten. In dem Ausführungsbeispiel gemäß 2 wird als die Tiefeninformation eine Abstandskarte 41 bestimmt. Die Abstandskarte 41 kann jedem Pixel der Abstandskarte 41 einen jeweiligen Abstand von der Kameraebene 21 zuordnen. Die Abstandskarte 41 beinhaltet somit jeweilige Abstände von Bereichen der Umgebung U, welche durch die Abstandskarte 41 (und somit auch durch die Bilder 4) repräsentiert werden. Mit anderen Worten ordnet die Abstandskarte 41 den durch die repräsentierten Bereiche der Umgebung U pixelweise einen jeweiligen Abstandswert zu. Dieser Abstandswert ist dabei insbesondere parallel zu der Erfassungsrichtung 22 der Kamera 20 zu verstehen. Mit anderen Worten geben die jeweiligen Abstandswerte der Abstandskarte 41 den jeweiligen Abstand des jeweiligen Bereichs der Umgebung U von der Kameraebene 21 parallel zu der Erfassungsrichtung 22 an.For an improved distinction between lane markings 7 and curb 8th In addition, in the present case, depth information from the two pictures is allowed 4 provided. The depth information is in the pictures 4 because of their different perspectives. In the embodiment according to 2 becomes a distance map as the depth information 41 certainly. The distance map 41 can each pixel of the distance card 41 a respective distance from the camera plane 21 assign. The distance map 41 thus includes respective distances of regions of the environment U, which by the distance map 41 (and thus also through the pictures 4 ). In other words, the distance map arranges 41 the pixel-wise by the represented regions of the environment U to a respective distance value. This distance value is in particular parallel to the detection direction 22 the camera 20 to understand. In other words, the respective distance values give the distance map 41 the respective distance of the respective region of the surroundings U from the camera plane 21 parallel to the detection direction 22 at.

Mittels maschinellen Sehens kann unter Auswertung mathematischer Methoden eine Repräsentation des Objekts 6 in der Abstandskarte 41 gesucht werden. Beispielsweise kann hierzu eine Segmentierung basierend auf den Abstandswerten der Abstandskarte 41 vorgesehen sein. Mit anderen Worten werden zusammenhängende Bereiche von Pixeln mit gleichen oder ähnlichen Entfernungswerten in einem Segment zusammengefasst. Entfernungswerte können beispielsweise genau dann als ähnlich gelten, wenn sie maximal um einen vorbestimmten Grenzwert voneinander oder von einem gemeinsamen Mittelwert abweichen. Basierend auf dieser Segmentierungsmethode kann die Abstandskarte 41 zu einer segmentierten Abstandskarte weiterverarbeitet werden. Beispielsweise wird in der Abstandskarte 41 oder in der segmentierten Abstandskarte nach einer Repräsentation des Objekts 6 gesucht. Insbesondere wird dann eine Repräsentation in der Abstandskarte 41 oder segmentierten Abstandskarte erkannt, wenn ein vorbestimmtes Muster in der Abstandskarte 41 beziehungsweise der segmentierten Abstandskarte erkannt wird. Beispielsweise ist zumindest ein vorbestimmtes Muster für eine Fahrbahnmarkierung 7 und/oder zumindest ein vorbestimmtes Muster für einen Bordstein 8 vorgegeben. Wird eines dieser vorbestimmten Muster erkannt, gilt eine Repräsentation des Objekts 6 als erkannt. Beispielsweise können Fahrbahnmarkierungen 7 als flach gelten. In diesem Fall ist kein vorbestimmtes Muster für eine Fahrbahnmarkierung 7 vorgesehen. Fahrbahnmarkierungen 7 können in diesem Beispiel nur anhand der Abstandskarte 41 beziehungsweise der segmentierten Abstandskarte nicht erkannt werden. In diesem Fall kann anhand der Abstandskarte 41 beziehungsweise der segmentierten Abstandskarte nur eine Repräsentation eines Bordsteins 8 als Objekt 6 erkannt werden. Unabhängig von der genauen Ausführung können Fahrbahnmarkierungen 7 und Bordsteine 8 anhand der Abstandskarte 41 beziehungsweise der segmentierten Abstandskarte besonders gut unterschieden werden.By means of machine vision, a representation of the object can be evaluated by evaluating mathematical methods 6 in the distance map 41 be searched. For example, this can be a segmentation based on the distance values of the distance map 41 be provided. In other words, contiguous regions of pixels with the same or similar distance values are combined in one segment. For example, distance values may be considered similar if and only if they deviate from each other by at most one predetermined limit value or from a common average value. Based on this segmentation method, the distance map 41 be further processed to a segmented distance map. For example, in the distance map 41 or in the segmented distance map after a representation of the object 6 searched. In particular, then a representation in the distance map 41 or segmented distance map detected when a predetermined pattern in the distance map 41 or the segmented distance card is detected. For example, at least one predetermined pattern for a lane marking 7 and / or at least one predetermined pattern for a curb 8th specified. If one of these predetermined patterns is detected, a representation of the object applies 6 as recognized. For example, lane markings 7 to be considered flat. In this case, there is no predetermined pattern for a lane marking 7 intended. road markings 7 can in this example only by the distance map 41 or the segmented distance map are not recognized. In this case, the distance map 41 or the segmented distance card only one Representation of a curb 8th as an object 6 be recognized. Regardless of the exact design, lane markings 7 and curbs 8th by the distance map 41 or the segmented distance map are distinguished particularly well.

In der Klassierungseinheit 35 wird das Ergebnis 40 beim Auswerten durch das künstliche neuronale Netz 33 sowie das Ergebnis 47 beim Auswerten der Abstandskarte 41 zum Klassifizieren beziehungsweise Klassieren des Objekts 6 entweder als Fahrbahnmarkierung 7 oder Bordstein 8 herangezogen. Dabei kann durch die Klassierungseinheit 35 ein wahrscheinlichkeitsbasierter Fusionsansatz vorgesehen sein. Mit anderen Worten werden das Ergebnis 40 sowie das Ergebnis 47 beim Auswerten der Abstandskarte 41 zum Klassifizieren des Objekts 6 wahrscheinlichkeitsbasiert fusioniert. Beispielsweise wird beim Auswerten durch das künstliche neuronale Netz 33 sowie beim Auswerten der Abstandskarte 41 ein jeweiliges Konfidenzniveau bestimmt. Das Konfidenzniveau kann eine Qualität der Auswertung angeben. Beim Fusionieren beziehungsweise Klassifizieren kann dasjenige der Ergebnisse 40, 47 höher gewichtet werden, dessen Konfidenzniveau höher ist. Ein höheres Konfidenzniveau gibt dabei eine höhere Qualität bei der jeweiligen Auswertung beziehungsweise eine höhere Wahrscheinlichkeit für die Richtigkeit des jeweiligen Ergebnisses 40, 47 an.In the classification unit 35 will be the result 40 when evaluating through the artificial neural network 33 as well as the result 47 when evaluating the distance map 41 for classifying or classifying the object 6 either as a lane marking 7 or curb 8th used. It can by the classifying unit 35 a probability-based fusion approach should be provided. In other words, the result 40 as well as the result 47 when evaluating the distance map 41 for classifying the object 6 probability-based merged. For example, when evaluating through the artificial neural network 33 as well as when evaluating the distance map 41 determines a respective confidence level. The confidence level can indicate a quality of the evaluation. When merging or classifying, that of the results 40 . 47 weighted higher whose confidence level is higher. A higher confidence level gives a higher quality in the respective evaluation or a higher probability for the correctness of the respective result 40 . 47 at.

Bei der Ausführungsform gemäß 3 ist die Extraktionseinheit 34 als weiterer Eingangsteil für das künstliche neuronale Netz 33 ausgebildet. Mit anderen Worten ist die Extraktionseinheit 34 als weiterer CNN-Encoder ausgeführt. Durch die Extraktionseinheit 34 beziehungsweise den weiteren CNN-Encoder wird zumindest ein dreidimensionales Merkmal 43 aus den Bildern 4 der Umgebung U bestimmt. Für das Bestimmen des zumindest einen dreidimensionalen Merkmals 43 können die Bilder 4 zunächst im Rahmen einer dreidimensionalen Auswertung 37 perspektivisch ausgewertet werden. Erst durch diese dreidimensionale Auswertung 37 kann die Tiefeninformation, vorliegend das zumindest eine dreidimensionale Merkmal 43, aus den zwei Bildern 4 extrahiert beziehungsweise bestimmt werden. Im Rahmen der dreidimensionalen Auswertung 37 kann auch eine Abstandskarte erzeugt werden, welche analog zu der Abstandskarte 41 zu verstehen ist. In diesem Fall kann das zumindest eine dreidimensionale Merkmal 43 aus der im Rahmen der dreidimensionalen Auswertung 37 erstellten Abstandskarte bestimmt beziehungsweise extrahiert werden.In the embodiment according to 3 is the extraction unit 34 as another input part for the artificial neural network 33 educated. In other words, the extraction unit 34 as another CNN encoder. Through the extraction unit 34 or the other CNN encoder is at least a three-dimensional feature 43 from the pictures 4 the environment U determined. For determining the at least one three-dimensional feature 43 can the pictures 4 initially as part of a three-dimensional evaluation 37 be evaluated in perspective. Only through this three-dimensional evaluation 37 can the depth information, in this case the at least one three-dimensional feature 43 , from the two pictures 4 be extracted or determined. As part of the three-dimensional evaluation 37 can also be generated a distance map, which is analogous to the distance map 41 to understand. In this case, this can be at least a three-dimensional feature 43 from within the framework of the three-dimensional evaluation 37 created distance map determined or extracted.

Sowohl zweidimensionale Merkmale 42 als auch dreidimensionale Merkmale 43 können im Rahmen semantischer Segmentierung bestimmt werden. Insbesondere sind im Ausführungsbeispiel gemäß 3 semantische Segmentierungen auf zweidimensionaler Ebene und dreidimensionaler Ebene durchgehend mittels eines lernenden Systems, nämlich durch das künstliche neuronale Netz 33, vorgesehen. In diesem Beispiel erfolgt das Anlernen des künstlichen neuronalen Netzes 33 nicht nur anhand der zweidimensionalen Merkmale 42, sondern auch anhand einer Tiefeninformation, nämlich anhand des zumindest einen dreidimensionalen Merkmals 43. Auf diese Weise kann ein lernender Algorithmus des künstlichen neuronalen Netzes 33 lernen, zweidimensionale Merkmale 42 sowie dreidimensionale Merkmale 43 miteinander zu verknüpfen.Both two-dimensional features 42 as well as three-dimensional features 43 can be determined within semantic segmentation. In particular, according to the embodiment 3 semantic segmentation on two-dimensional level and three-dimensional level continuously by means of a learning system, namely by the artificial neural network 33 , intended. In this example, the training of the artificial neural network takes place 33 not just on the basis of the two-dimensional features 42 but also on the basis of depth information, namely on the basis of the at least one three-dimensional feature 43 , In this way, a learning algorithm of the artificial neural network 33 learn, two-dimensional features 42 as well as three-dimensional features 43 to connect with each other.

Im Rahmen einer Verknüpfung 45 der zweidimensionalen Merkmale 42 und dreidimensionalen Merkmale 43 müssen die jeweiligen Ausgabewerte der beiden CNN-Encoder (vorliegend der Erkennungseinheit 32 und der Extraktionseinheit 34) normalisiert werden. Diese Normalisierung wird vorliegend als Teil eines Anlernprozesses des künstlichen neuronalen Netzes 33 durchgeführt. Im Rahmen dieser Normalisierung werden die zweidimensionalen Merkmale 42 und die dreidimensionalen Merkmale 43 relativ zueinander gewichtet. Diese Gewichtung kann während einer Anwendung des Verfahrens in Echtzeit angepasst werden. Beispielsweise erfolgt die Gewichtung anhand jeweiliger Konfidenzniveaus, welche für die zweidimensionalen Merkmale 42 und die dreidimensionalen Merkmale 43 ermittelt werden. Anschließend können die zweidimensionalen Merkmale 42 und die dreidimensionalen Merkmale 43 als zusammengefasste Merkmale 38 durch das künstliche neuronale Netzes 33 ausgewertet werden.As part of a link 45 the two-dimensional features 42 and three-dimensional features 43 the respective output values of the two CNN encoders (in this case the recognition unit 32 and the extraction unit 34 ) are normalized. This normalization is present as part of a learning process of the artificial neural network 33 carried out. Within this normalization become the two-dimensional features 42 and the three-dimensional features 43 weighted relative to each other. This weighting can be adjusted in real time during application of the method. For example, the weighting is done on the basis of respective confidence levels, which for the two-dimensional features 42 and the three-dimensional features 43 be determined. Subsequently, the two-dimensional features 42 and the three-dimensional features 43 as summarized features 38 through the artificial neural network 33 be evaluated.

Die gesamte lernfähige Pipeline, welche durch die beiden CNN-Encoder (Erkennungseinheit 32 und Extraktionseinheit 34) bis hin zum Ausgang des künstlichen neuronalen Netzes 33 gegeben ist, kann durchgehend (also End-to-End) angelernt werden. Dabei werden jeweilige Trainingsdaten, welche Paarungen an Bildern, welche analog zu den zwei Bildern 4 aufgebaut sind, umfassen, zum Anlernen herangezogen. In den Trainingsdaten können jeweilige Fahrbahnmarkierungen und Bordsteine markiert sein. Außerdem können Bereiche der Bilder der Trainingsdaten markiert sein, welcher weder eine Fahrbahnmarkierung noch einen Bordstein umfassen (sogenannte Negatives). In weiterer Ausgestaltung können Trainingsdaten durch die lernfähige Pipeline ausgewertet werden und falsch klassifizierte Objekte zum weiteren Anlernen korrekt markiert werden. Falsch klassifizierte Objekte sind insbesondere falsch positiv erkannte Fahrbahnmarkierungen beziehungsweise Bordsteine. Dieses Vorgehen wird auch als Hard Negative Mining, in etwa Nutzung falscher Zuordnungen, bezeichnet.The entire learnable pipeline, which is controlled by the two CNN encoders (detection unit 32 and extraction unit 34 ) to the output of the artificial neural network 33 is given, can be taught throughout (ie end-to-end). In this case, respective training data, which pairings of images, which are analogous to the two images 4 are constructed, include, used for learning. In the training data, respective road markings and curbs can be marked. In addition, areas of the images of the training data may be marked, which include neither a lane marking nor a curb (so-called negatives). In a further embodiment, training data can be evaluated by the adaptive pipeline and incorrectly classified objects can be correctly marked for further training. Incorrectly classified objects are in particular wrongly positively recognized road markings or curbs. This procedure is also referred to as Hard Negative Mining, for example using incorrect assignments.

Insgesamt zeigen die beiden Ausführungsbeispiele, wie eine Verknüpfung der Auswertung von Bildern zum Unterscheiden von Fahrbahnmarkierungen 7 und Bordsteinen 8 auf zweidimensionaler Ebene und auf dreidimensionaler Ebene möglich ist. Insbesondere ist dadurch gezeigt, wie eine Genauigkeit in der Unterscheidung von Fahrbahnmarkierungen und Bordsteinen verbessert werden kann. Position und Art des Objekts 6 (Fahrbahnmarkierung 7 oder Bordstein 8), wird als Ergebnis 36, insbesondere für eine Fahrerassistenzfunktion des Kraftfahrzeugs 1, bereitgestellt.Overall, the two embodiments show how linking the evaluation of images to differentiating road markings 7 and curbs 8th on a two-dimensional level and on a three-dimensional level is possible. In particular, this shows how an accuracy in distinguishing lane markings and curbs can be improved. Position and type of object 6 (Road marking 7 or curb 8th ), as a result 36 , in particular for a driver assistance function of the motor vehicle 1 , provided.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2016/0104047 A1 [0004]US 2016/0104047 A1 [0004]

Claims (12)

Verfahren zum Unterscheiden von Fahrbahnmarkierungen (7) und Bordsteinen (8) in einer Umgebung (U) eines Kraftfahrzeugs (1) mit einem Kamerasystem (2) des Kraftfahrzeugs (1), mit den Schritten: - Bereitstellen zweier Bilder (4) der Umgebung (U) durch das Kamerasystem (2) des Kraftfahrzeugs (1), wobei sich eine jeweilige Perspektive der zwei Bilder (4) unterscheidet, - Bestimmen zumindest eines zweidimensionalen Merkmals (42) zumindest in einem (5) der zwei Bilder (4), wobei das zumindest eine zweidimensionale Merkmal (42) ein Objekt (6) in der Umgebung (U) des Kraftfahrzeugs (1) repräsentiert, - Auswerten des zumindest einen zweidimensionalen Merkmals (42) mittels eines künstlichen neuronalen Netzes (33), - Extrahieren einer Tiefeninformation (41, 43) aus den zwei Bildern (4) der Umgebung (U), und - Klassifizieren des Objekts (6) in der Umgebung entweder als Fahrbahnmarkierung (7) oder als Bordstein (8) sowohl anhand eines Ergebnisses (40) beim Auswerten des zweidimensionalen Merkmals (42) als auch anhand der Tiefeninformation(41, 43).Method for distinguishing lane markings (7) and curbs (8) in an environment (U) of a motor vehicle (1) with a camera system (2) of the motor vehicle (1), comprising the steps: Providing two images (4) of the surroundings (U) by the camera system (2) of the motor vehicle (1), wherein a respective perspective of the two images (4) differs, Determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the surroundings of the motor vehicle; Evaluating the at least one two-dimensional feature (42) by means of an artificial neural network (33), Extracting depth information (41, 43) from the two images (4) of the environment (U), and Classifying the object (6) in the environment either as a lane marking (7) or as a curb (8) both on the basis of a result (40) when evaluating the two-dimensional feature (42) and on the basis of the depth information (41, 43). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass - als die Tiefeninformation zumindest ein dreidimensionales Merkmal (43) bestimmt wird, wobei das zumindest eine dreidimensionale Merkmal (43) das Objekt (6) in der Umgebung (U) des Kraftfahrzeugs (1) repräsentiert, und - das zumindest eine dreidimensionale Merkmal (43) ebenfalls mittels des künstlichen neuronalen Netzes (33) ausgewertet wird.Method according to Claim 1 , characterized in that - as the depth information at least one three-dimensional feature (43) is determined, wherein the at least one three-dimensional feature (43) represents the object (6) in the environment (U) of the motor vehicle (1), and - that at least a three-dimensional feature (43) is also evaluated by means of the artificial neural network (33). Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das zumindest eine zweidimensionale Merkmal (42) und das zumindest eine dreidimensionale Merkmal (43) gemeinsam (38) mittels des künstlichen neuronalen Netzes (33) ausgewertet werden.Method according to Claim 2 , characterized in that the at least one two-dimensional feature (42) and the at least one three-dimensional feature (43) are evaluated jointly (38) by means of the artificial neural network (33). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Abstandskarte (41) als die Tiefeninformation bestimmt wird.Method according to one of the preceding claims, characterized in that a distance card (41) is determined as the depth information. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass mittels maschinellen Sehens, insbesondere unter Ausnutzung mathematischer Algorithmen, eine Repräsentation des Objekts (6) in der Abstandskarte (41) gesucht, insbesondere bestimmt, wird.Method according to Claim 4 , characterized in that by means of machine vision, in particular using mathematical algorithms, a representation of the object (6) in the distance map (41) is sought, in particular determined, becomes. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Klassifizieren des Objekts (6) zusätzlich auf Basis des Suchens der Repräsentation erfolgt.Method according to Claim 5 characterized in that classifying the object (6) is additionally based on searching the representation. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass das Klassifizieren des Objekts (6) mittels des künstlichen neuronalen Netzes (33) und des maschinellen Sehens zunächst unabhängig voneinander erfolgt und jeweilige Ergebnisse (40, 47) des Klassifizierens anschließend, insbesondere wahrscheinlichkeitsbasiert, fusioniert werden.Method according to Claim 5 or 6 , characterized in that the classification of the object (6) by means of the artificial neural network (33) and the machine vision initially takes place independently of one another and respective results (40, 47) of the classification are subsequently fused, in particular based on probability. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Klassifizieren des Objekts (6) anhand des künstlichen neuronalen Netzes (33) ausschließlich auf zweidimensionaler Ebene und das Klassifizieren des Objekts (6) auf Basis des maschinellen Sehens ausschließlich auf dreidimensionaler Ebene erfolgt.Method according to Claim 7 , characterized in that the classification of the object (6) on the basis of the artificial neural network (33) takes place exclusively on a two-dimensional plane and the classification of the object (6) on the basis of machine vision exclusively on a three-dimensional plane. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die beiden Bilder (4) der Umgebung (U) mittels derselben Kamera (20) des Kraftfahrzeugs (1) zeitlich versetzt erfasst werden.Method according to one of the preceding claims, characterized in that the two images (4) of the environment (U) by means of the same camera (20) of the motor vehicle (1) are detected offset in time. Steuereinrichtung (3) zum Unterscheiden von Fahrbahnmarkierungen (7) und Bordsteinen (8) in einer Umgebung (U) eines Kraftfahrzeugs (1) anhand von Bildern (4) eines Kamerasystems (2) des Kraftfahrzeugs (1) mit - einer Empfangseinheit (31) zum Bereitstellen zweier Bildes der Umgebung (U) aus dem Kamerasystem (2) des Kraftfahrzeugs (1), wobei sich eine jeweilige Perspektive der zwei Bilder (4) unterscheidet, - einer Erkennungseinheit (32) zum Bestimmen zumindest eines zweidimensionalen Merkmals (42) in zumindest einem (5) der zwei Bilder (4), wobei das zumindest eine zweidimensionale Merkmal (42) ein Objekt in der Umgebung des Kraftfahrzeugs repräsentiert, - einem künstlichen neuronalen Netz (33) zum Auswerten des zumindest einen zweidimensionalen Merkmals (42), - einer Extraktionseinheit (34) zum Extrahieren einer Tiefeninformation (41, 43) aus den zwei Bildern (4) der Umgebung, und - einer Klassierungseinheit (35) zum Klassifizieren des Objekts in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein sowohl anhand eines Ergebnisses (40) beim Auswerten des zweidimensionalen Merkmals als auch anhand der Tiefeninformation (41, 43).Control device (3) for distinguishing lane markings (7) and curbs (8) in an environment (U) of a motor vehicle (1) with images (4) of a camera system (2) of the motor vehicle (1) a receiving unit (31) for providing two images of the surroundings (U) from the camera system (2) of the motor vehicle (1), wherein a respective perspective of the two images (4) differs, a recognition unit for determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the surroundings of the motor vehicle, an artificial neural network (33) for evaluating the at least one two-dimensional feature (42), an extraction unit (34) for extracting depth information (41, 43) from the two images (4) of the environment, and - A classification unit (35) for classifying the object in the environment either as a lane marking or curb both on the basis of a result (40) in the evaluation of the two-dimensional feature as well as the depth information (41, 43). Fahrerassistenzsystem (10) mit - einem Kamerasystem (2), welches zumindest eine Kamera (20) zum Erfassen zweier Bilder (4) der Umgebung (U) aufweist, und - einer Steuereinrichtung (3) nach Anspruch 10.Driver assistance system (10) with - a camera system (2) having at least one camera (20) for detecting two images (4) of the environment (U), and - a control device (3) according to Claim 10 , Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Unterscheiden von Fahrbahnmarkierungen (7) und Bordsteinen (8) nach einem der vorhergehenden Ansprüche 1 bis 10 durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinrichtung (3) abgearbeitet wird.Computer program product comprising program code means stored in a computer readable medium for the method of distinguishing lane markings (7) and Curbs (8) according to one of the preceding Claims 1 to 10 perform when the computer program product is executed on a processor of an electronic control device (3).
DE102018109680.1A 2018-04-23 2018-04-23 Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product Withdrawn DE102018109680A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018109680.1A DE102018109680A1 (en) 2018-04-23 2018-04-23 Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018109680.1A DE102018109680A1 (en) 2018-04-23 2018-04-23 Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product

Publications (1)

Publication Number Publication Date
DE102018109680A1 true DE102018109680A1 (en) 2019-10-24

Family

ID=68104908

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018109680.1A Withdrawn DE102018109680A1 (en) 2018-04-23 2018-04-23 Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product

Country Status (1)

Country Link
DE (1) DE102018109680A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020116794A1 (en) 2020-06-25 2021-12-30 Connaught Electronics Ltd. Method for determining an object in the surroundings of a motor vehicle by means of an assistance system, computer program product, computer-readable storage medium and assistance system
DE102020211636A1 (en) 2020-09-17 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for providing data for creating a digital map
US12187275B2 (en) 2022-06-22 2025-01-07 Toyota Motor Engineering & Manufacturing North America, Inc Object measurement system for a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046822B1 (en) * 1999-06-11 2006-05-16 Daimlerchrysler Ag Method of detecting objects within a wide range of a road vehicle
DE102012018471A1 (en) * 2012-09-19 2013-04-04 Daimler Ag Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images
DE102014012285A1 (en) * 2014-08-22 2016-02-25 Jenoptik Robot Gmbh Method and axle counting device for non-contact axle counting of a vehicle and axle counting system for road traffic
US20160104047A1 (en) 2014-10-10 2016-04-14 Application Solutions (Electronics and Vision) Ltd. Image recognition system for a vehicle and corresponding method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046822B1 (en) * 1999-06-11 2006-05-16 Daimlerchrysler Ag Method of detecting objects within a wide range of a road vehicle
DE102012018471A1 (en) * 2012-09-19 2013-04-04 Daimler Ag Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images
DE102014012285A1 (en) * 2014-08-22 2016-02-25 Jenoptik Robot Gmbh Method and axle counting device for non-contact axle counting of a vehicle and axle counting system for road traffic
US20160104047A1 (en) 2014-10-10 2016-04-14 Application Solutions (Electronics and Vision) Ltd. Image recognition system for a vehicle and corresponding method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020116794A1 (en) 2020-06-25 2021-12-30 Connaught Electronics Ltd. Method for determining an object in the surroundings of a motor vehicle by means of an assistance system, computer program product, computer-readable storage medium and assistance system
DE102020211636A1 (en) 2020-09-17 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for providing data for creating a digital map
US11941892B2 (en) 2020-09-17 2024-03-26 Robert Bosch Gmbh Method and device for providing data for creating a digital map
US12187275B2 (en) 2022-06-22 2025-01-07 Toyota Motor Engineering & Manufacturing North America, Inc Object measurement system for a vehicle

Similar Documents

Publication Publication Date Title
DE102013205950B4 (en) Roadside detection method
DE102017129075A1 (en) PARKING NAVIGATION SYSTEM AND METHOD
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE112009000949T5 (en) Detection of a free driving path for a vehicle
EP2629243A1 (en) Method for detecting and tracking lane markings
DE102012222497A1 (en) System and method for detecting parking space markings for vehicles
DE102017203276B4 (en) Method and device for determining a trajectory in off-road scenarios
DE102009050505A1 (en) Clear path detecting method for vehicle i.e. motor vehicle such as car, involves modifying clear path based upon analysis of road geometry data, and utilizing clear path in navigation of vehicle
DE102009048699A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
DE102009050502A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
DE102019208735B4 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
DE102017220307A1 (en) Device and method for recognizing traffic signs
DE102014221803A1 (en) Method and device for determining a current driving situation
DE102015206546A1 (en) Road marking recognition device
DE102019208733A1 (en) Method and generator for generating disturbed input data for a neural network
DE102018109680A1 (en) Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product
DE102019214558A1 (en) PROJECTION INFORMATION RECOGNITION DEVICE BASED ON AN ARTIFICIAL NEURAL NETWORK AND PROCESSES OF THE SAME
DE102021206475A1 (en) Obstacle detection in the track area based on depth data
EP3576013A1 (en) Estimation of a path of a rail path
DE102017206396B4 (en) Control method, control unit, environment detection system and mobile and/or stationary device
WO2022042903A1 (en) Method for identifying three-dimensional objects, computer program, machine-readable storage medium, control unit, vehicle and video monitoring system
DE102018114231A1 (en) Method and system for capturing objects using at least one image of an area of interest (ROI)
WO2019162327A2 (en) Method for determining a distance between a motor vehicle and an object
DE102018112171A1 (en) Method for assessing objects in an environment of a motor vehicle using a three-dimensional fusion card, control device; Driver assistance system, computer program product
DE102021133089A1 (en) Device for determining a topography of a vehicle environment, vehicle and method

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R005 Application deemed withdrawn due to failure to request examination