DE102018109680A1 - Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product - Google Patents
Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product Download PDFInfo
- Publication number
- DE102018109680A1 DE102018109680A1 DE102018109680.1A DE102018109680A DE102018109680A1 DE 102018109680 A1 DE102018109680 A1 DE 102018109680A1 DE 102018109680 A DE102018109680 A DE 102018109680A DE 102018109680 A1 DE102018109680 A1 DE 102018109680A1
- Authority
- DE
- Germany
- Prior art keywords
- images
- dimensional feature
- motor vehicle
- environment
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Unterscheiden von Fahrbahnmarkierungen (7) und Bordsteinen (8) in einer Umgebung (U) eines Kraftfahrzeugs (1) mit einem Kamerasystem (2) des Kraftfahrzeugs (1). Durch die folgenden Schritte wird diese Unterscheidung mit verbesserter Genauigkeit zu ermöglicht:- Bereitstellen zweier Bilder (4) der Umgebung (U) durch das Kamerasystem (2) des Kraftfahrzeugs (1), wobei sich eine jeweilige Perspektive der zwei Bilder (4) unterscheidet,- Bestimmen zumindest eines zweidimensionalen Merkmals (42) zumindest in einem (5) der zwei Bilder (4), wobei das zumindest eine zweidimensionale Merkmal (42) ein Objekt (6) in der Umgebung (U) des Kraftfahrzeugs (1) repräsentiert,- Auswerten des zumindest einen zweidimensionalen Merkmals (42) mittels eines künstlichen neuronalen Netzes (33),- Extrahieren einer Tiefeninformation aus den zwei Bildern (4) der Umgebung (U), und- Klassifizieren des Objekts (6) in der Umgebung entweder als Fahrbahnmarkierung (7) oder als Bordstein (8) sowohl anhand eines Ergebnisses (40) beim Auswerten des zweidimensionalen Merkmals (42) als auch anhand der Tiefeninformation.The invention relates to a method for distinguishing lane markings (7) and curbs (8) in an environment (U) of a motor vehicle (1) with a camera system (2) of the motor vehicle (1). The following steps make this distinction possible with improved accuracy: provision of two images (4) of the environment (U) by the camera system (2) of the motor vehicle (1), wherein a respective perspective of the two images (4) differs, Determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the surroundings of the motor vehicle; Evaluating the at least one two-dimensional feature (42) by means of an artificial neural network (33), extracting depth information from the two images (4) of the environment (U), and classifying the object (6) in the environment either as a lane marking ( 7) or as a curb (8) both on the basis of a result (40) in the evaluation of the two-dimensional feature (42) and on the basis of the depth information.
Description
Die Erfindung betrifft ein Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen in einer Umgebung eines Kraftfahrzeugs mit einem Kamerasystem des Kraftfahrzeugs, wobei zumindest zwei Bilder der Umgebung bereitgestellt werden, die mit dem Kamerasystem aufgenommen werden, wobei sich eine jeweilige Perspektive der zumindest zwei Bilder unterscheidet. Die Erfindung betrifft außerdem eine Steuereinrichtung zum Beurteilen von Objekten in einer Umgebung eines Kraftfahrzeugs und ein Fahrerassistenzsystem mit einer solchen Steuereinrichtung sowie ein Computerprog ram m produ kt.The invention relates to a method for distinguishing lane markings and curbs in an environment of a motor vehicle with a camera system of the motor vehicle, wherein at least two images of the environment are provided, which are recorded with the camera system, wherein a respective perspective of the at least two images differs. The invention also relates to a control device for assessing objects in an environment of a motor vehicle and a driver assistance system having such a control device and a computer program.
Aus dem Stand der Technik bekannt ist es, eine Umgebung eines Kraftfahrzeugs mittels einer oder mehrerer Kameras zu erfassen. Beispielsweise werden Bilder der Umgebung erfasst und auf in der Umgebung befindliche Objekte hin ausgewertet. Beispiele hierfür sind Kameras an der Front und/oder am Heck des Fahrzeugs, welche einen dem Fahrzeug vorausliegenden oder rückwärtigen Bereich erfassen. Informationen, insbesondere über Objekte in der Umgebung des Kraftfahrzeugs, können einem Fahrerassistenzsystem des Kraftfahrzeugs bereitgestellt werden. Beispiele für Objekte, welche erfasst werden können sind unter anderem Fahrbahnmarkierungen, Bordsteine beziehungsweise Randsteine, Fußgänger, andere Verkehrsteilnehmer oder jegliche Art von Hindernissen in der Umgebung des Kraftfahrzeugs.From the prior art it is known to detect an environment of a motor vehicle by means of one or more cameras. For example, images of the environment are captured and evaluated for nearby objects. Examples include cameras at the front and / or at the rear of the vehicle, which detect an area ahead or rearward of the vehicle. Information, in particular about objects in the vicinity of the motor vehicle, can be provided to a driver assistance system of the motor vehicle. Examples of objects that can be detected include road markings, curbs or curbs, pedestrians, other road users or any kind of obstacles in the vicinity of the motor vehicle.
Ein zentrales Problem bei der Erfassung der Umgebung des Kraftfahrzeugs stellt dabei die Unterscheidung von Fahrbahnmarkierungen und Bordsteinen dar. Fahrbahnmarkierungen sowie Bordsteine können aufgrund ähnlicher Merkmale oftmals nur schwer voneinander unterschieden werden.A key problem in detecting the environment of the motor vehicle is the distinction of road markings and curbs. Road markings and curbs can often be difficult to distinguish from each other due to similar features.
Um eine verbesserte Unterscheidung von Fahrbahnmarkierungen und Bordsteinen zu ermöglichen, offenbart die
Es ist Aufgabe der vorliegenden Erfindung, eine Unterscheidung von Fahrbahnmarkierungen und Bordsteinen in einer Umgebung eines Kraftfahrzeugs mit verbesserter Genauigkeit zu ermöglichen.It is an object of the present invention to allow a distinction of lane markings and curbs in an environment of a motor vehicle with improved accuracy.
Diese Aufgabe wird erfindungsgemäß gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.This object is achieved by the subject matters of the independent claims. Advantageous embodiments with expedient developments are the subject of the dependent claims.
Die Erfindung beruht auf einem Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen beziehungsweise Randsteinen in einer Umgebung eines Kraftfahrzeugs mit einem Kamerasystem des Kraftfahrzeugs. Dabei liegen dem Verfahren die folgenden Schritte zugrunde:
- Bereitstellen zweier Bilder der Umgebung durch das Kamerasystem des Kraftfahrzeugs, wobei sich eine jeweilige Perspektive der zwei Bilder unterscheidet, Bestimmen zumindest eines zweidimensionalen Merkmals zumindest in einem der zwei Bilder, wobei das zumindest eine zweidimensionale Merkmal ein Objekt in der Umgebung des Kraftfahrzeugs repräsentiert, Auswerten des zumindest einen zweidimensionalen Merkmals mittels eines künstlichen neuronalen Netzes, Extrahieren einer Tiefeninformation aus den zwei Bildern der Umgebung und Klassifizieren des Objekts in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein sowohl anhand eines Ergebnisses beim Auswerten des zweidimensionalen Merkmals als auch anhand der Tiefeninformation.
- Providing two images of the environment through the camera system of the motor vehicle, wherein a respective perspective of the two images differs, determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the vicinity of the motor vehicle, evaluating the at least one two-dimensional feature by means of an artificial neural network, extracting depth information from the two images of the environment and classifying the object in the environment either as a lane marking or as a curb on the basis both of a result in the evaluation of the two-dimensional feature and on the basis of the depth information.
Insbesondere handelt es sich bei den zwei Bildern der Umgebung um einen sogenannten Front-View, also eine Darstellung eines dem Kraftfahrzeug vorausliegenden Bereichs. Somit kann die jeweilige Perspektive der zwei Bilder gemäß einer Fahrtrichtung des Kraftfahrzeugs ausgerichtet sein. Ein Erfassungsbereich des Kamerasystems kann im Wesentlichen einen dem Kraftfahrzeug in Fahrtrichtung vorausliegenden Bereich der Umgebung umfassen. Mit anderen Worten wird anhand der zwei Bilder der Umgebung vorteilhafterweise ein dem Kraftfahrzeug vorausliegender Bereich der Umgebung erfasst.In particular, the two images of the environment are a so-called front view, that is to say a representation of a region ahead of the motor vehicle. Thus, the respective perspective of the two images can be aligned according to a direction of travel of the motor vehicle. A detection area of the camera system may essentially comprise an area of the surroundings ahead of the motor vehicle in the direction of travel. In other words, an area of the environment ahead of the motor vehicle is advantageously detected on the basis of the two images of the surroundings.
Das zweidimensionale Merkmal ist insbesondere ein Merkmal in der zweidimensionalen Bildebene des jeweiligen Bildes. In der Bildebene können Merkmale nur zweidimensional bestimmt und ausgewertet werden. Zweidimensional bedeutet dabei insbesondere, dass eine Ausdehnung beziehungsweise eine Auswertung des Merkmals nur bezüglich zwei unabhängiger (also insbesondere rechtwinkliger) Raumrichtung vorliegt. Diese zwei Raumrichtungen (beispielsweise definiert durch eine x-Achse sowie eine y-Achse) können die Bildebene des jeweiligen Bildes aufspannen. Mit anderen Worten liegen diese beiden Raumrichtungen (insbesondere x-Achse und y-Achse) in der Bildebene des jeweiligen Bildes. Eine dritte Raumrichtung (beispielsweise definiert durch eine z-Achse), welche unabhängig von den zuvor genannten Achsen (x-Achse und y-Achse) ist und insbesondere rechtwinklig zu diesen verläuft, kann in einem einzelnen der zwei Bilder der Umgebung nicht repräsentiert sein, da diese zweidimensional sind und daher einzeln keine Information betreffend der dritten Raumrichtung aufweisen.The two-dimensional feature is in particular a feature in the two-dimensional image plane of the respective image. In the image plane, features can only be determined and evaluated two-dimensionally. Two-dimensional means in particular that an expansion or an evaluation of the feature is present only with respect to two independent (ie in particular right-angled) spatial direction. These two spatial directions (defined for example by an x-axis and a y-axis) can span the image plane of the respective image. In other words, these two spatial directions (in particular x-axis and y-axis) lie in the image plane of the respective image. A third spatial direction (defined, for example, by a z-axis) which is independent of the aforementioned axes (x-axis and y-axis) and in particular runs at right angles thereto can be seen in a single one of the two pictures Environment are not represented because they are two-dimensional and therefore individually have no information regarding the third spatial direction.
Diese Information betreffend die dritte Raumrichtung (z-Achse) wird vorliegend als die Tiefeninformation bezeichnet. Die Tiefeninformation kann Abstände und Längenverhältnisse bezogen auf die dritte Raumrichtung (z-Achse) beinhalten. Die dritte Raumrichtung (z-Achse) verläuft insbesondere parallel zu einer Erfassungsrichtung der jeweiligen Kamera durch welche das jeweilige Bild erfasst beziehungsweise aufgenommen wird. Mit anderen Worten beschreibt die Tiefeninformation auf abstrakte oder konkrete Weise den Abstand von Bildinhalten oder Merkmalen von der Kamera. Die Tiefeninformation kann aus den zwei Bildern der Umgebung extrahiert werden, da diese eine jeweils unterschiedliche Perspektive auf die Umgebung aufweisen. Somit ist jedes der zwei Bilder für sich genommen zweidimensional und ohne die Tiefeninformation. Werden die zwei Bilder jedoch gemeinsam ausgewertet, kann die Tiefeninformation aus diesen extrahiert werden.This information concerning the third spatial direction (z-axis) is referred to herein as the depth information. The depth information may include distances and aspect ratios relative to the third spatial direction (z-axis). The third spatial direction (z-axis) runs in particular parallel to a detection direction of the respective camera through which the respective image is detected or recorded. In other words, the depth information describes the distance of image contents or features from the camera in an abstract or concrete way. The depth information can be extracted from the two images of the environment since they each have different perspectives on the environment. Thus, each of the two images is two-dimensional in itself and without the depth information. However, when the two images are evaluated together, the depth information can be extracted therefrom.
Als Objekte im Sinne der vorliegenden Erfindung gelten insbesondere eine Fahrbahnmarkierung und/oder ein Bordstein. Mit anderen Worten werden zweidimensionale Merkmale in dem zumindest einen der zwei Bilder bestimmt, welche eine Fahrbahnmarkierung und/oder einen Bordstein repräsentieren. Diese zweidimensionalen Merkmale werden durch ein künstliches neuronales Netz dahingehend ausgewertet, ob diese zweidimensionalen Merkmale eine Fahrbahnmarkierung oder einen Bordstein repräsentieren. Das künstliche neuronale Netz kann zuvor anhand von Trainingsdaten angelernt werden beziehungsweise angelernt worden sein. Die Trainingsdaten können eine Vielzahl an Bildern von Fahrbahnmarkierungen und/oder Bordsteinen umfassen, welche von ihrer Art und Perspektive den zwei Bildern der Umgebung, welche durch das Kamerasystem bereitgestellt werden, nachempfunden sind. In den Bildern der Trainingsdaten sind Fahrbahnmarkierungen und Bordsteine, beispielsweise durch einen Nutzer oder Hersteller einer Steuereinrichtung beziehungsweise eines Fahrassistenzsystems oder eines Kraftfahrzeugs mit einem solchen Fahrassistenzsystem, bereits markiert. Somit kann das künstliche neuronale Netz bei dem Vorgang des Anlernens lernen, anhand der zweidimensionalen Merkmale Fahrbahnmarkierungen und/oder Bordsteine zu erkennen, und insbesondere diese voneinander zu unterscheiden. Zum Verbessern der Genauigkeit beim Anlernen, können falsch zugeordnete zweidimensionale (oder in nachfolgend beschriebenen Ausführungsformen auch falsch zugeordnete dreidimensionale) Merkmale, welche fehlerhaft erkannt werden, zum weiteren Anlernen genutzt werden. Dieses Vorgehen wird auch als Hard Negative Mining, zu Deutsch in etwa Nutzung falscher Zuordnungen, bezeichnet.As objects within the meaning of the present invention, in particular a roadway marking and / or a curb apply. In other words, two-dimensional features are determined in the at least one of the two images representing a pavement marker and / or a curb. These two-dimensional features are evaluated by an artificial neural network as to whether these two-dimensional features represent a lane marker or a curb. The artificial neural network may have previously been trained or learned by means of training data. The training data may include a plurality of images of lane markers and / or curbs that are modeled on the nature and perspective of the two images of the environment provided by the camera system. In the images of the training data are lane markings and curbs, for example by a user or manufacturer of a control device or a driver assistance system or a motor vehicle with such a driver assistance system already marked. Thus, in the process of learning, the artificial neural network can learn to recognize lane markings and / or curbs based on the two-dimensional features, and in particular to distinguish them from one another. To improve accuracy in teaching, mismatched two-dimensional (or mis-assigned three-dimensional) features that are misrecognized may be used for further training. This procedure is also referred to as Hard Negative Mining.
Das Bestimmen des zumindest einen zweidimensionalen Merkmals in dem zumindest einen der zwei Bilder kann durch eine Erkennungseinheit beziehungsweise einen Eingangsteil des künstlichen neuronalen Netzes erfolgen. Ein solcher Eingangsteil des künstlichen neuronalen Netzes wird auch mit dem Fachbegriff CNN-Encoder bezeichnet. Diese Erkennungseinheit beziehungsweise dieser Eingangsteil kann dazu ausgebildet sein, das zumindest eine zweidimensionale Merkmal in dem zumindest einen der zwei Bilder zu bestimmen. Zusätzlich kann der Eingangsteil beziehungsweise die Erkennungseinheit das zumindest eine zweidimensionale Merkmal für die Auswertung durch das künstliche neuronale Netz aufbereiten. Das zumindest eine zweidimensionale Merkmal kann durch semantische Segmentierung auf Pixelebene bestimmt werden. Insbesondere segmentiert die Erkennungseinheit beziehungsweise der Eingangsteil das eine der Bilder semantisch, also durch Untersuchen eines Bedeutungsgehalts der jeweiligen Pixel des zumindest einen der Bilder.The determination of the at least one two-dimensional feature in the at least one of the two images can be performed by a recognition unit or an input part of the artificial neural network. Such an input part of the artificial neural network is also referred to by the technical term CNN encoder. This recognition unit or this input part can be designed to determine the at least one two-dimensional feature in the at least one of the two images. In addition, the input part or the recognition unit can process the at least one two-dimensional feature for evaluation by the artificial neural network. The at least one two-dimensional feature can be determined by pixel-level semantic segmentation. In particular, the recognition unit or the input part semantically segments one of the images, that is, by examining a meaning content of the respective pixels of the at least one of the images.
Es ist ausreichend, nur eines der beiden Bilder der Umgebung zweidimensional auszuwerten. Es kann jedoch, beispielsweise zum Auswerten redundanter Informationen, vorgesehen sein, dass beide der zwei Bilder der Umgebung zweidimensional ausgewertet werden. In diesem Fall werden insbesondere beide Bilder der Umgebung unabhängig voneinander durch das künstliche neuronale Netz auf Basis jeweiliger zweidimensionaler Merkmale ausgewertet.It is sufficient to evaluate only one of the two images of the environment in two dimensions. However, it can be provided, for example for evaluating redundant information, that both of the two images of the environment are evaluated in two dimensions. In this case, in particular, both images of the environment are independently evaluated by the artificial neural network based on respective two-dimensional features.
Anschließend wird das Objekt in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein klassifiziert beziehungsweise klassiert. Das Klassifizieren beziehungsweise Klassieren des Objekts erfolgt anhand des Ergebnisses beim Auswerten des zweidimensionalen Merkmals und anhand der Tiefeninformation. Mit anderen Worten wird das Objekt abhängig von dem Ergebnis beim Auswerten des zweidimensionalen Merkmals durch das künstliche neuronale Netz und abhängig von der Tiefeninformation klassifiziert beziehungsweise klassiert. Somit erfolgt das Klassifizieren des Objekts einerseits anhand einer zweidimensionalen Information (Ergebnis des Auswertens des zumindest einen zweidimensionalen Merkmals) und anhand einer dreidimensionalen Information (Tiefeninformation). Auf diese Weise können Fahrbahnmarkierungen und Bordsteine besonders gut unterschieden werden, da Fahrbahnmarkierungen flach sind und demgegenüber Bordsteine eine Erhöhung gegenüber einem Fahrbahnniveau einer Fahrbahn auf dem sich das Kraftfahrzeug befindet, aufweisen.Subsequently, the object is classified or classified in the environment either as a lane marking or as a curb. The classification or classification of the object takes place on the basis of the result in the evaluation of the two-dimensional feature and on the basis of the depth information. In other words, the object is classified or classified depending on the result in the evaluation of the two-dimensional feature by the artificial neural network and depending on the depth information. Thus, the classification of the object takes place, on the one hand, on the basis of two-dimensional information (result of the evaluation of the at least one two-dimensional feature) and on the basis of three-dimensional information (depth information). In this way, lane markings and curbs can be distinguished particularly well, since lane markings are flat and curbs on the other hand have an increase compared to a lane level of a lane on which the motor vehicle is located.
Gemäß einer Weiterbildung ist vorgesehen, dass als die Tiefeninformation zumindest ein dreidimensionales Merkmal bestimmt wird, wobei das zumindest eine dreidimensionale Merkmal das Objekt in der Umgebung des Kraftfahrzeugs repräsentiert. Außerdem ist vorgesehen, dass das zumindest eine dreidimensionale Merkmal ebenfalls mittels des künstlichen neuronalen Netzes ausgewertet wird. Das dreidimensionale Merkmal ist analog zu dem zweidimensionalen Merkmal zu verstehen, wobei das dreidimensionale Merkmal zusätzlich eine Ausdehnung gemäß der dritten Raumrichtung (z-Achse) aufweist. Das dreidimensionale Merkmal kann aus den zwei Bildern der Umgebung gemeinsam extrahiert werden. Dabei kann in einem Zwischenschritt eine dreidimensionale Karte beziehungsweise eine Abstandskarte der Umgebung aus den zwei Bildern erzeugt werden. Das dreidimensionale Merkmal kann beispielsweise anhand von Gradienten und/oder Kanten in der dreidimensionalen Karte der Umgebung beziehungsweise in der Abstandskarte bestimmt werden. Zum Bestimmen des zumindest einen dreidimensionalen Merkmals kann eine weitere Erkennungseinheit beziehungsweise ein weiterer Eingangsteil des künstlichen neuronalen Netzes, auch weiterer CNN-Encoder genannt, vorgesehen sein. Durch diese weitere Erkennungseinheit beziehungsweise den weiteren Eingangsteil kann das zumindest eine dreidimensionale Merkmal bestimmt werden. Zusätzlich kann das zumindest eine dreidimensionale Merkmal für die Auswertung durch das künstliche neuronale Netz aufbereitet werden.According to a further development, it is provided that at least one three-dimensional feature is determined as the depth information, wherein the at least one three-dimensional feature is the Object in the environment of the motor vehicle represents. In addition, it is provided that the at least one three-dimensional feature is likewise evaluated by means of the artificial neural network. The three-dimensional feature is to be understood analogously to the two-dimensional feature, wherein the three-dimensional feature additionally has an extension according to the third spatial direction (z-axis). The three-dimensional feature can be jointly extracted from the two images of the environment. In this case, in an intermediate step, a three-dimensional map or a distance map of the surroundings can be generated from the two images. The three-dimensional feature can be determined for example on the basis of gradients and / or edges in the three-dimensional map of the environment or in the distance map. For determining the at least one three-dimensional feature, a further recognition unit or a further input part of the artificial neural network, also called another CNN encoder, may be provided. By means of this further detection unit or the further input part, the at least one three-dimensional feature can be determined. In addition, the at least one three-dimensional feature can be prepared for evaluation by the artificial neural network.
In diesem Fall ist das künstliche neuronale Netz beziehungsweise wird das künstliche neuronale Netz zuvor anhand weiterer Trainingsdaten angelernt, welche Paarungen zweier Bilder der Umgebung, welche den zwei Bildern der Umgebung nachempfunden sind, enthalten. In diesen Paarungen können die Fahrbahnmarkierungen die Bordsteine, beispielsweise durch den oben genannten Nutzer oder Hersteller, bereits markiert sein. Auf diese Weise kann das künstliche neuronale Netz darauf angelernt sein beziehungsweise werden, anhand des zumindest einen dreidimensionalen Merkmals Fahrbahnmarkierungen und/oder Bordsteine zu erkennen und diese insbesondere zu unterscheiden. Dadurch, dass das zumindest eine zweidimensionale Merkmal und das zumindest einen dreidimensionale Merkmal mittels des künstlichen neuronalen Netzes gemeinsam ausgewertet werden, können Fahrbahnmarkierungen und Bordsteine besonders gut unterschieden werden. Außerdem profitiert sowohl die Auswertung des zumindest einen zweidimensionalen Merkmals als auch die Auswertung des zumindest einen dreidimensionalen Merkmals von der hohen Anpassungsfähigkeit und Lernfähigkeit des künstlichen neuronalen Netzes.In this case, the artificial neural network or the artificial neural network is previously trained on the basis of further training data, which pairings of two images of the environment, which are modeled on the two images of the environment contain. In these pairings, the lane markings may already be marked on the curbs, for example by the above-mentioned user or manufacturer. In this way, the artificial neural network can be trained or become aware of it on the basis of the at least one three-dimensional feature road markings and / or curbs and to distinguish them in particular. Characterized in that the at least one two-dimensional feature and the at least one three-dimensional feature are evaluated jointly by means of the artificial neural network, road markings and curbs can be distinguished particularly well. In addition, both the evaluation of the at least one two-dimensional feature and the evaluation of the at least one three-dimensional feature benefit from the high adaptability and learning capability of the artificial neural network.
Gemäß einer Weiterbildung ist vorgesehen, dass das zumindest eine zweidimensionale Merkmal und das zumindest eine dreidimensionale Merkmal gemeinsam mittels des künstlichen neuronalen Netzes ausgewertet werden. Mit anderen Worten wird das zumindest eine zweidimensionale Merkmal und das zumindest eine dreidimensionale Merkmal durch das künstliche neuronale Netz gemeinsam ausgewertet. Auf diese Weise kann die Genauigkeit beim Unterscheiden von Fahrbahnmarkierungen und Bordsteinen weiter verbessert werden, da eine besonders frühe Fusion der unterschiedlichen Bildinformationen, also der zweidimensionalen Merkmale und dreidimensionale Merkmale, gewährleistet ist. Mit anderen Worten wird das zumindest eine zweidimensionale Merkmal und das zumindest eine dreidimensionale Merkmal in einem besonders frühen Verarbeitungsschritt, nämlich hier vor dem Auswerten mittels des künstlichen neuronalen Netzes, zusammengeführt.According to a development it is provided that the at least one two-dimensional feature and the at least one three-dimensional feature are evaluated jointly by means of the artificial neural network. In other words, the at least one two-dimensional feature and the at least one three-dimensional feature are jointly evaluated by the artificial neural network. In this way, the accuracy in distinguishing lane markings and curbs can be further improved, since a particularly early fusion of the different image information, so the two-dimensional features and three-dimensional features is guaranteed. In other words, the at least one two-dimensional feature and the at least one three-dimensional feature are combined in a particularly early processing step, namely here before the evaluation by means of the artificial neural network.
Gemäß einer Weiterbildung ist vorgesehen, dass die Abstandskarte als die Tiefeninformation bestimmt wird. Die Abstandskarte kann einen Abstand von Bereichen der Umgebung, und somit auch des Objekts, von einer Kameraebene des Kamerasystems angeben. Dabei kann die Abstandskarte aus den zwei Bildern der Umgebung gebildet werden. Die Abstandskarte kann bezüglich zweier Raumrichtungen (beispielsweise x-Achse und y-Achse) parallel zu den zumindest zwei Bildern der Umgebung ausgerichtet sein. Im Gegensatz zu den zwei Bildern der Umgebung weist die Abstandskarte jedoch zusätzlich eine Ausdehnung in die dritte Raumrichtung (z-Achse) auf. Die Tiefeninformation ist somit durch die Ausdehnung der Abstandskarte in die dritte Raumrichtung (z-Achse) bereitgestellt. Die Ausdehnung der Abstandskarte in die z-Achse kann beispielsweise dadurch bereitgestellt sein, dass jedem Pixel der Abstandskarte ein jeweiliger Abstandswert zugeordnet ist, der einen Abstand des durch den jeweiligen Pixel repräsentierten Teils der Umgebung von einem Bezugspunkt des Kamerasystems angibt. Dieser Bezugspunkt kann beispielsweise durch die Position einer Kamera des Kamerasystems definiert sein. Die Pixel der Abstandskarte können gemäß eines Gitters, welches durch die ersten beiden Raumrichtungen (x-Achse und y-Achse) aufgespannt ist beziehungsweise definiert ist, angeordnet sein. Mit anderen Worten kann das Gitter der Bildebene einem der ersten zwei Bilder entsprechen. Dadurch, dass die Abstandskarte bestimmt wird, ist auf besonders effektive und einfache Weise eine dreidimensionale Karte zumindest eines Teils der Umgebung bereitgestellt.According to a development, it is provided that the distance map is determined as the depth information. The distance map can specify a distance of regions of the environment, and thus of the object, from a camera plane of the camera system. In this case, the distance map can be formed from the two images of the environment. The distance map may be aligned parallel to the at least two images of the environment with regard to two spatial directions (for example x-axis and y-axis). In contrast to the two images of the environment, however, the distance map also has an extension in the third spatial direction (z-axis). The depth information is thus provided by the extension of the distance map in the third spatial direction (z-axis). The expansion of the distance map into the z-axis can be provided, for example, by associating with each pixel of the distance map a respective distance value indicating a distance of the part of the environment represented by the respective pixel from a reference point of the camera system. This reference point can be defined for example by the position of a camera of the camera system. The pixels of the distance card can be arranged according to a grid which is defined or defined by the first two spatial directions (x-axis and y-axis). In other words, the grid of the image plane may correspond to one of the first two images. By determining the distance map, a three-dimensional map of at least part of the environment is provided in a particularly effective and simple manner.
Gemäß einer Weiterbildung ist vorgesehen, dass mittels maschinellen Sehens, insbesondere unter Ausnutzung mathematischer Algorithmen, eine Repräsentation des Objekts in der Abstandskarte gesucht, insbesondere bestimmt, wird. Mit anderen Worten wird in der Abstandskarte durch maschinelles Sehen, auch mit dem englischen Fachbegriff Computervision bezeichnet, eine Repräsentation des Objekts gesucht. Als Repräsentation des Objekts wird insbesondere ein Muster in der Abstandskarte bezeichnet, welches das Objekt in der Umgebung repräsentiert. Mit anderen Worten wird in der Abstandskarte ein Muster gesucht, welches für das Objekt charakteristisch ist. Insbesondere können hierzu Gradienten, Linien und geometrische Formen in der Abstandskarte gesucht werden, welche jeweils einem vorbestimmten Muster entsprechen. Als maschinelles Sehen, auch als Bild verstehen oder Computervision bezeichnet, wird die computergestützte Lösung von Aufgabenstellungen, die sich an den Fähigkeiten des menschlichen visuellen Systems orientieren, bezeichnet. Hierbei ist dem Fachmann bekannt, dass sich die Bildauswertung durch maschinelles Sehen grundlegend von der Bildauswertung mittels künstlicher neuronaler Netze unterscheidet. Während letztere Methode auf Basis großer Datensätze (Trainingsdaten) angelernt wird, wird im Rahmen des maschinellen Sehens bevorzugt unter Ausnutzung der mathematischen Algorithmen und anhand von Mustererkennung optische Information aus dem zugrundeliegenden Bild/Abbild erfasst. Beispiele für derartige mathematische Algorithmen als Werkzeuge für das maschinelle Sehen sind Hafttransformation, Kontrastanalyse, optischer Fluss, Sobel-Operator, Wavelets, Gauß-Laplace-Pyramide, und ähnliche Verfahren beispielsweise zur Kontrastanalyse, Bewegungsextraktion und Kantenerkennung. Durch die Mustererkennung beziehungsweise vorbestimmte Muster, die gesucht werden, ist hierbei großes Vorwissen über die zu erkennenden Objekte nötig. Durch die Verknüpfung von maschinellem Sehen und künstlichem neuronalen Netz kann die Unterscheidung von Fahrbahnmarkierungen besonders robust und dennoch besonders leicht an unterschiedliche Einsatzszenarien anpassbar gestaltet sein.According to a further development, it is provided that a representation of the object in the distance map is sought, in particular determined, by means of machine vision, in particular using mathematical algorithms. In other words, in the distance map by machine vision, also referred to by the English term computer vision, a representation of the object is sought. As a representation of the object in particular a pattern in the distance map denotes, which represents the object in the environment. In other words, a pattern is searched in the distance map, which is characteristic of the object. In particular, for this purpose, it is possible to search for gradients, lines and geometric shapes in the distance map which respectively correspond to a predetermined pattern. Machine vision, also referred to as image or computer vision, is the computer-aided solution to problems that are based on the capabilities of the human visual system. In this case, it is known to the person skilled in the art that the image evaluation by machine vision fundamentally differs from the image evaluation by means of artificial neural networks. While the latter method is trained on the basis of large data sets (training data), optical information from the underlying image / image is preferably acquired within the scope of machine vision, utilizing mathematical algorithms and pattern recognition. Examples of such mathematical algorithms as machine vision tools are adhesive transformation, contrast analysis, optical flow, Sobel operator, wavelets, Gauss-Laplace pyramid, and similar methods for contrast analysis, motion extraction, and edge detection, for example. Due to the pattern recognition or predetermined patterns that are searched, this requires a great deal of prior knowledge about the objects to be recognized. The combination of machine vision and artificial neural network makes the differentiation of lane markings particularly robust and yet particularly easy to adapt to different application scenarios.
Gemäß einer Weiterbildung ist vorgesehen, dass das Klassifizieren des Objekts zusätzlich auf Basis des Suchens der Repräsentation erfolgt. Mit anderen Worten erfolgt das Klassifizieren des Objekts einerseits auf Basis des Ergebnisses beim Auswerten des zweidimensionalen Merkmals durch das künstliche neuronale Netz und andererseits auf Basis des Suchens der Repräsentation. Beispielsweise werden beim Suchen der Repräsentation des Objekts zumindest ein vorbestimmtes Muster für einen Randstein und zumindest ein vorbestimmtes Muster für eine Fahrbahnmarkierung in der Abstandskarte gesucht. Das zumindest eine vorbestimmte Muster für den Randstein kann entsprechend eines typischen Erscheinungsbildes eines Randsteins in der Abstandskarte vorgegeben sein. Das zumindest eine vorgegebene Muster für eine Fahrbahnmarkierung kann anhand eines typischen Erscheinungsbildes einer Fahrbahnmarkierung in der Abstandskarte vorgegeben sein. Je nachdem ob beim Suchen der Repräsentation des Objekts das vorbestimmte Muster einer Fahrbahnmarkierung oder eines Bordsteins gefunden wird, kann das Objekt entweder als Fahrbahnmarkierung oder als Bordstein klassifiziert werden.According to a development, it is provided that the classification of the object additionally takes place on the basis of the search of the representation. In other words, the classification of the object takes place, on the one hand, on the basis of the result in the evaluation of the two-dimensional feature by the artificial neural network and, on the other hand, on the basis of the search of the representation. For example, when searching for the representation of the object, at least one predetermined pattern for a curb and at least one predetermined pattern for a lane mark are searched in the distance map. The at least one predetermined pattern for the curb may be predetermined according to a typical appearance of a curb in the distance map. The at least one predetermined pattern for a lane marking can be predefined on the basis of a typical appearance of a lane marking in the distance map. Depending on whether the predetermined pattern of a lane marking or a curb is found when searching for the representation of the object, the object can be classified either as a lane marking or as a curb.
Gemäß einer Weiterbildung ist vorgesehen, dass das Klassifizieren des Objekts mittels des künstlichen neuronalen Netzes und des maschinellen Sehens zunächst unabhängig voneinander erfolgt und jeweilige Ergebnisse des Klassifizierens anschließend, insbesondere wahrscheinlichkeitsbasiert, fusioniert werden. Mit anderen Worten erfolgt die Auswertung der zwei Bilder basierend auf zweidimensionaler Informationen, nämlich dem zumindest einen zweidimensionalen Merkmal, und dreidimensionale Informationen, nämlich der Tiefeninformation, größtenteils getrennt voneinander. Die jeweiligen Ergebnisse (also das Ergebnis des Auswertens des zumindest einen zweidimensionalen Merkmals und das Ergebnis beim Auswerten der Tiefeninformation, insbesondere das Ergebnis beim Suchen der Repräsentation des Objekts) werden anschließend, insbesondere wahrscheinlichkeitsbasiert, fusioniert. Die wahrscheinlichkeitsbasierte Fusion kann auf Basis eines Konfidenzniveaus der jeweiligen Ergebnisse erfolgen. Mit anderen Worten wird sowohl beim Auswerten des zweidimensionalen Merkmals durch das künstliche neuronale Netz als auch beim Suchen der Repräsentation des Objekts beziehungsweise beim Suchen eines der vorbestimmten Muster ein jeweiliges Konfidenzniveau für das jeweilige Ergebnis berechnet werden. Das jeweilige Konfidenzniveau kann angeben, mit welcher Wahrscheinlichkeit das jeweilige Ergebnis zutreffend ist. Mit anderen Worten kann das Konfidenzniveau angeben, wie zuverlässig das jeweilige Ergebnis ermittelt werden konnte. Dieses Konfidenzniveau kann beim Fusionieren der unterschiedlichen Ergebnisse im Rahmen der wahrscheinlichkeitsbasierten Fusion genutzt werden. Beispielsweise wird im Rahmen der wahrscheinlichkeitsbasierten Fusion eines der Ergebnisse höher gewichtet als das andere der Ergebnisse, wenn dessen Konfidenzniveau höher ist, also das Ergebnis zuverlässiger ermittelt werden konnte. Auf diese Weise kann die Unterscheidung zwischen Bordstein und Fahrbahnmarkierung noch zuverlässiger und robuster gewährleistet werden. Außerdem können die unterschiedlichen Auswertungszweige (künstliches neuronales Netz und maschinelles Sehen) unkompliziert jeweils unabhängig voneinander weiterentwickelt werden.According to a further development, it is provided that the classification of the object by means of the artificial neural network and the machine vision initially takes place independently of each other and respective results of the classification are subsequently fused, in particular based on probability. In other words, the evaluation of the two images is based on two-dimensional information, namely the at least one two-dimensional feature, and three-dimensional information, namely the depth information, largely separated from each other. The respective results (ie the result of evaluating the at least one two-dimensional feature and the result when evaluating the depth information, in particular the result when searching for the representation of the object) are then merged, in particular based on probability. The probability-based merger can be based on a confidence level of the respective results. In other words, both when evaluating the two-dimensional feature by the artificial neural network and when searching for the representation of the object or when searching for one of the predetermined patterns, a respective confidence level for the respective result is calculated. The respective confidence level can indicate with which probability the respective result is correct. In other words, the confidence level can indicate how reliably the respective result could be determined. This confidence level can be used to merge the different results of the probability-based merger. For example, in the context of the probability-based merger, one of the results is weighted higher than the other of the results if its confidence level is higher, ie the result could be determined more reliably. In this way, the distinction between curb and lane marking can be ensured even more reliable and robust. In addition, the different evaluation branches (artificial neural network and machine vision) can be easily further developed independently.
Gemäß einer Weiterbildung ist vorgesehen, dass das Klassifizieren des Objekts anhand des künstlichen neuronalen Netzes ausschließlich auf zweidimensionaler Ebene und das Klassifizieren des Objekts auf Basis des maschinellen Sehens ausschließlich auf dreidimensionaler Ebene erfolgt. Mit anderen Worten werden durch das künstliche neuronale Netz ausschließlich zweidimensionale Merkmale ausgewertet. Zudem erfolgt das Klassifizieren des Objekts auf Basis des maschinellen Sehens ausschließlich unter Berücksichtigung der Tiefeninformation. In manchen Ausführungsformen erfolgt das Klassifizieren des Objekts auf Basis des maschinellen Sehens ausschließlich anhand der Abstandskarte. Hierbei wird der Erkenntnis Rechnung getragen, dass sich das künstliche neuronale Netz besonders gut zum Auswerten der zweidimensionalen Merkmale eignet und sich demgegenüber das maschinelle Sehen besonders gut zum Auswerten der Tiefeninformation eignet.According to a development, it is provided that the classification of the object on the basis of the artificial neural network takes place exclusively on a two-dimensional plane and the classification of the object on the basis of machine vision exclusively on a three-dimensional plane. In other words, only two-dimensional features are evaluated by the artificial neural network. In addition, the classification of the object based on the machine vision takes place exclusively taking into account the depth information. In some embodiments, classifying the object is based on machine vision using only the distance map. In this case, it is taken into account that the artificial neural network is particularly well suited for evaluating the two-dimensional features and, in contrast, machine vision is particularly suitable for evaluating the depth information.
Gemäß einer Weiterbildung werden die beiden Bilder der Umgebung mittels derselben Kamera des Kraftfahrzeugs zeitlich versetzt erfasst. Mit anderen Worten werden die zwei Bilder durch dieselbe Kamera des Kamerasystems erfasst, wobei sich aufgrund der Fahrt des Kraftfahrzeugs diese Kamera beim Erfassen der beiden Bilder in einer jeweils unterschiedlichen Position befindet. Dabei handelt es sich um ein Verfahren, welches auch als Motion-Stereo, zu Deutsch Bewegungs-Stereo, bezeichnet wird. Die zwei Bilder der Umgebung können in diesem Beispiel insbesondere durch Bewegungsdaten des Kraftfahrzeugs bezüglich ihrer jeweiligen Perspektive in Verbindung gesetzt werden. Dabei können die Bewegungsdaten des Kraftfahrzeugs durch Odometrie mit der jeweiligen Perspektive der zwei Bilder in Verbindung gesetzt werden. In anderen Ausführungsformen der Erfindung weist das Kamerasystem des Kraftfahrzeugs zwei Kameras auf, wobei ein erstes der zwei Bilder durch eine erste der zwei Kameras und ein zweites der zwei Bilder durch eine zweite der zwei Kameras erfasst werden. In diesem Fall können die zwei Bilder insbesondere zeitgleich erfasst werden. Die zwei Kameras können beide einen Erfassungsbereich aufweisen, der dem Kraftfahrzeug im Wesentlichen in Fahrtrichtung vorausliegt. Die unterschiedliche Perspektive der zwei Bilder wird in diesem Fall durch die unterschiedliche Position der Kameras am Kraftfahrzeug gewährleistet.According to a further development, the two images of the environment are detected offset in time by means of the same camera of the motor vehicle. In other words, the two images are captured by the same camera of the camera system, wherein due to the drive of the motor vehicle, this camera is in a respectively different position when capturing the two images. This is a method which is also referred to as motion stereo, to German motion stereo. The two images of the environment in this example can be related in particular by movement data of the motor vehicle with respect to their respective perspective. In this case, the movement data of the motor vehicle can be connected by odometry with the respective perspective of the two images. In other embodiments of the invention, the camera system of the motor vehicle has two cameras, wherein a first of the two images are detected by a first of the two cameras and a second of the two images by a second of the two cameras. In this case, the two images can be detected in particular at the same time. The two cameras can both have a detection range, which lies ahead of the motor vehicle essentially in the direction of travel. The different perspective of the two images is ensured in this case by the different position of the cameras on the motor vehicle.
Ein zweiter Aspekt der Erfindung betrifft eine Steuereinrichtung zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen in einer Umgebung eines Kraftfahrzeugs anhand von Bildern eines Kamerasystems des Kraftfahrzeugs mit einer Empfangseinheit zum Bereitstellen zweier Bilder der Umgebung aus dem Kamerasystem des Kraftfahrzeugs, wobei sich eine jeweilige Perspektive der zwei Bilder unterscheidet, und mit einer Erkennungseinheit zum Bestimmen zumindest eines zweidimensionalen Merkmals in zumindest einem der zwei Bilder, wobei das zumindest eine zweidimensionale Merkmal ein Objekt in der Umgebung des Kraftfahrzeugs repräsentiert, und einem künstlichen neuronalen Netz zum Auswerten des zumindest einen zweidimensionalen Merkmals, und einer Extraktionseinheit zum Extrahieren einer Tiefeninformation aus den zwei Bildern der Umgebung, und einer Klassierungseinheit zum Klassifizieren beziehungsweise Klassieren des Objekts in der Umgebung entweder als Fahrbahnmarkierung oder als Bordstein sowohl anhand eines Ergebnisses beim Auswerten des zweidimensionalen Merkmals als auch anhand der Tiefeninformation. Bei der Erkennungseinheit kann es sich um einen Eingangsteil des künstlichen neuronalen Netzes handeln, welcher auch mit dem englischsprachigen Fachbegriff CNN-Encoder bezeichnet wird. Bei der Extraktionseinheit zum Extrahieren der Tiefeninformation kann es sich um einen weiteren Eingangsteil des künstlichen neuronalen Netzes handeln. Dieser weitere Eingangsteil des künstlichen neuronalen Netzes kann dazu ausgebildet sein, zumindest ein dreidimensionales Merkmal in den zwei Bildern zu bestimmen, wobei das zumindest eine dreidimensionale Merkmal das Objekt in der Umgebung repräsentiert, In diesem Fall kann das künstliche neuronale Netz zusätzlich zum Auswerten des zumindest einen dreidimensionalen Merkmals ausgebildet sein. Alternativ handelt es sich bei der Extraktionseinheit zum Extrahieren der Tiefeninformation um eine Auswertungseinheit zum maschinellen Sehen. Beide Ausführungsformen sind im Rahmen des zuvor erläuterten Verfahrens bereits beschrieben, weshalb an dieser Stelle auf eine erneute Beschreibung verzichtet wird. Alle vorteilhaften Weiterbildungen und Merkmale des erfindungsgemäßen Verfahrens gelten analog auch für die erfindungsgemäße Steuereinrichtung. Vorteilhafterweise ist die Steuereinrichtung dazu eingerichtet, ein Verfahren nach einer oder mehrerer der im Vorherigen beschriebenen Ausführungsformen durchzuführen.A second aspect of the invention relates to a control device for distinguishing lane markings and curbs in an environment of a motor vehicle based on images of a camera system of the motor vehicle with a receiving unit for providing two images of the environment from the camera system of the motor vehicle, wherein a respective perspective of the two images differs and an identification unit for determining at least one two-dimensional feature in at least one of the two images, wherein the at least one two-dimensional feature represents an object in the surroundings of the motor vehicle, and an artificial neural network for evaluating the at least one two-dimensional feature, and an extraction unit for Extracting depth information from the two images of the environment, and a classification unit for classifying the object in the environment either as a lane marking or as a curb s owohl based on a result in the evaluation of the two-dimensional feature as well as the depth information. The recognition unit can be an input part of the artificial neural network, which is also called the English-language technical term CNN encoder. The extraction unit for extracting the depth information may be another input part of the artificial neural network. This further input part of the artificial neural network can be designed to determine at least one three-dimensional feature in the two images, wherein the at least one three-dimensional feature represents the object in the environment. In this case, the artificial neural network can additionally evaluate the at least one be formed three-dimensional feature. Alternatively, the extraction unit for extracting the depth information is a machine vision evaluation unit. Both embodiments are already described in the context of the previously explained method, which is why a renewed description is omitted here. All advantageous developments and features of the method according to the invention apply analogously to the control device according to the invention. Advantageously, the control device is adapted to perform a method according to one or more of the embodiments described above.
Ein weiterer Aspekt der Erfindung betrifft ein Fahrassistenzsystem mit einem Kamerasystem, welches zumindest eine Kamera zum Erfassen zweier Bilder der Umgebung sowie die oben genannte Steuereinrichtung aufweist. Das Fahrassistenzsystem kann an einem Kraftfahrzeug angeordnet sein. Somit gehört auch ein Kraftfahrzeug mit einem solchen Fahrassistenzsystem zur vorliegenden Erfindung. Die Merkmale des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Steuereinrichtung gelten somit analog auch für das Fahrassistenzsystem und das Kraftfahrzeug.A further aspect of the invention relates to a driver assistance system having a camera system which has at least one camera for capturing two images of the surroundings as well as the abovementioned control device. The driver assistance system can be arranged on a motor vehicle. Thus, a motor vehicle with such a driver assistance system is part of the present invention. The features of the method according to the invention and the control device according to the invention thus also apply analogously to the driver assistance system and the motor vehicle.
Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen nach einer oder mehreren Ausführungsformen des oben beschriebenen Verfahrens durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinrichtung abgearbeitet wird. Zur Erfindung gehört somit auch ein computerlesbares Medium, insbesondere in Form einer computerlesbaren Diskette, CD, DVD, Speicherkarte, USB-Speichereinheit, oder ähnlichen, in dem Programmcodemittel gespeichert sind, um das Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen nach einer oder mehrerer der oben genannten Ausführungsformen durchzuführen, wenn die Programmcodemittel in einen Speicher einer elektronischen Steuerungseinheit geladen und auf einem Prozessor der elektronischen Steuerungseinheit abgearbeitet werden.Another aspect of the invention relates to a computer program product having program code means stored in a computer readable medium for performing the method of distinguishing lane markers and curbs according to one or more embodiments of the above-described method when the computer program product is executed on a processor of an electronic controller , The invention thus also includes a computer-readable medium, particularly in the form of a computer-readable floppy disc, CD, DVD, memory card, USB memory device, or the like, stored in the program code means for discriminating lane markers and curbs according to one or more of the above mentioned embodiments perform when the program code means are loaded into a memory of an electronic control unit and processed on a processor of the electronic control unit.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively specified combination but also in other combinations, without departing from the scope of the invention , Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim. Moreover, embodiments and combinations of features, in particular by the embodiments set out above, are to be regarded as disclosed, which go beyond or deviate from the combinations of features set out in the back references of the claims.
Dabei zeigen:
-
1 in einer schematischen Draufsicht ein Kraftfahrzeug in dessen Umgebung sich eine Fahrbahnmarkierung und ein Bordstein befinden, welche durch ein Kamerasystem des Kraftfahrzeugs erfasst werden; -
2 in einem Blockdiagramm eine erste Ausführungsform einer Rechenstruktur für das vorliegende Verfahren; und -
3 in einem Blockdiagramm eine zweite Ausführungsform einer Rechenstruktur für das vorliegende Verfahren.
-
1 in a schematic plan view of a motor vehicle in the vicinity of which are a lane marking and a curb, which are detected by a camera system of the motor vehicle; -
2 a block diagram of a first embodiment of an arithmetic structure for the present method; and -
3 in a block diagram, a second embodiment of an arithmetic structure for the present method.
In der Umgebung U befinden sich Objekte
Die
Bei den beiden Ausführungsformen gemäß
Zunächst soll die Ausführungsform gemäß
Um eine verbesserte Unterscheidung zwischen Fahrbahnmarkierungen
Mittels maschinellen Sehens kann unter Auswertung mathematischer Methoden eine Repräsentation des Objekts
In der Klassierungseinheit
Bei der Ausführungsform gemäß
Sowohl zweidimensionale Merkmale
Im Rahmen einer Verknüpfung
Die gesamte lernfähige Pipeline, welche durch die beiden CNN-Encoder (Erkennungseinheit
Insgesamt zeigen die beiden Ausführungsbeispiele, wie eine Verknüpfung der Auswertung von Bildern zum Unterscheiden von Fahrbahnmarkierungen
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2016/0104047 A1 [0004]US 2016/0104047 A1 [0004]
Claims (12)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102018109680.1A DE102018109680A1 (en) | 2018-04-23 | 2018-04-23 | Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102018109680.1A DE102018109680A1 (en) | 2018-04-23 | 2018-04-23 | Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102018109680A1 true DE102018109680A1 (en) | 2019-10-24 |
Family
ID=68104908
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102018109680.1A Withdrawn DE102018109680A1 (en) | 2018-04-23 | 2018-04-23 | Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102018109680A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102020116794A1 (en) | 2020-06-25 | 2021-12-30 | Connaught Electronics Ltd. | Method for determining an object in the surroundings of a motor vehicle by means of an assistance system, computer program product, computer-readable storage medium and assistance system |
| DE102020211636A1 (en) | 2020-09-17 | 2022-03-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for providing data for creating a digital map |
| US12187275B2 (en) | 2022-06-22 | 2025-01-07 | Toyota Motor Engineering & Manufacturing North America, Inc | Object measurement system for a vehicle |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7046822B1 (en) * | 1999-06-11 | 2006-05-16 | Daimlerchrysler Ag | Method of detecting objects within a wide range of a road vehicle |
| DE102012018471A1 (en) * | 2012-09-19 | 2013-04-04 | Daimler Ag | Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images |
| DE102014012285A1 (en) * | 2014-08-22 | 2016-02-25 | Jenoptik Robot Gmbh | Method and axle counting device for non-contact axle counting of a vehicle and axle counting system for road traffic |
| US20160104047A1 (en) | 2014-10-10 | 2016-04-14 | Application Solutions (Electronics and Vision) Ltd. | Image recognition system for a vehicle and corresponding method |
-
2018
- 2018-04-23 DE DE102018109680.1A patent/DE102018109680A1/en not_active Withdrawn
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7046822B1 (en) * | 1999-06-11 | 2006-05-16 | Daimlerchrysler Ag | Method of detecting objects within a wide range of a road vehicle |
| DE102012018471A1 (en) * | 2012-09-19 | 2013-04-04 | Daimler Ag | Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images |
| DE102014012285A1 (en) * | 2014-08-22 | 2016-02-25 | Jenoptik Robot Gmbh | Method and axle counting device for non-contact axle counting of a vehicle and axle counting system for road traffic |
| US20160104047A1 (en) | 2014-10-10 | 2016-04-14 | Application Solutions (Electronics and Vision) Ltd. | Image recognition system for a vehicle and corresponding method |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102020116794A1 (en) | 2020-06-25 | 2021-12-30 | Connaught Electronics Ltd. | Method for determining an object in the surroundings of a motor vehicle by means of an assistance system, computer program product, computer-readable storage medium and assistance system |
| DE102020211636A1 (en) | 2020-09-17 | 2022-03-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for providing data for creating a digital map |
| US11941892B2 (en) | 2020-09-17 | 2024-03-26 | Robert Bosch Gmbh | Method and device for providing data for creating a digital map |
| US12187275B2 (en) | 2022-06-22 | 2025-01-07 | Toyota Motor Engineering & Manufacturing North America, Inc | Object measurement system for a vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102013205950B4 (en) | Roadside detection method | |
| DE102017129075A1 (en) | PARKING NAVIGATION SYSTEM AND METHOD | |
| WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
| DE112009000949T5 (en) | Detection of a free driving path for a vehicle | |
| EP2629243A1 (en) | Method for detecting and tracking lane markings | |
| DE102012222497A1 (en) | System and method for detecting parking space markings for vehicles | |
| DE102017203276B4 (en) | Method and device for determining a trajectory in off-road scenarios | |
| DE102009050505A1 (en) | Clear path detecting method for vehicle i.e. motor vehicle such as car, involves modifying clear path based upon analysis of road geometry data, and utilizing clear path in navigation of vehicle | |
| DE102009048699A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
| DE102009050502A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
| DE102019208735B4 (en) | Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle | |
| DE102017220307A1 (en) | Device and method for recognizing traffic signs | |
| DE102014221803A1 (en) | Method and device for determining a current driving situation | |
| DE102015206546A1 (en) | Road marking recognition device | |
| DE102019208733A1 (en) | Method and generator for generating disturbed input data for a neural network | |
| DE102018109680A1 (en) | Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product | |
| DE102019214558A1 (en) | PROJECTION INFORMATION RECOGNITION DEVICE BASED ON AN ARTIFICIAL NEURAL NETWORK AND PROCESSES OF THE SAME | |
| DE102021206475A1 (en) | Obstacle detection in the track area based on depth data | |
| EP3576013A1 (en) | Estimation of a path of a rail path | |
| DE102017206396B4 (en) | Control method, control unit, environment detection system and mobile and/or stationary device | |
| WO2022042903A1 (en) | Method for identifying three-dimensional objects, computer program, machine-readable storage medium, control unit, vehicle and video monitoring system | |
| DE102018114231A1 (en) | Method and system for capturing objects using at least one image of an area of interest (ROI) | |
| WO2019162327A2 (en) | Method for determining a distance between a motor vehicle and an object | |
| DE102018112171A1 (en) | Method for assessing objects in an environment of a motor vehicle using a three-dimensional fusion card, control device; Driver assistance system, computer program product | |
| DE102021133089A1 (en) | Device for determining a topography of a vehicle environment, vehicle and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
| R005 | Application deemed withdrawn due to failure to request examination |