[go: up one dir, main page]

DE102015015510A1 - A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle - Google Patents

A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle Download PDF

Info

Publication number
DE102015015510A1
DE102015015510A1 DE102015015510.5A DE102015015510A DE102015015510A1 DE 102015015510 A1 DE102015015510 A1 DE 102015015510A1 DE 102015015510 A DE102015015510 A DE 102015015510A DE 102015015510 A1 DE102015015510 A1 DE 102015015510A1
Authority
DE
Germany
Prior art keywords
location
camera
image
picture
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015015510.5A
Other languages
German (de)
Inventor
Jens Dietmar Reuschel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102015015510.5A priority Critical patent/DE102015015510A1/en
Publication of DE102015015510A1 publication Critical patent/DE102015015510A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts (8) in einem Umgebungsbereich (9) einer Kamera (3), bei welchem ein das Objekt (8) darstellendes Bild (16) mittels der an einer Position (10) definiert in einem erdfesten Bezugssystem (11) positionierten Kamera (3) aufgenommen wird, und das Objekt (8) in dem Bild (16) ausgewählt wird, wobei eine Richtung (15) des Objekts (8) von der Position (10) aus anhand einer Lage (18) des Objekts (8) im Bild (16) bestimmt wird und anhand der Richtung (15) und der Position (10) ein Standort (17) des Objekts (8) in dem erdfesten Bezugssystem (11) bestimmt wird, wobei eine Mehrzahl von Referenzstandorten, welchen jeweils ein Referenzobjekt zugewiesen wird, bereitgestellt wird und der Standort (17) mit den Referenzstandorten verglichen wird und das Objekt (8) bei Übereinstimmung des Standorts (17) mit einem der Referenzstandorte als das diesem Referenzstandort zugewiesene Referenzobjekt erkannt wird.The invention relates to a method for detecting an object (8) in a surrounding area (9) of a camera (3), in which an image (16) representing the object (8) is defined in a ground reference frame at a position (10) (11) positioned camera (3) is selected, and the object (8) is selected in the image (16), wherein a direction (15) of the object (8) from the position (10) by means of a layer (18). of the object (8) in the image (16) is determined and by means of the direction (15) and the position (10) a location (17) of the object (8) in the ground reference frame (11) is determined, wherein a plurality of reference locations to which a reference object is assigned, is provided, and the location (17) is compared with the reference sites and the object (8) is identified as one of the reference sites as the reference object assigned to that reference site, if the site (17) matches.

Description

Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich einer Kamera. Es wird ein das Objekte darstellendes Bild mittels der an einer in einem erdfesten Bezugssystem definierten Position positionierten Kamera aufgenommen. Weiterhin wird das Objekt in dem Bild ausgewählt. Die Erfindung betrifft auch eine Vorrichtung mit einer Kamera, welche zum Aufnehmen eines Bilds mit einem Objekt aus einem Umgebungsbereich der Kamera ausgebildet ist, und einer Positionsbestimmungseinheit, welche zum Bestimmen einer in einem erdfesten Bezugssystem definierten Position der Kamera ausgebildet ist. Weiterhin betrifft die Erfindung ein Kraftfahrzeug mit einer dementsprechenden Vorrichtung.The invention relates to a method for detecting an object in a surrounding area of a camera. An image representing the objects is recorded by means of the camera positioned at a position defined in a ground-based reference frame. Furthermore, the object in the image is selected. The invention also relates to a device with a camera, which is designed to record an image with an object from a surrounding area of the camera, and to a position determination unit, which is designed to determine a position of the camera defined in an earth-fixed reference system. Furthermore, the invention relates to a motor vehicle with a corresponding device.

Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich einer Kamera sind aus dem Stand der Technik bekannt. So beschreibt die US 8,131,118 B1 ein Verfahren zum Bestimmen des Ortes, an welchem ein Bild aufgenommen wurde. Ein Gerät kann ein Bild von einem Ort aufnehmen und ein zentrales System kann das übermittelte Bild mit Bildern in einer Bildbibliothek vergleichen, um Übereinstimmungen zu identifizieren. Der Ort der Übereinstimmung kann dann wiederum dem Gerät bereitgestellt werden.Methods for detecting an object in a surrounding area of a camera are known from the prior art. That's how it describes US 8,131,118 B1 a method for determining the location at which an image was taken. A device may capture an image of a location, and a central system may compare the submitted image with images in an image library to identify matches. The location of the match can then be provided to the device.

Die DE 20 2013 007 354 U1 offenbart ein Computerprogrammprodukt, bei welchem ermittelt wird, ob ein Verkehrszeichen in einer Umgebung eines Fahrzeugs angeordnet ist. Dies erfolgt basierend auf Daten einer optischen Kamera. Ein entsprechendes Verkehrszeichenerkennungssystem erkennt die Verkehrsschilder mit Hilfe der Frontkamera des Fahrzeugs und identifiziert mittels eines Schrifterkennungsalgorithmus in Verbindung mit hinterlegten Informationen, die auf dem Verkehrsschild genannte Sehenswürdigkeit und zeigt diese beispielsweise in einem Infotainment-System des Fahrzeugs an.The DE 20 2013 007 354 U1 discloses a computer program product in which it is determined whether a traffic sign is located in an environment of a vehicle. This is done based on data from an optical camera. A corresponding traffic sign recognition system recognizes the traffic signs with the aid of the front camera of the vehicle and, by means of a text recognition algorithm in conjunction with stored information, identifies the point of interest mentioned on the traffic sign and displays these, for example, in an infotainment system of the vehicle.

Die US 2015/0063642 A1 beschreibt ein Verfahren, bei welchem in einem hochgeladenen Bild mittels Algorithmen des maschinellen Sehens Objekte erkannt und isoliert werden. Die isolierten Objekte werden mit Fotografien aus einer Datenbank verglichen.The US 2015/0063642 A1 describes a method in which objects are detected and isolated in a uploaded image by means of machine vision algorithms. The isolated objects are compared with photographs from a database.

Es ist Aufgabe der Erfindung, ein Verfahren, eine Vorrichtung sowie ein Kraftfahrzeug zu schaffen, um ein Objekt in einem Umgebungsbereich einer Kamera einfacher und zuverlässiger zu erkennen.It is an object of the invention to provide a method, a device and a motor vehicle to recognize an object in a surrounding area of a camera easier and more reliable.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Vorrichtung sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen gelöst.This object is achieved by a method by a device and by a motor vehicle with the features according to the respective independent claims.

Bei einem erfindungsgemäßen Verfahren wird ein Objekt in einem Umgebungsbereich einer Kamera erkannt. Es wird ein das Objekt darstellendes Bild mittels der an einer, insbesondere dreidimensionalen, Position definiert in einem erdfesten Bezugssystem positionierten Kamera aufgenommen. Weiterhin wird das Objekt in dem Bild ausgewählt. Ein wesentlicher Gedanke der Erfindung ist darin zu sehen, dass eine Richtung des Objekts von der Position aus anhand einer Lage des Objekts im Bild bestimmt wird und ausgehend von der Position der Kamera anhand der Richtung ein Standort des Objekts in dem erdfesten Bezugssystem, insbesondere mit einer dreidimensionalen Koordinate, bestimmt wird. Weiterhin wird eine Mehrzahl von, insbesondere in dem erdfesten Bezugssystem definierten, Referenzstandorten bereitgestellt, welchen jeweils ein Referenzobjekt zugewiesen wird. Der Standort wird mit den Referenzstandorten verglichen und das Objekt wird bei Übereinstimmung des Standorts mit einem der Referenzstandorte als das diesem Referenzstandort zugewiesene Referenzobjekt erkannt.In a method according to the invention, an object is detected in a surrounding area of a camera. An image representing the object is recorded by means of the camera positioned at an, in particular three-dimensional, position in a ground-based reference frame. Furthermore, the object in the image is selected. An essential idea of the invention is to be seen in that a direction of the object is determined from the position based on a position of the object in the image and, based on the position of the camera based on the direction, a location of the object in the ground reference frame, in particular with a three-dimensional coordinate, is determined. Furthermore, a plurality of, in particular in the Erdfesten reference system defined, reference locations are provided to which each a reference object is assigned. The location is compared to the reference locations, and if the location matches one of the reference locations, the object is recognized as the reference object assigned to that reference location.

Dem erfindungsgemäßen Verfahren liegt die Erkenntnis zugrunde, dass mit dem Wissen der Position der Kamera und der Richtung des Objekts von der Kamera aus eine Linie beziehungsweise ein Strahl von der Position der Kamera aus in einem Koordinatensystem des erdfesten Bezugssystems eindeutig erzeugt werden kann. In dem Koordinatensystem des erdfesten Bezugssystems können dann Referenzobjekte vorhanden sein, welche von dem Strahl geschnitten werden können. Werden beispielsweise mehrere Referenzobjekte von dem Strahl geschnitten, so wird vorzugsweise das zuerst geschnittene Referenzobjekt, also das der Kamera am nächsten gelegene Referenzobjekt, ausgewählt. Durch das Verfahren kann das Objekt in einfacher und effektiver Weise in dem Umgebungsbereich zuverlässig erkannt werden.The method according to the invention is based on the knowledge that, with the knowledge of the position of the camera and the direction of the object from the camera, a line or a beam can be generated unambiguously from the position of the camera in a coordinate system of the earth-fixed reference system. In the coordinate system of the earth-fixed reference system, reference objects may then be present which can be cut by the beam. If, for example, several reference objects are cut by the beam, then preferably the first cut reference object, that is to say the camera closest to the reference object, is selected. By virtue of the method, the object can be reliably detected in the surrounding area in a simple and effective manner.

Insbesondere ist es dabei vorgesehen, dass die Position der Kamera in dem erdfesten Bezugssystem dreidimensional definiert ist. Die Position der Kamera kann beispielsweise mittels eines globalen Navigationssatellitensystems (GNSS) einer die Kamera umfassenden Vorrichtung bestimmt werden. Das erdfeste Bezugssystem kann beispielsweise als WGS84 (World Geodetic System 1984) bestimmt werden. Die Richtungsbestimmung anhand der Lage des Objekts in dem Bild kann beispielsweise dadurch erfolgen, dass eine Ausrichtung der Kamera zum Zeitpunkt der Aufnahme des Bilds bestimmt wird. Die Ausrichtung bezieht sich insbesondere auf das Bezugssystem. So wird beispielsweise ein Horizontalwinkel und ein Vertikalwinkel des Objekts ausgehend von der Position der Kamera bestimmt. Durch die Position und die Richtung kann dann der Standort des Objekts bestimmt werden, indem der durch die Position und die Richtung entstehende Strahl mit beispielsweise einem digitalen Geländemodell (DGM) des Umgebungsbereichs der Kamera geschnitten wird. Das digitale Geländemodell liegt dabei insbesondere ebenfalls in dem erdfesten Bezugssystem vor. Durch das digitale Geländemodell wird eine dreidimensionale Abbildung der Erdoberfläche bereitgestellt. In einer weiteren Ausführungsform kann beispielsweise auch ein digitales Oberflächenmodell (DOM) gewählt werden, um den Standort des Objekts in dem erdfesten Bezugssystem zu bestimmen. Das digitale Oberflächenmodell beschreibt die Oberfläche der Erde, der Vegetation und der Bebauung durch die dreidimensionalen Koordinaten einer repräsentativen Menge von Boden- und Nichtbodenpunkten.In particular, it is provided that the position of the camera in the earth-fixed reference system is defined in three dimensions. The position of the camera can be determined, for example, by means of a global navigation satellite system (GNSS) of a device comprising the camera. The ground-based reference system can be determined, for example, as WGS84 (World Geodetic System 1984). The direction determination on the basis of the position of the object in the image can take place, for example, by determining an alignment of the camera at the time the image is taken. The orientation relates in particular to the reference system. For example, a horizontal angle and a vertical angle of the object are determined based on the position of the camera. By the position and the direction of the location of the object can then be determined by the resulting by the position and the direction beam with For example, a digital terrain model (DTM) of the surrounding area of the camera is cut. The digital terrain model is also present in particular in the Erdfesten reference system. The digital terrain model provides a three-dimensional image of the earth's surface. For example, in another embodiment, a digital surface model (DOM) may also be chosen to determine the location of the object in the ground reference frame. The digital surface model describes the surface of the earth, the vegetation, and the development through the three-dimensional coordinates of a representative set of ground and non-ground points.

Die Kamera ist vorzugsweise an einem Kraftfahrzeug angeordnet. insbesondere ist eine äußere Orientierung der Kamera bekannt. Durch die äußere Orientierung wird eine Transformationsvorschrift zwischen einem Bildkoordinatensystem des Bilds und dem erdfesten Bezugssystem bereitgestellt. Die Referenzstandorte mit den zugewiesenen Referenzobjekten sind vorzugsweise in einer Datenbank hinterlegt, welche beispielsweise in der Kamera oder dem Kraftfahrzeug angeordnet sein kann oder aber auch in einer fahrzeugexternen Einrichtung, auf welche dann beispielsweise drahtlos zugegriffen wird.The camera is preferably arranged on a motor vehicle. In particular, an external orientation of the camera is known. The outer orientation provides a transformation law between an image coordinate system of the image and the ground reference system. The reference sites with the assigned reference objects are preferably stored in a database, which can be arranged for example in the camera or the motor vehicle or else in a vehicle-external device, which is then accessed, for example, wirelessly.

Wie bereits ausgeführt, ist es vorzugsweise vorgesehen, dass die Richtung des Objekts von der Kamera aus durch einen Horizontalwinkel und/oder eine Vertikalwinkel bestimmt wird. Der Horizontalwinkel wird beispielsweise durch einen Kompass bestimmt und wird auch als Azimutalwinkel bezeichnet. Der Horizontalwinkel ist ein in einer waagrechten Ebene gemessener Winkel. Der Vertikalwinkel wird in einer lotrechten Ebene gemessen. Für den Vertikalwinkel lassen sich beispielsweise der Zenit, der Nadir und der Horizont als Ausgangslage wählen. Somit kann der Vertikalwinkel beispielsweise als Zenitwinkel oder als Höhenwinkel oder als Tiefenwinkel oder als Nadirwinkel angegeben werden. Eine Bezugsfläche für den Vertikalwinkel kann beispielsweise auch durch eine elektronische Wasserwaage bestimmt werden. Insbesondere ist es vorgesehen, dass die Richtung sowohl durch den Horizontalwinkel als auch den Vertikalwinkel bestimmt wird. Es kann aber auch vorgesehen sein, dass die Richtung lediglich durch den Horizontalwinkel alleine oder den Vertikalwinkel alleine bestimmt wird. So gibt es beispielsweise Situationen, in denen in dem Umgebungsbereich der Kamera, insbesondere in dem von der Position der Kamera aus sichtbaren Teil des digitalen Geländemodells, lediglich ein Referenzobjekt auf einer bestimmten Höhe oder in einer bestimmten Orientierung zur Kamera vorhanden ist. Somit kann das Referenzobjekt dem Objekt beim Vergleich eindeutig zugeordnet werden, da für den vorliegenden Vertikalwinkel oder den vorliegenden Horizontalwinkel lediglich dieses eine Referenzobjekt in Frage kommt. Dies hat insbesondere zwei Vorteile, zum einen kann die Richtung des Objekts einfacher und schneller bestimmt werden und zum anderen kann der Vergleich des Standorts mit den Referenzstandorten einfacher und schneller durchgeführt werden. Vorteilhaft an dem Bestimmen der Richtung durch den Horizontalwinkel und den Vertikalwinkel zusammen ist, dass dem Standort des Objekts besonders zuverlässig einer der Referenzstandorte zugewiesen werden kann.As already stated, it is preferably provided that the direction of the object from the camera is determined by a horizontal angle and / or a vertical angle. The horizontal angle is determined for example by a compass and is also referred to as azimuthal angle. The horizontal angle is an angle measured in a horizontal plane. The vertical angle is measured in a vertical plane. For the vertical angle, for example, the zenith, the nadir and the horizon can be selected as the starting point. Thus, the vertical angle can be indicated, for example, as a zenith angle or as an elevation angle or as a depth angle or as a nadir angle. A reference surface for the vertical angle can also be determined, for example, by an electronic spirit level. In particular, it is provided that the direction is determined by both the horizontal angle and the vertical angle. However, it can also be provided that the direction is determined solely by the horizontal angle alone or the vertical angle alone. For example, there are situations in which there is only one reference object at a certain height or in a specific orientation to the camera in the surrounding area of the camera, in particular in that part of the digital terrain model that is visible from the position of the camera. Thus, the reference object can be unambiguously assigned to the object during the comparison, since only this one reference object is suitable for the present vertical angle or the present horizontal angle. In particular, this has two advantages: on the one hand, the direction of the object can be determined more simply and more quickly and, on the other hand, the comparison of the location with the reference locations can be carried out more simply and more quickly. It is advantageous in determining the direction by the horizontal angle and the vertical angle together that one of the reference locations can be assigned to the location of the object with particular reliability.

Weiterhin ist es vorzugsweise vorgesehen, dass das Bild auf einer Anzeigeeinheit angezeigt wird und das Objekt in dem Bild durch einen Nutzer ausgewählt wird. Durch das Anzeigen des Bilds auf der Anzeigeeinheit kann der Nutzer das Objekt einfacher und zuverlässiger auswählen. Weiterhin kann so beispielsweise das Bild von dem Umgebungsbereich live auf der Anzeigeeinheit ausgeben werden und der Nutzer kann das Bild des Umgebungsbereichs live betrachten. Somit kann der Nutzer das Objekt in dem aktuell von der Kamera aufgenommenen Bild auswählen. So kann der Nutzer beispielsweise das Objekt zeitgleich real im Umgebungsbereich und als Abbildung in dem Bild betrachten.Furthermore, it is preferably provided that the image is displayed on a display unit and the object in the image is selected by a user. By displaying the image on the display unit, the user can select the object more easily and reliably. Furthermore, for example, the image of the surrounding area can be displayed live on the display unit and the user can view the image of the surrounding area live. Thus, the user can select the object in the picture currently being taken by the camera. For example, the user can simultaneously view the object real in the surrounding area and as an image in the picture.

In einer Ausführungsform ist es vorzugsweise vorgesehen, dass das Objekt mittels Gestensteuerung durch Erkennung von einer berührungslosen Geste des Nutzers ausgewählt wird. So kann der Nutzer beispielsweise eine Geste im freien Raum durchführen, anhand welcher dann das Objekt in dem Bild ausgewählt wird. Die Geste kann beispielsweise mit einer Hand des Nutzers ausgeführt werden. Durch die Gestensteuerung kann das Objekt einfacher ausgewählt werden.In one embodiment, it is preferably provided that the object is selected by means of gesture control by recognition of a non-contact gesture of the user. For example, the user can make a gesture in free space, based on which then the object is selected in the image. The gesture can be performed, for example, with one hand of the user. Gesture control makes it easier to select the object.

In einer weiteren Ausführungsform ist es vorzugsweise vorgesehen, dass das Objekt mittels Berührung der als berührungsempfindlichen Bildschirm ausgebildeten Anzeigeeinheit durch den Nutzer ausgewählt wird. Die Anzeigeeinheit kann also beispielsweise als Touchscreen ausgebildet sein. Die Anzeigeeinheit ist dabei vorzugsweise in einem Kraftfahrzeug oder einem mobilen Gerät angeordnet. Der Nutzer kann nun beispielsweise mit einem Finger auf die Anzeigeeinheit tippen, um in dem auf der Anzeigeeinheit angezeigten Bild das Objekt auszuwählen. Durch das Auswählen des Objekts mittels der Berührung kann das Auswählen für den Nutzer einfacher und komfortabler erfolgen.In a further embodiment, it is preferably provided that the object is selected by the user by touching the display unit embodied as a touch-sensitive screen. The display unit can thus be designed, for example, as a touchscreen. The display unit is preferably arranged in a motor vehicle or a mobile device. The user can now, for example, tap the display unit with a finger to select the object in the image displayed on the display unit. By selecting the object by the touch, the selection can be made easier and more comfortable for the user.

Weiterhin kann es vorgesehen sein, dass der Standort mit dem Referenzstandort als übereinstimmend angenommen wird, falls ein vorbestimmtes Übereinstimmungskriterium erfüllt ist. Insbesondere wird der Standort mit dem Referenzstandort als übereinstimmend angenommen, falls ein Abstand von dem Standort zu dem Referenzstandort kleiner als ein Abstandsgrenzwert ist. So kann durch das vorbestimmte Übereinstimmungskriterium beispielsweise eine Toleranz für eine Abweichung des Standorts von dem Referenzstandort bereitgestellt werden. So kann es beispielsweise sein, dass die Koordinaten des Standorts nicht exakt mit den Koordinaten des Referenzstandorts übereinstimmen. Dies kann beispielsweise durch das vorbestimmte Übereinstimmungskriterium kompensiert werden. So kann beispielsweise ein Radius um den Standort oder den Referenzstandort bestimmt werden, innerhalb welchem der Standort und der Referenzstandort als übereinstimmend angenommen werden. Vorzugsweise kann dazu auch ein Wahrscheinlichkeitswert basierend auf einem Abstand von dem Standort zu dem Referenzstandort genutzt werden. So kann beispielsweise davon ausgegangen werden, dass je größer der Abstand zwischen dem Standort und dem Referenzstandort ist, desto unwahrscheinlicher von einer Übereinstimmung ausgegangen werden kann. Andererseits kann umso mehr von einer Übereinstimmung ausgegangen werden, je näher sich der Standort und der Referenzstandort sind, also je kleiner der Abstand zwischen dem Standort und dem Referenzstandort ist. Es kann beispielsweise die Methode der kleinsten Quadrate genutzt werden, um den Abstand zu gewichten. Bei dieser Methode wird der Abstand nicht-linear gewichtet. Die Übereinstimmung des Standorts mit dem Referenzstandort kann dadurch dauernd zuverlässiger bestimmt werden. Das Übereinstimmungskriterium kann aber beispielsweise auch situationsbedingt abhängig von einer Genauigkeit, mit welcher die Position und/oder die Richtung bestimmt wird, angepasst werden. Auch kann das Übereinstimmungskriterium beispielsweise individuell für den jeweiligen Referenzstandort vorbestimmt werden.Furthermore, it may be provided that the location with the reference location is assumed to match if a predetermined match criterion is met. In particular, the location with the reference location is assumed to be coincidental if a distance from the location to the reference location is less than a distance limit. Thus, by the predetermined match criterion For example, a tolerance for a deviation of the location from the reference location can be provided. For example, it may be that the coordinates of the location do not exactly match the coordinates of the reference site. This can be compensated for example by the predetermined match criterion. For example, a radius around the location or reference location within which the location and reference location are assumed to be consistent may be determined. Preferably, a probability value based on a distance from the location to the reference location can also be used for this purpose. For example, it can be assumed that the greater the distance between the location and the reference location, the less likely it is to assume that a match exists. On the other hand, the closer the location and the reference location are, the smaller the distance between the location and the reference location, the more likely to be a match. For example, the least squares method can be used to weight the distance. In this method the distance is weighted non-linearly. The conformity of the location with the reference location can thus be determined more reliably. However, the match criterion can also be adjusted, for example, depending on the situation, depending on an accuracy with which the position and / or the direction is determined. The matching criterion can also be predetermined, for example, individually for the respective reference location.

In einer weiteren Ausführungsform ist es vorzugsweise vorgesehen, dass einem jeweiligen Referenzobjekt der Mehrzahl der Referenzobjekte eine das Referenzobjekt beschreibende Detailinformation zugeordnet wird, und die Detailinformation des Referenzobjekts, welches mit dem Objekt übereinstimmt, zur Beschreibung des Objekts ausgegeben wird. So sind den, insbesondere in der Datenbank hinterlegten, Referenzobjekten vorzugsweise Detailinformationen zugeordnet. Die jeweilige Detailinformation wird dann bei Übereinstimmung des Objekts mit dem Referenzobjekt, also bei Übereinstimmung des Standorts des Objekts mit dem Referenzstandort des Referenzobjekts, für den Nutzer ausgegeben. Anhand der Detailinformation kann der Nutzer dann beispielsweise eine Information über eine Landschaft, eine Burg, einen Berg, einen Strand, ein Haus oder einen Meeresarm erhalten. Die Detailinformation kann beispielsweise historische Daten oder einen aktuellen Zustand des Objekts, beispielsweise Öffnungszeiten, umfassen.In a further embodiment, it is preferably provided that a detail object that describes the reference object is assigned to a respective reference object of the plurality of reference objects, and the detailed information of the reference object that corresponds to the object is output for describing the object. Thus, the reference objects, in particular stored in the database, are preferably assigned detailed information. The respective detailed information is then output to the user when the object matches the reference object, ie when the location of the object matches the reference location of the reference object. Based on the detailed information, the user can then, for example, receive information about a landscape, a castle, a mountain, a beach, a house or an estuary. The detailed information may include, for example, historical data or a current state of the object, such as opening times.

Weiterhin ist es vorzugsweise vorgesehen, dass die Detailinformation durch Sprache und/oder Text und/oder Grafik und/oder Video ausgegeben wird. So kann die Detailinformation beispielsweise an den Nutzer in Form von einer Tonausgabe, eines geschriebenen Textes, welcher beispielsweise auf der Anzeigeeinheit angezeigt wird, einer Grafik, welche beispielsweise ebenfalls auf der Anzeigeeinheit angezeigt wird und/oder eines Videos, welches wiederum ebenfalls auf der Anzeigeeinheit angezeigt werden kann, ausgegeben werden. Dadurch kann die Detailinformation dem Nutzer für vielfältige Situationen gerecht bereitgestellt werden. So ist beispielsweise das Bereitstellen der Detailinformation durch Sprache vorteilhaft, falls der Nutzer ein Fahrer eines Kraftfahrzeugs ist, und dieser auf ein Verkehrsgeschehen konzentriert ist. Die durch die Grafik oder das Video bereitgestellte Detailinformation ist beispielsweise besonders anschaulich und leicht zu verstehen.Furthermore, it is preferably provided that the detailed information is output by voice and / or text and / or graphics and / or video. For example, the detail information may be displayed to the user in the form of a sound output, a written text displayed on the display unit, a graphic, for example, also displayed on the display unit, and / or a video, which in turn is also displayed on the display unit can be spent. As a result, the detailed information can be provided to the user in a variety of situations. For example, providing the detail information by voice is advantageous if the user is a driver of a motor vehicle and this is focused on a traffic event. For example, the detailed information provided by the graphic or video is particularly illustrative and easy to understand.

Die Erfindung betrifft auch eine Vorrichtung mit einer Kamera zum Aufnehmen eins Bilds mit einem Objekt aus einem Umgebungsbereich der Kamera und eine Positionsbestimmungseinheit zum Bestimmen einer in einem erdfesten Bezugssystem definierten Position der Kamera. Ein wesentlicher Gedanke der Erfindung ist darin zu sehen, dass die Vorrichtung eine Auswerteeinheit aufweist, welche dazu ausgebildet ist, eine Richtung des Objekts von der Kamera aus anhand einer Lage des Objekts in dem Bild zu bestimmen, und anhand der Richtung und der Position einen Standort des Objekts in dem erdfesten Bezugssystem zu bestimmen. Der Standort ist dann mit einer Mehrzahl von Referenzstandorten in dem erdfesten Bezugssystem vergleichbar. Bei Übereinstimmung des Standorts mit dem Referenzstandort, ist das Objekt als ein dem Referenzstandort zugeordnetes bekanntes Referenzobjekt erkennbar.The invention also relates to a device having a camera for taking a picture with an object from a surrounding area of the camera and a position-determining unit for determining a position of the camera defined in an earth-fixed reference frame. An essential idea of the invention is that the device has an evaluation unit which is designed to determine a direction of the object from the camera based on a position of the object in the image, and a location based on the direction and the position of the object in the ground-based frame of reference. The location is then comparable to a plurality of reference locations in the fixed ground reference system. If the location matches the reference site, the object is recognizable as a known reference object associated with the reference site.

Die Vorrichtung kann beispielsweise von einem Kraftfahrzeug oder einem tragbaren Gerät, insbesondere einem Smartphone, umfasst sein.The device may for example be comprised by a motor vehicle or a portable device, in particular a smartphone.

Weiterhin betrifft die Erfindung ein Kraftfahrzeug mit einer erfindungsgemäßen Vorrichtung. Eine Kamera der Vorrichtung ist vorzugsweise mit dem Kraftfahrzeug verbunden und weist zumindest ein Kraftfahrzeugsbefestigungselement zur Befestigung an dem Kraftfahrzeug auf. Eine Positionsbestimmungseinheit der Vorrichtung und eine Auswerteeinheit der Vorrichtung werden vorzugsweise durch einen GNSS-Empfänger und eine Recheneinheit des Kraftfahrzeugs realisiert. Die Positionsbestimmungseinheit und/oder die Auswerteeinheit kann vielfältig an oder in dem Kraftfahrzeug angeordnet sein. Die Positionsbestimmungseinheit und/oder die Auswerteeinheit kann beispielsweise auch in die Kamera integriert sein oder aber separat zu der Kamera ausgebildet sein.Furthermore, the invention relates to a motor vehicle with a device according to the invention. A camera of the device is preferably connected to the motor vehicle and has at least one motor vehicle fastening element for attachment to the motor vehicle. A position determination unit of the device and an evaluation unit of the device are preferably realized by a GNSS receiver and a computing unit of the motor vehicle. The position determination unit and / or the evaluation unit can be arranged manifold on or in the motor vehicle. The position determination unit and / or the evaluation unit can also be integrated into the camera, for example, or be designed separately from the camera.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechen für die erfindungsgemäße Vorrichtung sowie für das erfindungsgemäße Kraftfahrzeug. The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the device according to the invention and to the motor vehicle according to the invention.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen.Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or in the figures alone can be used not only in the respectively specified combination but also in other combinations or in isolation, without the scope of To leave invention. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim.

Die Ausführungsbeispiele der Erfindung werden nachfolgend anhand schematischer Zeichnungen näher erläutert.The embodiments of the invention will be explained in more detail with reference to schematic drawings.

Dabei zeigen:Showing:

1 eine schematische Draufsicht eines Ausführungsbeispiels eines erfindungsgemäßen Kraftfahrzeugs mit einer Vorrichtung mit einer Kamera; 1 a schematic plan view of an embodiment of a motor vehicle according to the invention with a device with a camera;

2 eine schematische Darstellung eines mit der Kamera aufgenommenen Bilds von einem Umgebungsbereich der Kamera; und 2 a schematic representation of an image taken with the camera from a surrounding area of the camera; and

3 eine schematische Darstellung eines digitalen Geländemodells in einem erdfesten Bezugssystem. 3 a schematic representation of a digital terrain model in a terrestrial reference system.

In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical or functionally identical elements are provided with the same reference numerals.

In 1 ist schematisch ein Kraftfahrzeug 1 mit einer Vorrichtung 2 dargestellt. Die Vorrichtung 2 umfasst eine Kamera 3, eine Positionsbestimmungseinheit 4, eine Auswerteeinheit 5, eine Richtungsbestimmungseinheit 6 und eine Anzeigeeinheit 7.In 1 is schematically a motor vehicle 1 with a device 2 shown. The device 2 includes a camera 3 , a position determination unit 4 , an evaluation unit 5 , a direction determination unit 6 and a display unit 7 ,

Die Kamera 3 ist an einer Front 8 des Kraftfahrzeugs 1 angeordnet, jedoch kann die Kamera 3 auch an einer beliebigen anderen Position des Kraftfahrzeugs 1 angeordnet sein. Die Kamera 3 erfasst ein Objekt 8 in einem Umgebungsbereich 9 der Kamera 3. Die Kamera 3 kann beispielsweise als CMOS-Kamera (complementary metal-oxide-semiconductor) oder aber als CCD-Kamera (charge-coupled device) oder als eine beliebige Art von Bilderfassungseinrichtung ausgebildet sein. Die Kamera 3 stellt vorzugsweise ein Bildsequenz von Bildern bereit. Die Bildsequenz der Bilder wird dann beispielsweise in Echtzeit durch die Auswerteeinheit 5 verarbeitet.The camera 3 is on a front 8th of the motor vehicle 1 arranged, however, the camera can 3 also at any other position of the motor vehicle 1 be arranged. The camera 3 captures an object 8th in a surrounding area 9 the camera 3 , The camera 3 For example, it can be designed as a CMOS camera (complementary metal-oxide-semiconductor) or as a CCD camera (charge-coupled device) or as any type of image capture device. The camera 3 preferably provides an image sequence of images. The image sequence of the images is then, for example, in real time by the evaluation unit 5 processed.

Die Positionsbestimmungseinheit 4 kann beispielsweise als globales Navigationssatellitensystem (GNSS), insbesondere GPS, Galileo, GLONASS oder Beidou ausgebildet sein. Weiterhin kann die Positionsbestimmungseinheit 4 beispielsweise als relatives globales Navigationssatellitensystem oder aber als unterstütztes Globales Positionierungssystem (A-GPS-Assisted Global Positioning System) ausgebildet sein, bei welchen Korrekturdaten zur Positionsverbesserung genutzt werden. Durch die Positionsbestimmungseinheit 4 wird eine Position 10 der Kamera 3 ein einem erdfesten Bezugssystem 11 bestimmt. Die Position 10 wird dabei insbesondere dreidimensional bestimmt, also beispielsweise mit drei kartesischen Koordinaten. Das erdfeste Bezugssystem 11 kann beispielsweise als WGS84 ausgebildet sein.The position determination unit 4 For example, it can be designed as a global navigation satellite system (GNSS), in particular GPS, Galileo, GLONASS or Beidou. Furthermore, the position determination unit 4 For example, be designed as a relative global navigation satellite system or as a supported Global Positioning System (A-GPS-Assisted Global Positioning System), are used in which correction data for position improvement. By the position determination unit 4 becomes a position 10 the camera 3 a ground-based frame of reference 11 certainly. The position 10 is determined in particular three-dimensional, that is, for example, with three Cartesian coordinates. The earth-proof frame of reference 11 may for example be designed as WGS84.

Die Richtungsbestimmungseinheit 6 ist insbesondere dazu ausgebildet einen Horizontalwinkel 12 und einen Vertikalwinkel 13 von der Kamera 3 zu dem Objekt 8 zu bestimmen. Der Horizontalwinkel 12 erstreckt sich in der waagrechten Ebene und bezeichnet den Winkel zwischen einem Hauptbezugspunkt des erdfesten Bezugssystems 11 und dem Objekt 8. Der Hauptbezugspunkt 14 kann beispielsweise der magnetische Nordpol oder der geographische Nordpol sein. Der Vertikalwinkel 13 kann als Zenitwinkel, Höhenwinkel, Tiefenwinkel oder Nadirwinkel ausgebildet sein. Dementsprechend bezieht sich der Vertikalwinkel auf den Zenit, den Nadir oder den Horizont. Eine Bezugsebene für den Vertikalwinkel 13 kann beispielsweise auch durch eine Wasserwaage bereitgestellt werden.The direction determination unit 6 is in particular adapted to a horizontal angle 12 and a vertical angle 13 from the camera 3 to the object 8th to determine. The horizontal angle 12 extends in the horizontal plane and denotes the angle between a main reference point of the terrestrial reference system 11 and the object 8th , The main reference point 14 may be, for example, the magnetic north pole or the geographic north pole. The vertical angle 13 may be formed as zenith angle, elevation angle, depth angle or nadir angle. Accordingly, the vertical angle refers to the zenith, nadir or horizon. A reference plane for the vertical angle 13 can be provided for example by a spirit level.

Die Auswerteeinheit 5 ist dazu ausgebildet eine Richtung 15 des Objekts 8 von der Position 10 aus anhand einer Lage des Objekts 8 in einem – in 2 gezeigten – Bild 16 zu bestimmen. Das Bild 16 wird mit der Kamera 3 aufgenommen. Von der Kamera 3 ist insbesondere eine äußere Orientierung bekannt, welche einen Zusammenhang zwischen der Lage des Objekts 8 im Bild 16 und einem Standort 17 des Objekts 8 im erdfesten Bezugssystem 11 ermöglicht. So kann von einem Bildkoordinatensystem des Bilds 16 anhand des Wissens über die äußere Orientierung, und beispielsweise einer inneren Orientierung der Kamera, der Standort 17 des Objekts 8 im erdfesten Bezugssystem 11 bestimmt werden. Es kann dann ein Strahl ausgehend von der Position 10 der Kamera 3 anhand der Richtung 15 eindeutig in dem erdfesten Bezugssystem 11 bestimmt werden. Dieser Strahl schneidet dann beispielsweise eine durch ein digitales Geländemodell im erdfesten Bezugssystem 11 vorgegebene Erdoberfläche. Dort wo der Strahl mit dem kürzesten Abstand zur Position 10 von der Erdoberfläche des digitalen Geländemodells geschnitten wird, wird der Standort 17 bestimmt.The evaluation unit 5 is designed to one direction 15 of the object 8th from the position 10 from based on a location of the object 8th in one - in 2 shown - picture 16 to determine. The picture 16 is with the camera 3 added. From the camera 3 In particular, an external orientation is known which indicates a relationship between the position of the object 8th in the picture 16 and a location 17 of the object 8th in the earth-fixed frame of reference 11 allows. So can from an image coordinate system of the image 16 based on the knowledge about the external orientation, and for example an inner orientation of the camera, the location 17 of the object 8th in the earth-fixed frame of reference 11 be determined. It can then be a beam starting from the position 10 the camera 3 by the direction 15 clearly in the earth-fixed frame of reference 11 be determined. This beam then cuts, for example, one through a digital terrain model in the ground reference frame 11 given earth surface. Where the beam with the shortest distance to the position 10 cut from the Earth's surface of the digital terrain model becomes the location 17 certainly.

Der Standort 17 wird dann mit einer Mehrzahl von Referenzstandorten verglichen. Jedem der Referenzstandorte ist ein Referenzobjekt zugeordnet. Bei Übereinstimmung des Standorts 17 mit einem der Referenzstandorte wird das Objekt 8 als das dem Referenzstandort zugewiesene Referenzobjekt erkannt.The site 17 is then compared to a plurality of reference sites. Each of the reference sites is assigned a reference object. If the location matches 17 with one of the reference locations becomes the object 8th recognized as the reference object assigned to the reference location.

Die Übereinstimmung zwischen dem Standort 17 und dem Referenzstandort kann beispielsweise über einen dreidimensionalen Koordinatenvergleich erfolgen. Bei dem Vergleich kann beispielsweise auch ein vorbestimmtes Übereinstimmungskriterium genutzt werden, falls die Koordinaten des Standorts 17 und des Referenzstandorts nicht exakt übereinstimmen. So kann beispielsweise ein Toleranzbereich um den Standort 17 oder den Referenzstandort hinzugefügt werden. Der Toleranzbereich kann beispielsweise als Radius um den Standort 17 oder den Referenzstandort ausgebildet sein. So kann beispielsweise ein Abstand von dem Standort 17 zu dem Referenzstandort genutzt werden. Falls dieser Abstand dann beispielsweise kleiner als ein Abstandsgrenzwert ist, so kann von einer Übereinstimmung zwischen dem Standort und dem Referenzstandort ausgegangen werden.The match between the location 17 and the reference location can be done for example via a three-dimensional coordinate comparison. In the comparison, for example, a predetermined matching criterion can also be used if the coordinates of the location 17 and the reference site do not exactly match. For example, a tolerance range around the location 17 or the reference location. For example, the tolerance range can be a radius around the location 17 or the reference location be formed. For example, a distance from the location 17 be used to the reference location. If this distance is then, for example, smaller than a distance limit value, then a correspondence between the location and the reference location can be assumed.

Die Positionsbestimmungseinheit 4, die Auswerteeinheit 5 und die Richtungsbestimmungseinheit 6 können sowohl in der Kamera 3 integriert sein als auch separat dazu, beispielsweise in dem Kraftfahrzeug 1 angeordnet sein.The position determination unit 4 , the evaluation unit 5 and the direction determination unit 6 can both in the camera 3 be integrated as well as separately, for example in the motor vehicle 1 be arranged.

2 zeigt das Bild 16. Das Bild 16 wird insbesondere auf der Anzeigeeinheit 7 ausgegeben. In dem Bild 16 sind mehrere Objekte 8 dargestellt. Jedes der Objekte 8 ist an einer individuellen Lage 18 in dem Bild 16 dargestellt. 2 shows the picture 16 , The picture 16 in particular on the display unit 7 output. In the picture 16 are several objects 8th shown. Each of the objects 8th is at an individual location 18 in the picture 16 shown.

Ein Nutzer der Vorrichtung 2 kann das jeweilige Objekt 8 nun beispielsweise per berührungsloser Geste im freien Raum oder per Berührung der Anzeigeeinheit 7 an der jeweiligen Lage 18 des Objekts 8 im Bild 16 auswählen. Das durch den Nutzer ausgewählte Objekt 8 wird dann beispielsweise in dem Bild 16 graphisch hervorgehoben, beispielsweise durch eine farbliche Änderung des dargestellten Objekts 8 im Bild 16 oder aber durch Markieren des im Bild 16 dargestellten Objekts 8 mit beispielsweise einem Kreis 19, welcher das Objekt 8 umgibt.A user of the device 2 can the respective object 8th now for example by contactless gesture in free space or by touching the display unit 7 at the respective location 18 of the object 8th in the picture 16 choose. The object selected by the user 8th then, for example, in the picture 16 highlighted graphically, for example, by a change in color of the object shown 8th in the picture 16 or by marking the picture 16 represented object 8th with, for example, a circle 19 which the object 8th surrounds.

Wird das Objekt 8 nun durch übereinstimmenden Vergleich des Standorts 17 mit dem Referenzstandort als Referenzobjekt erkannt, so wird dem Nutzer vorzugsweise eine Detailinformation über das Referenzobjekt ausgegeben. Die Detailinformation kann beispielsweise eine Erklärung von Eigenschaften des Objekts 8 sein. Die Detailinformation kann dann beispielsweise durch Sprache und/oder Text und/oder Grafik und/oder Video dem Nutzer ausgegeben werden. Der Nutzer kann also das Objekt in dem live von der Kamera 3 aufgenommenen Bild 16 auswählen und bekommt, nach Vergleichen des Standorts des Objekts mit den Referenzstandorten und Übereinstimmung des Standorts mit einem der Referenzstandorte, die Detailinformationen über den diesem Referenzstandort zugewiesenen Referenzobjekt ausgegeben.Becomes the object 8th now by matching location comparison 17 detected with the reference location as a reference object, the user is preferably output a detail information about the reference object. For example, the detail information may be an explanation of properties of the object 8th be. The detailed information can then be output to the user, for example by voice and / or text and / or graphics and / or video. So the user can see the object live in the camera 3 taken picture 16 select and obtain, after comparing the location of the object with the reference locations and the location matches one of the reference locations, the detailed information about the reference object assigned to that reference location.

3 zeigt ein digitales Geländemodell 19 in dem erdfesten Bezugssystem 11 aus Sicht der Kamera 3. Von der Kamera 3 aus kann nun aufgrund der Position 10 und der Richtung 15 ein Strahl 20 von der Kamera 3 ausgesendet werden. Der Strahl 20 ist lediglich als mathematische Beschreibung in dem erdfesten Bezugssystem 11 zu verstehen. Durch den Strahl 20 wird das digitale Geländemodell 19 in dem Standort 17 geschnitten. Der Standort 17 ist insbesondere der Schnitt mit dem digitalen Geländemodell 19, welcher als nächstes an der Position 10 liegt und somit die kürzeste Entfernung zwischen dem Schnittpunkt und der Position 10 aufweist. 3 shows a digital terrain model 19 in the earth-fixed frame of reference 11 from the perspective of the camera 3 , From the camera 3 can now out due to the position 10 and the direction 15 a ray 20 from the camera 3 to be sent out. The beam 20 is merely a mathematical description in the earth-fixed frame of reference 11 to understand. Through the beam 20 becomes the digital terrain model 19 in the location 17 cut. The site 17 is in particular the cut with the digital terrain model 19 , which next to the position 10 is the shortest distance between the point of intersection and the position 10 having.

Die Richtung 15 des Strahls 20 wird durch den Horizontalwinkel 12 und den Vertikalwinkel 13 bestimmt. Der Horizontalwinkel 12 und der Vertikalwinkel 13 werden mittels der Richtungsbestimmungseinheit 6 bestimmt. Die Position 10 wird mittels der Positionsbestimmungseinheit 4 bestimmt. Schematisch sind in 3 die Positionsbestimmungseinheit 4 sowie die Richtungsbestimmungseinheit 6 dargestellt und deren Produkte, wie die Position 10, der Horizontalwinkel 12 und der Vertikalwinkel 13.The direction 15 of the beam 20 becomes through the horizontal angle 12 and the vertical angle 13 certainly. The horizontal angle 12 and the vertical angle 13 be by means of the direction determination unit 6 certainly. The position 10 is determined by the position determination unit 4 certainly. Schematically are in 3 the position determination unit 4 as well as the direction determination unit 6 represented and their products, as the position 10 , the horizontal angle 12 and the vertical angle 13 ,

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 8131118 B1 [0002] US 8131118 B1 [0002]
  • DE 202013007354 U1 [0003] DE 202013007354 U1 [0003]
  • US 2015/0063642 A1 [0004] US 2015/0063642 A1 [0004]

Claims (10)

Verfahren zum Erkennen eines Objekts (8) in einem Umgebungsbereich (9) einer Kamera (3), bei welchem ein das Objekt (8) darstellendes Bild (16) mittels der an einer Position (10) definiert in einem erdfesten Bezugssystem (11) positionierten Kamera (3) aufgenommen wird, und das Objekt (8) in dem Bild (16) ausgewählt wird, dadurch gekennzeichnet, dass eine Richtung (15) des Objekts (8) von der Position (10) aus anhand einer Lage (18) des Objekts (8) im Bild (16) bestimmt wird und anhand der Richtung (15) und der Position (10) ein Standort (17) des Objekts (8) in dem erdfesten Bezugssystem (11) bestimmt wird, wobei eine Mehrzahl von Referenzstandorten, welchen jeweils ein Referenzobjekt zugewiesen wird, bereitgestellt wird und der Standort (17) mit den Referenzstandorten verglichen wird, und das Objekt (8) bei Übereinstimmung des Standorts (17) mit einem der Referenzstandorte als das diesem Referenzstandort zugewiesene Referenzobjekt erkannt wird.Method for recognizing an object ( 8th ) in a surrounding area ( 9 ) of a camera ( 3 ), in which an object ( 8th ) image ( 16 ) by means of at a position ( 10 ) defined in a terrestrial reference system ( 11 ) positioned camera ( 3 ) and the object ( 8th ) in the picture ( 16 ), characterized in that one direction ( 15 ) of the object ( 8th ) from the position ( 10 ) based on a location ( 18 ) of the object ( 8th ) in the picture ( 16 ) and the direction ( 15 ) and the position ( 10 ) a location ( 17 ) of the object ( 8th ) in the earth-fixed frame of reference ( 11 ) is determined, wherein a plurality of reference sites, to each of which a reference object is assigned, is provided and the location ( 17 ) is compared with the reference locations, and the object ( 8th ) if the location matches ( 17 ) is detected with one of the reference locations as the reference object assigned to this reference location. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Richtung (15) des Objekts (8) von der Kamera (3) aus durch einen Horizontalwinkel (12) und/oder einen Vertikalwinkel (13) bestimmt wird.Method according to claim 1, characterized in that the direction ( 15 ) of the object ( 8th ) from the camera ( 3 ) from a horizontal angle ( 12 ) and / or a vertical angle ( 13 ) is determined. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Bild (16) auf einer Anzeigeeinheit (7) angezeigt wird, und das Objekt (8) in dem Bild (16) durch einen Nutzer ausgewählt wird.Method according to claim 1 or 2, characterized in that the image ( 16 ) on a display unit ( 7 ) and the object ( 8th ) in the picture ( 16 ) is selected by a user. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Objekt (8) mittels Gestensteuerung durch Erkennen von einer berührungslosen Geste des Nutzers ausgewählt wird.Method according to claim 3, characterized in that the object ( 8th ) is selected by gesture control by recognizing a non-contact gesture of the user. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass das Objekt (8) mittels Berührung der als berührungsempfindlichen Bildschirm ausgebildeten Anzeigeeinheit (7) durch den Nutzer ausgewählt wird.Method according to claim 3 or 4, characterized in that the object ( 8th ) by touching the display unit designed as a touch-sensitive screen ( 7 ) is selected by the user. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Standort (17) mit dem Referenzstandort als übereinstimmend angenommen wird, falls ein vorbestimmtes Übereinstimmungskriterium, insbesondere ein Abstand von dem Standort (17) zu dem Referenzstandort kleiner als ein Abstandsgrenzwert ist, erfüllt ist.Method according to one of the preceding claims, characterized in that the location ( 17 ) is assumed to coincide with the reference site if a predetermined match criterion, in particular a distance from the site ( 17 ) to the reference location is less than a distance limit. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass einem jeweiligen Referenzobjekt der Mehrzahl der Referenzobjekte eine das Referenzobjekt beschreibende Detailinformation zugeordnet wird, und die Detailinformation desjenigen Referenzobjekts, welches mit dem Objekt (8) übereinstimmt, zur Beschreibung des Objekts (8) ausgegeben wird.Method according to one of the preceding claims, characterized in that a detail of the reference object is assigned to a respective reference object of the plurality of reference objects, and the detailed information of that reference object associated with the object ( 8th ), to describe the object ( 8th ) is output. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Detailinformation durch Sprache und/oder Text und/oder Grafik und/oder Video ausgegeben wird.A method according to claim 7, characterized in that the detailed information is output by voice and / or text and / or graphics and / or video. Vorrichtung (2) mit einer Kamera (3) zum Aufnehmen eines Bilds (16) mit einem Objekt (8) aus einem Umgebungsbereich (9) der Kamera (3) und einer Positionsbestimmungseinheit (4) zum Bestimmen einer in einem erdfesten Bezugssystem (11) definierten Position (10) der Kamera (3), dadurch gekennzeichnet, dass die Vorrichtung (2) eine Auswerteeinheit (5) aufweist, welche dazu ausgebildet ist, eine Richtung (15) des Objekts (8) von der Kamera (3) aus anhand einer Lage (18) des Objekts (8) in dem Bild (16) zu bestimmen, und anhand der Richtung (15) und der Position (10) ein Standort (17) des Objekts (8) in dem erdfesten Bezugssystem (11) zu bestimmen, wobei der Standort (17) mit einer Mehrzahl von Referenzstandorten in dem erdfesten Bezugssystem (11) vergleichbar ist, und bei Übereinstimmung des Standorts (17) mit dem Referenzstandort, das Objekt (8) als ein dem Referenzstandort zugeordnetes bekanntes Referenzobjekt erkennbar ist.Contraption ( 2 ) with a camera ( 3 ) to take a picture ( 16 ) with an object ( 8th ) from a surrounding area ( 9 ) the camera ( 3 ) and a position determination unit ( 4 ) for determining in a ground reference system ( 11 ) defined position ( 10 ) the camera ( 3 ), characterized in that the device ( 2 ) an evaluation unit ( 5 ), which is adapted to a direction ( 15 ) of the object ( 8th ) from the camera ( 3 ) based on a location ( 18 ) of the object ( 8th ) in the picture ( 16 ) and the direction ( 15 ) and the position ( 10 ) a location ( 17 ) of the object ( 8th ) in the earth-fixed frame of reference ( 11 ), the location ( 17 ) with a plurality of reference locations in the ground reference frame ( 11 ), and if the location matches ( 17 ) with the reference location, the object ( 8th ) is recognizable as a reference object associated with the known reference object. Kraftfahrzeug (1) mit einer Vorrichtung (2) nach Anspruch 9.Motor vehicle ( 1 ) with a device ( 2 ) according to claim 9.
DE102015015510.5A 2015-11-30 2015-11-30 A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle Pending DE102015015510A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015015510.5A DE102015015510A1 (en) 2015-11-30 2015-11-30 A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015015510.5A DE102015015510A1 (en) 2015-11-30 2015-11-30 A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle

Publications (1)

Publication Number Publication Date
DE102015015510A1 true DE102015015510A1 (en) 2017-06-01

Family

ID=58692839

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015015510.5A Pending DE102015015510A1 (en) 2015-11-30 2015-11-30 A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle

Country Status (1)

Country Link
DE (1) DE102015015510A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020126143A1 (en) * 2018-12-20 2020-06-25 Robert Bosch Gmbh Device and method for controlling the output of driver information and for maintaining the attention of a driver of an automated vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120016586A1 (en) * 2009-03-31 2012-01-19 Microsoft Corporation Visual assessment of landmarks
US8131118B1 (en) 2008-01-31 2012-03-06 Google Inc. Inferring locations from an image
DE102012208733A1 (en) * 2012-05-24 2013-11-28 Bayerische Motoren Werke Aktiengesellschaft Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system
DE202013007354U1 (en) 2013-08-14 2014-11-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Computer program product and traffic sign recognition system for a vehicle
US20150063642A1 (en) 2011-06-03 2015-03-05 Facebook, Inc. Computer-Vision-Assisted Location Check-In
DE102014208663A1 (en) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh DEVICE AND METHOD FOR PROVIDING INFORMATION DATA TO A VEHICLE ENVIRONMENT OBJECT IN A VIDEO IMAGE CURRENT

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8131118B1 (en) 2008-01-31 2012-03-06 Google Inc. Inferring locations from an image
US20120016586A1 (en) * 2009-03-31 2012-01-19 Microsoft Corporation Visual assessment of landmarks
US20150063642A1 (en) 2011-06-03 2015-03-05 Facebook, Inc. Computer-Vision-Assisted Location Check-In
DE102012208733A1 (en) * 2012-05-24 2013-11-28 Bayerische Motoren Werke Aktiengesellschaft Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system
DE202013007354U1 (en) 2013-08-14 2014-11-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Computer program product and traffic sign recognition system for a vehicle
DE102014208663A1 (en) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh DEVICE AND METHOD FOR PROVIDING INFORMATION DATA TO A VEHICLE ENVIRONMENT OBJECT IN A VIDEO IMAGE CURRENT

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020126143A1 (en) * 2018-12-20 2020-06-25 Robert Bosch Gmbh Device and method for controlling the output of driver information and for maintaining the attention of a driver of an automated vehicle
CN113226883A (en) * 2018-12-20 2021-08-06 罗伯特·博世有限公司 Device and method for controlling the output of driver information and for maintaining the driver's attention of an automated vehicle
JP2022513521A (en) * 2018-12-20 2022-02-08 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Devices and methods for controlling the output of driver information for self-driving vehicles and maintaining the driver's attention.
US11423778B2 (en) 2018-12-20 2022-08-23 Robert Bosch Gmbh Device and method for controlling the output of driver information and for maintaining the attention of a driver of an automated vehicle

Similar Documents

Publication Publication Date Title
DE102011084993A1 (en) Transfer of data from image data-based map services to an assistance system
DE202014010927U1 (en) Reference point identification from point clouds created from geographic image data
DE102021204765A1 (en) Rendering augmented reality with masking
DE102013103555A1 (en) Electronic map display device and method for displaying information regarding the electronic map
DE102015224694A1 (en) Method and device for providing the vehicle navigation information in the area of a highway
DE102010042026A1 (en) Method for producing image of e.g. post in concrete parking bay of ego vehicle, involves installing graphical element in object region to produce image in surrounding from virtual camera position, where region is not visible for sensor
DE102014119317A1 (en) Method for displaying an image overlay element in an image with 3D information, driver assistance system and motor vehicle
DE102019216548A1 (en) Method and mobile detection device for the detection of infrastructure elements of an underground line network
DE102010003851A1 (en) Destination marking method for motor vehicle driver, involves determining position of destination relative to vehicle, and embedding virtual object in real vehicle environment that is visible to vehicle occupant on head-up display
WO2020043475A1 (en) Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement
EP2381207A1 (en) 3D targeting and target designation from IR data
DE102009054214B4 (en) Method and apparatus for generating a representation of an environment
EP2756261B1 (en) Measuring device and method for filtered presentation of object information
DE102017220005A1 (en) Method and display device for guiding a work machine
DE112017001556T5 (en) Navigation system and navigation program
DE102010062464A1 (en) Method for representing e.g. part, of environment by driver assisting or informing system for vehicle, involves linking near area and remote area in transitional area, and linking two sets of information in transitional area
WO2013056954A1 (en) Method for assisting a driver in a foreign environment
DE102012208733A1 (en) Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system
DE102015015510A1 (en) A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle
DE102017215868A1 (en) Method and device for creating a map
DE102019208712B4 (en) Method for displaying an identified vehicle in an environment and a mobile terminal therefor
DE102007022588A1 (en) Method for displaying video images and video systems
DE102012213336A1 (en) Method for addition of digital card around spot heights pre-designated on geographical positions of vehicle, involves assigning geodetic projection height, for representing size to geographical position in digital card
DE102013212186B4 (en) Driver information device and procedure
DE102015115349A1 (en) Method for providing an image, driver assistance system and motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE

R084 Declaration of willingness to licence