DE102015015510A1 - A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle - Google Patents
A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle Download PDFInfo
- Publication number
- DE102015015510A1 DE102015015510A1 DE102015015510.5A DE102015015510A DE102015015510A1 DE 102015015510 A1 DE102015015510 A1 DE 102015015510A1 DE 102015015510 A DE102015015510 A DE 102015015510A DE 102015015510 A1 DE102015015510 A1 DE 102015015510A1
- Authority
- DE
- Germany
- Prior art keywords
- location
- camera
- image
- picture
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts (8) in einem Umgebungsbereich (9) einer Kamera (3), bei welchem ein das Objekt (8) darstellendes Bild (16) mittels der an einer Position (10) definiert in einem erdfesten Bezugssystem (11) positionierten Kamera (3) aufgenommen wird, und das Objekt (8) in dem Bild (16) ausgewählt wird, wobei eine Richtung (15) des Objekts (8) von der Position (10) aus anhand einer Lage (18) des Objekts (8) im Bild (16) bestimmt wird und anhand der Richtung (15) und der Position (10) ein Standort (17) des Objekts (8) in dem erdfesten Bezugssystem (11) bestimmt wird, wobei eine Mehrzahl von Referenzstandorten, welchen jeweils ein Referenzobjekt zugewiesen wird, bereitgestellt wird und der Standort (17) mit den Referenzstandorten verglichen wird und das Objekt (8) bei Übereinstimmung des Standorts (17) mit einem der Referenzstandorte als das diesem Referenzstandort zugewiesene Referenzobjekt erkannt wird.The invention relates to a method for detecting an object (8) in a surrounding area (9) of a camera (3), in which an image (16) representing the object (8) is defined in a ground reference frame at a position (10) (11) positioned camera (3) is selected, and the object (8) is selected in the image (16), wherein a direction (15) of the object (8) from the position (10) by means of a layer (18). of the object (8) in the image (16) is determined and by means of the direction (15) and the position (10) a location (17) of the object (8) in the ground reference frame (11) is determined, wherein a plurality of reference locations to which a reference object is assigned, is provided, and the location (17) is compared with the reference sites and the object (8) is identified as one of the reference sites as the reference object assigned to that reference site, if the site (17) matches.
Description
Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich einer Kamera. Es wird ein das Objekte darstellendes Bild mittels der an einer in einem erdfesten Bezugssystem definierten Position positionierten Kamera aufgenommen. Weiterhin wird das Objekt in dem Bild ausgewählt. Die Erfindung betrifft auch eine Vorrichtung mit einer Kamera, welche zum Aufnehmen eines Bilds mit einem Objekt aus einem Umgebungsbereich der Kamera ausgebildet ist, und einer Positionsbestimmungseinheit, welche zum Bestimmen einer in einem erdfesten Bezugssystem definierten Position der Kamera ausgebildet ist. Weiterhin betrifft die Erfindung ein Kraftfahrzeug mit einer dementsprechenden Vorrichtung.The invention relates to a method for detecting an object in a surrounding area of a camera. An image representing the objects is recorded by means of the camera positioned at a position defined in a ground-based reference frame. Furthermore, the object in the image is selected. The invention also relates to a device with a camera, which is designed to record an image with an object from a surrounding area of the camera, and to a position determination unit, which is designed to determine a position of the camera defined in an earth-fixed reference system. Furthermore, the invention relates to a motor vehicle with a corresponding device.
Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich einer Kamera sind aus dem Stand der Technik bekannt. So beschreibt die
Die
Die
Es ist Aufgabe der Erfindung, ein Verfahren, eine Vorrichtung sowie ein Kraftfahrzeug zu schaffen, um ein Objekt in einem Umgebungsbereich einer Kamera einfacher und zuverlässiger zu erkennen.It is an object of the invention to provide a method, a device and a motor vehicle to recognize an object in a surrounding area of a camera easier and more reliable.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Vorrichtung sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen gelöst.This object is achieved by a method by a device and by a motor vehicle with the features according to the respective independent claims.
Bei einem erfindungsgemäßen Verfahren wird ein Objekt in einem Umgebungsbereich einer Kamera erkannt. Es wird ein das Objekt darstellendes Bild mittels der an einer, insbesondere dreidimensionalen, Position definiert in einem erdfesten Bezugssystem positionierten Kamera aufgenommen. Weiterhin wird das Objekt in dem Bild ausgewählt. Ein wesentlicher Gedanke der Erfindung ist darin zu sehen, dass eine Richtung des Objekts von der Position aus anhand einer Lage des Objekts im Bild bestimmt wird und ausgehend von der Position der Kamera anhand der Richtung ein Standort des Objekts in dem erdfesten Bezugssystem, insbesondere mit einer dreidimensionalen Koordinate, bestimmt wird. Weiterhin wird eine Mehrzahl von, insbesondere in dem erdfesten Bezugssystem definierten, Referenzstandorten bereitgestellt, welchen jeweils ein Referenzobjekt zugewiesen wird. Der Standort wird mit den Referenzstandorten verglichen und das Objekt wird bei Übereinstimmung des Standorts mit einem der Referenzstandorte als das diesem Referenzstandort zugewiesene Referenzobjekt erkannt.In a method according to the invention, an object is detected in a surrounding area of a camera. An image representing the object is recorded by means of the camera positioned at an, in particular three-dimensional, position in a ground-based reference frame. Furthermore, the object in the image is selected. An essential idea of the invention is to be seen in that a direction of the object is determined from the position based on a position of the object in the image and, based on the position of the camera based on the direction, a location of the object in the ground reference frame, in particular with a three-dimensional coordinate, is determined. Furthermore, a plurality of, in particular in the Erdfesten reference system defined, reference locations are provided to which each a reference object is assigned. The location is compared to the reference locations, and if the location matches one of the reference locations, the object is recognized as the reference object assigned to that reference location.
Dem erfindungsgemäßen Verfahren liegt die Erkenntnis zugrunde, dass mit dem Wissen der Position der Kamera und der Richtung des Objekts von der Kamera aus eine Linie beziehungsweise ein Strahl von der Position der Kamera aus in einem Koordinatensystem des erdfesten Bezugssystems eindeutig erzeugt werden kann. In dem Koordinatensystem des erdfesten Bezugssystems können dann Referenzobjekte vorhanden sein, welche von dem Strahl geschnitten werden können. Werden beispielsweise mehrere Referenzobjekte von dem Strahl geschnitten, so wird vorzugsweise das zuerst geschnittene Referenzobjekt, also das der Kamera am nächsten gelegene Referenzobjekt, ausgewählt. Durch das Verfahren kann das Objekt in einfacher und effektiver Weise in dem Umgebungsbereich zuverlässig erkannt werden.The method according to the invention is based on the knowledge that, with the knowledge of the position of the camera and the direction of the object from the camera, a line or a beam can be generated unambiguously from the position of the camera in a coordinate system of the earth-fixed reference system. In the coordinate system of the earth-fixed reference system, reference objects may then be present which can be cut by the beam. If, for example, several reference objects are cut by the beam, then preferably the first cut reference object, that is to say the camera closest to the reference object, is selected. By virtue of the method, the object can be reliably detected in the surrounding area in a simple and effective manner.
Insbesondere ist es dabei vorgesehen, dass die Position der Kamera in dem erdfesten Bezugssystem dreidimensional definiert ist. Die Position der Kamera kann beispielsweise mittels eines globalen Navigationssatellitensystems (GNSS) einer die Kamera umfassenden Vorrichtung bestimmt werden. Das erdfeste Bezugssystem kann beispielsweise als WGS84 (World Geodetic System 1984) bestimmt werden. Die Richtungsbestimmung anhand der Lage des Objekts in dem Bild kann beispielsweise dadurch erfolgen, dass eine Ausrichtung der Kamera zum Zeitpunkt der Aufnahme des Bilds bestimmt wird. Die Ausrichtung bezieht sich insbesondere auf das Bezugssystem. So wird beispielsweise ein Horizontalwinkel und ein Vertikalwinkel des Objekts ausgehend von der Position der Kamera bestimmt. Durch die Position und die Richtung kann dann der Standort des Objekts bestimmt werden, indem der durch die Position und die Richtung entstehende Strahl mit beispielsweise einem digitalen Geländemodell (DGM) des Umgebungsbereichs der Kamera geschnitten wird. Das digitale Geländemodell liegt dabei insbesondere ebenfalls in dem erdfesten Bezugssystem vor. Durch das digitale Geländemodell wird eine dreidimensionale Abbildung der Erdoberfläche bereitgestellt. In einer weiteren Ausführungsform kann beispielsweise auch ein digitales Oberflächenmodell (DOM) gewählt werden, um den Standort des Objekts in dem erdfesten Bezugssystem zu bestimmen. Das digitale Oberflächenmodell beschreibt die Oberfläche der Erde, der Vegetation und der Bebauung durch die dreidimensionalen Koordinaten einer repräsentativen Menge von Boden- und Nichtbodenpunkten.In particular, it is provided that the position of the camera in the earth-fixed reference system is defined in three dimensions. The position of the camera can be determined, for example, by means of a global navigation satellite system (GNSS) of a device comprising the camera. The ground-based reference system can be determined, for example, as WGS84 (World Geodetic System 1984). The direction determination on the basis of the position of the object in the image can take place, for example, by determining an alignment of the camera at the time the image is taken. The orientation relates in particular to the reference system. For example, a horizontal angle and a vertical angle of the object are determined based on the position of the camera. By the position and the direction of the location of the object can then be determined by the resulting by the position and the direction beam with For example, a digital terrain model (DTM) of the surrounding area of the camera is cut. The digital terrain model is also present in particular in the Erdfesten reference system. The digital terrain model provides a three-dimensional image of the earth's surface. For example, in another embodiment, a digital surface model (DOM) may also be chosen to determine the location of the object in the ground reference frame. The digital surface model describes the surface of the earth, the vegetation, and the development through the three-dimensional coordinates of a representative set of ground and non-ground points.
Die Kamera ist vorzugsweise an einem Kraftfahrzeug angeordnet. insbesondere ist eine äußere Orientierung der Kamera bekannt. Durch die äußere Orientierung wird eine Transformationsvorschrift zwischen einem Bildkoordinatensystem des Bilds und dem erdfesten Bezugssystem bereitgestellt. Die Referenzstandorte mit den zugewiesenen Referenzobjekten sind vorzugsweise in einer Datenbank hinterlegt, welche beispielsweise in der Kamera oder dem Kraftfahrzeug angeordnet sein kann oder aber auch in einer fahrzeugexternen Einrichtung, auf welche dann beispielsweise drahtlos zugegriffen wird.The camera is preferably arranged on a motor vehicle. In particular, an external orientation of the camera is known. The outer orientation provides a transformation law between an image coordinate system of the image and the ground reference system. The reference sites with the assigned reference objects are preferably stored in a database, which can be arranged for example in the camera or the motor vehicle or else in a vehicle-external device, which is then accessed, for example, wirelessly.
Wie bereits ausgeführt, ist es vorzugsweise vorgesehen, dass die Richtung des Objekts von der Kamera aus durch einen Horizontalwinkel und/oder eine Vertikalwinkel bestimmt wird. Der Horizontalwinkel wird beispielsweise durch einen Kompass bestimmt und wird auch als Azimutalwinkel bezeichnet. Der Horizontalwinkel ist ein in einer waagrechten Ebene gemessener Winkel. Der Vertikalwinkel wird in einer lotrechten Ebene gemessen. Für den Vertikalwinkel lassen sich beispielsweise der Zenit, der Nadir und der Horizont als Ausgangslage wählen. Somit kann der Vertikalwinkel beispielsweise als Zenitwinkel oder als Höhenwinkel oder als Tiefenwinkel oder als Nadirwinkel angegeben werden. Eine Bezugsfläche für den Vertikalwinkel kann beispielsweise auch durch eine elektronische Wasserwaage bestimmt werden. Insbesondere ist es vorgesehen, dass die Richtung sowohl durch den Horizontalwinkel als auch den Vertikalwinkel bestimmt wird. Es kann aber auch vorgesehen sein, dass die Richtung lediglich durch den Horizontalwinkel alleine oder den Vertikalwinkel alleine bestimmt wird. So gibt es beispielsweise Situationen, in denen in dem Umgebungsbereich der Kamera, insbesondere in dem von der Position der Kamera aus sichtbaren Teil des digitalen Geländemodells, lediglich ein Referenzobjekt auf einer bestimmten Höhe oder in einer bestimmten Orientierung zur Kamera vorhanden ist. Somit kann das Referenzobjekt dem Objekt beim Vergleich eindeutig zugeordnet werden, da für den vorliegenden Vertikalwinkel oder den vorliegenden Horizontalwinkel lediglich dieses eine Referenzobjekt in Frage kommt. Dies hat insbesondere zwei Vorteile, zum einen kann die Richtung des Objekts einfacher und schneller bestimmt werden und zum anderen kann der Vergleich des Standorts mit den Referenzstandorten einfacher und schneller durchgeführt werden. Vorteilhaft an dem Bestimmen der Richtung durch den Horizontalwinkel und den Vertikalwinkel zusammen ist, dass dem Standort des Objekts besonders zuverlässig einer der Referenzstandorte zugewiesen werden kann.As already stated, it is preferably provided that the direction of the object from the camera is determined by a horizontal angle and / or a vertical angle. The horizontal angle is determined for example by a compass and is also referred to as azimuthal angle. The horizontal angle is an angle measured in a horizontal plane. The vertical angle is measured in a vertical plane. For the vertical angle, for example, the zenith, the nadir and the horizon can be selected as the starting point. Thus, the vertical angle can be indicated, for example, as a zenith angle or as an elevation angle or as a depth angle or as a nadir angle. A reference surface for the vertical angle can also be determined, for example, by an electronic spirit level. In particular, it is provided that the direction is determined by both the horizontal angle and the vertical angle. However, it can also be provided that the direction is determined solely by the horizontal angle alone or the vertical angle alone. For example, there are situations in which there is only one reference object at a certain height or in a specific orientation to the camera in the surrounding area of the camera, in particular in that part of the digital terrain model that is visible from the position of the camera. Thus, the reference object can be unambiguously assigned to the object during the comparison, since only this one reference object is suitable for the present vertical angle or the present horizontal angle. In particular, this has two advantages: on the one hand, the direction of the object can be determined more simply and more quickly and, on the other hand, the comparison of the location with the reference locations can be carried out more simply and more quickly. It is advantageous in determining the direction by the horizontal angle and the vertical angle together that one of the reference locations can be assigned to the location of the object with particular reliability.
Weiterhin ist es vorzugsweise vorgesehen, dass das Bild auf einer Anzeigeeinheit angezeigt wird und das Objekt in dem Bild durch einen Nutzer ausgewählt wird. Durch das Anzeigen des Bilds auf der Anzeigeeinheit kann der Nutzer das Objekt einfacher und zuverlässiger auswählen. Weiterhin kann so beispielsweise das Bild von dem Umgebungsbereich live auf der Anzeigeeinheit ausgeben werden und der Nutzer kann das Bild des Umgebungsbereichs live betrachten. Somit kann der Nutzer das Objekt in dem aktuell von der Kamera aufgenommenen Bild auswählen. So kann der Nutzer beispielsweise das Objekt zeitgleich real im Umgebungsbereich und als Abbildung in dem Bild betrachten.Furthermore, it is preferably provided that the image is displayed on a display unit and the object in the image is selected by a user. By displaying the image on the display unit, the user can select the object more easily and reliably. Furthermore, for example, the image of the surrounding area can be displayed live on the display unit and the user can view the image of the surrounding area live. Thus, the user can select the object in the picture currently being taken by the camera. For example, the user can simultaneously view the object real in the surrounding area and as an image in the picture.
In einer Ausführungsform ist es vorzugsweise vorgesehen, dass das Objekt mittels Gestensteuerung durch Erkennung von einer berührungslosen Geste des Nutzers ausgewählt wird. So kann der Nutzer beispielsweise eine Geste im freien Raum durchführen, anhand welcher dann das Objekt in dem Bild ausgewählt wird. Die Geste kann beispielsweise mit einer Hand des Nutzers ausgeführt werden. Durch die Gestensteuerung kann das Objekt einfacher ausgewählt werden.In one embodiment, it is preferably provided that the object is selected by means of gesture control by recognition of a non-contact gesture of the user. For example, the user can make a gesture in free space, based on which then the object is selected in the image. The gesture can be performed, for example, with one hand of the user. Gesture control makes it easier to select the object.
In einer weiteren Ausführungsform ist es vorzugsweise vorgesehen, dass das Objekt mittels Berührung der als berührungsempfindlichen Bildschirm ausgebildeten Anzeigeeinheit durch den Nutzer ausgewählt wird. Die Anzeigeeinheit kann also beispielsweise als Touchscreen ausgebildet sein. Die Anzeigeeinheit ist dabei vorzugsweise in einem Kraftfahrzeug oder einem mobilen Gerät angeordnet. Der Nutzer kann nun beispielsweise mit einem Finger auf die Anzeigeeinheit tippen, um in dem auf der Anzeigeeinheit angezeigten Bild das Objekt auszuwählen. Durch das Auswählen des Objekts mittels der Berührung kann das Auswählen für den Nutzer einfacher und komfortabler erfolgen.In a further embodiment, it is preferably provided that the object is selected by the user by touching the display unit embodied as a touch-sensitive screen. The display unit can thus be designed, for example, as a touchscreen. The display unit is preferably arranged in a motor vehicle or a mobile device. The user can now, for example, tap the display unit with a finger to select the object in the image displayed on the display unit. By selecting the object by the touch, the selection can be made easier and more comfortable for the user.
Weiterhin kann es vorgesehen sein, dass der Standort mit dem Referenzstandort als übereinstimmend angenommen wird, falls ein vorbestimmtes Übereinstimmungskriterium erfüllt ist. Insbesondere wird der Standort mit dem Referenzstandort als übereinstimmend angenommen, falls ein Abstand von dem Standort zu dem Referenzstandort kleiner als ein Abstandsgrenzwert ist. So kann durch das vorbestimmte Übereinstimmungskriterium beispielsweise eine Toleranz für eine Abweichung des Standorts von dem Referenzstandort bereitgestellt werden. So kann es beispielsweise sein, dass die Koordinaten des Standorts nicht exakt mit den Koordinaten des Referenzstandorts übereinstimmen. Dies kann beispielsweise durch das vorbestimmte Übereinstimmungskriterium kompensiert werden. So kann beispielsweise ein Radius um den Standort oder den Referenzstandort bestimmt werden, innerhalb welchem der Standort und der Referenzstandort als übereinstimmend angenommen werden. Vorzugsweise kann dazu auch ein Wahrscheinlichkeitswert basierend auf einem Abstand von dem Standort zu dem Referenzstandort genutzt werden. So kann beispielsweise davon ausgegangen werden, dass je größer der Abstand zwischen dem Standort und dem Referenzstandort ist, desto unwahrscheinlicher von einer Übereinstimmung ausgegangen werden kann. Andererseits kann umso mehr von einer Übereinstimmung ausgegangen werden, je näher sich der Standort und der Referenzstandort sind, also je kleiner der Abstand zwischen dem Standort und dem Referenzstandort ist. Es kann beispielsweise die Methode der kleinsten Quadrate genutzt werden, um den Abstand zu gewichten. Bei dieser Methode wird der Abstand nicht-linear gewichtet. Die Übereinstimmung des Standorts mit dem Referenzstandort kann dadurch dauernd zuverlässiger bestimmt werden. Das Übereinstimmungskriterium kann aber beispielsweise auch situationsbedingt abhängig von einer Genauigkeit, mit welcher die Position und/oder die Richtung bestimmt wird, angepasst werden. Auch kann das Übereinstimmungskriterium beispielsweise individuell für den jeweiligen Referenzstandort vorbestimmt werden.Furthermore, it may be provided that the location with the reference location is assumed to match if a predetermined match criterion is met. In particular, the location with the reference location is assumed to be coincidental if a distance from the location to the reference location is less than a distance limit. Thus, by the predetermined match criterion For example, a tolerance for a deviation of the location from the reference location can be provided. For example, it may be that the coordinates of the location do not exactly match the coordinates of the reference site. This can be compensated for example by the predetermined match criterion. For example, a radius around the location or reference location within which the location and reference location are assumed to be consistent may be determined. Preferably, a probability value based on a distance from the location to the reference location can also be used for this purpose. For example, it can be assumed that the greater the distance between the location and the reference location, the less likely it is to assume that a match exists. On the other hand, the closer the location and the reference location are, the smaller the distance between the location and the reference location, the more likely to be a match. For example, the least squares method can be used to weight the distance. In this method the distance is weighted non-linearly. The conformity of the location with the reference location can thus be determined more reliably. However, the match criterion can also be adjusted, for example, depending on the situation, depending on an accuracy with which the position and / or the direction is determined. The matching criterion can also be predetermined, for example, individually for the respective reference location.
In einer weiteren Ausführungsform ist es vorzugsweise vorgesehen, dass einem jeweiligen Referenzobjekt der Mehrzahl der Referenzobjekte eine das Referenzobjekt beschreibende Detailinformation zugeordnet wird, und die Detailinformation des Referenzobjekts, welches mit dem Objekt übereinstimmt, zur Beschreibung des Objekts ausgegeben wird. So sind den, insbesondere in der Datenbank hinterlegten, Referenzobjekten vorzugsweise Detailinformationen zugeordnet. Die jeweilige Detailinformation wird dann bei Übereinstimmung des Objekts mit dem Referenzobjekt, also bei Übereinstimmung des Standorts des Objekts mit dem Referenzstandort des Referenzobjekts, für den Nutzer ausgegeben. Anhand der Detailinformation kann der Nutzer dann beispielsweise eine Information über eine Landschaft, eine Burg, einen Berg, einen Strand, ein Haus oder einen Meeresarm erhalten. Die Detailinformation kann beispielsweise historische Daten oder einen aktuellen Zustand des Objekts, beispielsweise Öffnungszeiten, umfassen.In a further embodiment, it is preferably provided that a detail object that describes the reference object is assigned to a respective reference object of the plurality of reference objects, and the detailed information of the reference object that corresponds to the object is output for describing the object. Thus, the reference objects, in particular stored in the database, are preferably assigned detailed information. The respective detailed information is then output to the user when the object matches the reference object, ie when the location of the object matches the reference location of the reference object. Based on the detailed information, the user can then, for example, receive information about a landscape, a castle, a mountain, a beach, a house or an estuary. The detailed information may include, for example, historical data or a current state of the object, such as opening times.
Weiterhin ist es vorzugsweise vorgesehen, dass die Detailinformation durch Sprache und/oder Text und/oder Grafik und/oder Video ausgegeben wird. So kann die Detailinformation beispielsweise an den Nutzer in Form von einer Tonausgabe, eines geschriebenen Textes, welcher beispielsweise auf der Anzeigeeinheit angezeigt wird, einer Grafik, welche beispielsweise ebenfalls auf der Anzeigeeinheit angezeigt wird und/oder eines Videos, welches wiederum ebenfalls auf der Anzeigeeinheit angezeigt werden kann, ausgegeben werden. Dadurch kann die Detailinformation dem Nutzer für vielfältige Situationen gerecht bereitgestellt werden. So ist beispielsweise das Bereitstellen der Detailinformation durch Sprache vorteilhaft, falls der Nutzer ein Fahrer eines Kraftfahrzeugs ist, und dieser auf ein Verkehrsgeschehen konzentriert ist. Die durch die Grafik oder das Video bereitgestellte Detailinformation ist beispielsweise besonders anschaulich und leicht zu verstehen.Furthermore, it is preferably provided that the detailed information is output by voice and / or text and / or graphics and / or video. For example, the detail information may be displayed to the user in the form of a sound output, a written text displayed on the display unit, a graphic, for example, also displayed on the display unit, and / or a video, which in turn is also displayed on the display unit can be spent. As a result, the detailed information can be provided to the user in a variety of situations. For example, providing the detail information by voice is advantageous if the user is a driver of a motor vehicle and this is focused on a traffic event. For example, the detailed information provided by the graphic or video is particularly illustrative and easy to understand.
Die Erfindung betrifft auch eine Vorrichtung mit einer Kamera zum Aufnehmen eins Bilds mit einem Objekt aus einem Umgebungsbereich der Kamera und eine Positionsbestimmungseinheit zum Bestimmen einer in einem erdfesten Bezugssystem definierten Position der Kamera. Ein wesentlicher Gedanke der Erfindung ist darin zu sehen, dass die Vorrichtung eine Auswerteeinheit aufweist, welche dazu ausgebildet ist, eine Richtung des Objekts von der Kamera aus anhand einer Lage des Objekts in dem Bild zu bestimmen, und anhand der Richtung und der Position einen Standort des Objekts in dem erdfesten Bezugssystem zu bestimmen. Der Standort ist dann mit einer Mehrzahl von Referenzstandorten in dem erdfesten Bezugssystem vergleichbar. Bei Übereinstimmung des Standorts mit dem Referenzstandort, ist das Objekt als ein dem Referenzstandort zugeordnetes bekanntes Referenzobjekt erkennbar.The invention also relates to a device having a camera for taking a picture with an object from a surrounding area of the camera and a position-determining unit for determining a position of the camera defined in an earth-fixed reference frame. An essential idea of the invention is that the device has an evaluation unit which is designed to determine a direction of the object from the camera based on a position of the object in the image, and a location based on the direction and the position of the object in the ground-based frame of reference. The location is then comparable to a plurality of reference locations in the fixed ground reference system. If the location matches the reference site, the object is recognizable as a known reference object associated with the reference site.
Die Vorrichtung kann beispielsweise von einem Kraftfahrzeug oder einem tragbaren Gerät, insbesondere einem Smartphone, umfasst sein.The device may for example be comprised by a motor vehicle or a portable device, in particular a smartphone.
Weiterhin betrifft die Erfindung ein Kraftfahrzeug mit einer erfindungsgemäßen Vorrichtung. Eine Kamera der Vorrichtung ist vorzugsweise mit dem Kraftfahrzeug verbunden und weist zumindest ein Kraftfahrzeugsbefestigungselement zur Befestigung an dem Kraftfahrzeug auf. Eine Positionsbestimmungseinheit der Vorrichtung und eine Auswerteeinheit der Vorrichtung werden vorzugsweise durch einen GNSS-Empfänger und eine Recheneinheit des Kraftfahrzeugs realisiert. Die Positionsbestimmungseinheit und/oder die Auswerteeinheit kann vielfältig an oder in dem Kraftfahrzeug angeordnet sein. Die Positionsbestimmungseinheit und/oder die Auswerteeinheit kann beispielsweise auch in die Kamera integriert sein oder aber separat zu der Kamera ausgebildet sein.Furthermore, the invention relates to a motor vehicle with a device according to the invention. A camera of the device is preferably connected to the motor vehicle and has at least one motor vehicle fastening element for attachment to the motor vehicle. A position determination unit of the device and an evaluation unit of the device are preferably realized by a GNSS receiver and a computing unit of the motor vehicle. The position determination unit and / or the evaluation unit can be arranged manifold on or in the motor vehicle. The position determination unit and / or the evaluation unit can also be integrated into the camera, for example, or be designed separately from the camera.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechen für die erfindungsgemäße Vorrichtung sowie für das erfindungsgemäße Kraftfahrzeug. The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the device according to the invention and to the motor vehicle according to the invention.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen.Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or in the figures alone can be used not only in the respectively specified combination but also in other combinations or in isolation, without the scope of To leave invention. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim.
Die Ausführungsbeispiele der Erfindung werden nachfolgend anhand schematischer Zeichnungen näher erläutert.The embodiments of the invention will be explained in more detail with reference to schematic drawings.
Dabei zeigen:Showing:
In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical or functionally identical elements are provided with the same reference numerals.
In
Die Kamera
Die Positionsbestimmungseinheit
Die Richtungsbestimmungseinheit
Die Auswerteeinheit
Der Standort
Die Übereinstimmung zwischen dem Standort
Die Positionsbestimmungseinheit
Ein Nutzer der Vorrichtung
Wird das Objekt
Die Richtung
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 8131118 B1 [0002] US 8131118 B1 [0002]
- DE 202013007354 U1 [0003] DE 202013007354 U1 [0003]
- US 2015/0063642 A1 [0004] US 2015/0063642 A1 [0004]
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102015015510.5A DE102015015510A1 (en) | 2015-11-30 | 2015-11-30 | A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102015015510.5A DE102015015510A1 (en) | 2015-11-30 | 2015-11-30 | A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102015015510A1 true DE102015015510A1 (en) | 2017-06-01 |
Family
ID=58692839
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102015015510.5A Pending DE102015015510A1 (en) | 2015-11-30 | 2015-11-30 | A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102015015510A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020126143A1 (en) * | 2018-12-20 | 2020-06-25 | Robert Bosch Gmbh | Device and method for controlling the output of driver information and for maintaining the attention of a driver of an automated vehicle |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120016586A1 (en) * | 2009-03-31 | 2012-01-19 | Microsoft Corporation | Visual assessment of landmarks |
| US8131118B1 (en) | 2008-01-31 | 2012-03-06 | Google Inc. | Inferring locations from an image |
| DE102012208733A1 (en) * | 2012-05-24 | 2013-11-28 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system |
| DE202013007354U1 (en) | 2013-08-14 | 2014-11-18 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Computer program product and traffic sign recognition system for a vehicle |
| US20150063642A1 (en) | 2011-06-03 | 2015-03-05 | Facebook, Inc. | Computer-Vision-Assisted Location Check-In |
| DE102014208663A1 (en) * | 2014-05-08 | 2015-11-12 | Conti Temic Microelectronic Gmbh | DEVICE AND METHOD FOR PROVIDING INFORMATION DATA TO A VEHICLE ENVIRONMENT OBJECT IN A VIDEO IMAGE CURRENT |
-
2015
- 2015-11-30 DE DE102015015510.5A patent/DE102015015510A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8131118B1 (en) | 2008-01-31 | 2012-03-06 | Google Inc. | Inferring locations from an image |
| US20120016586A1 (en) * | 2009-03-31 | 2012-01-19 | Microsoft Corporation | Visual assessment of landmarks |
| US20150063642A1 (en) | 2011-06-03 | 2015-03-05 | Facebook, Inc. | Computer-Vision-Assisted Location Check-In |
| DE102012208733A1 (en) * | 2012-05-24 | 2013-11-28 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system |
| DE202013007354U1 (en) | 2013-08-14 | 2014-11-18 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Computer program product and traffic sign recognition system for a vehicle |
| DE102014208663A1 (en) * | 2014-05-08 | 2015-11-12 | Conti Temic Microelectronic Gmbh | DEVICE AND METHOD FOR PROVIDING INFORMATION DATA TO A VEHICLE ENVIRONMENT OBJECT IN A VIDEO IMAGE CURRENT |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020126143A1 (en) * | 2018-12-20 | 2020-06-25 | Robert Bosch Gmbh | Device and method for controlling the output of driver information and for maintaining the attention of a driver of an automated vehicle |
| CN113226883A (en) * | 2018-12-20 | 2021-08-06 | 罗伯特·博世有限公司 | Device and method for controlling the output of driver information and for maintaining the driver's attention of an automated vehicle |
| JP2022513521A (en) * | 2018-12-20 | 2022-02-08 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | Devices and methods for controlling the output of driver information for self-driving vehicles and maintaining the driver's attention. |
| US11423778B2 (en) | 2018-12-20 | 2022-08-23 | Robert Bosch Gmbh | Device and method for controlling the output of driver information and for maintaining the attention of a driver of an automated vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102011084993A1 (en) | Transfer of data from image data-based map services to an assistance system | |
| DE202014010927U1 (en) | Reference point identification from point clouds created from geographic image data | |
| DE102021204765A1 (en) | Rendering augmented reality with masking | |
| DE102013103555A1 (en) | Electronic map display device and method for displaying information regarding the electronic map | |
| DE102015224694A1 (en) | Method and device for providing the vehicle navigation information in the area of a highway | |
| DE102010042026A1 (en) | Method for producing image of e.g. post in concrete parking bay of ego vehicle, involves installing graphical element in object region to produce image in surrounding from virtual camera position, where region is not visible for sensor | |
| DE102014119317A1 (en) | Method for displaying an image overlay element in an image with 3D information, driver assistance system and motor vehicle | |
| DE102019216548A1 (en) | Method and mobile detection device for the detection of infrastructure elements of an underground line network | |
| DE102010003851A1 (en) | Destination marking method for motor vehicle driver, involves determining position of destination relative to vehicle, and embedding virtual object in real vehicle environment that is visible to vehicle occupant on head-up display | |
| WO2020043475A1 (en) | Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement | |
| EP2381207A1 (en) | 3D targeting and target designation from IR data | |
| DE102009054214B4 (en) | Method and apparatus for generating a representation of an environment | |
| EP2756261B1 (en) | Measuring device and method for filtered presentation of object information | |
| DE102017220005A1 (en) | Method and display device for guiding a work machine | |
| DE112017001556T5 (en) | Navigation system and navigation program | |
| DE102010062464A1 (en) | Method for representing e.g. part, of environment by driver assisting or informing system for vehicle, involves linking near area and remote area in transitional area, and linking two sets of information in transitional area | |
| WO2013056954A1 (en) | Method for assisting a driver in a foreign environment | |
| DE102012208733A1 (en) | Method for determining location of object e.g. shop by user of vehicle, involves determining direction vector and object position data with respect to predetermined reference point and absolute position in geographic coordinate system | |
| DE102015015510A1 (en) | A method of recognizing an object based on a location of the object in an image, apparatus and motor vehicle | |
| DE102017215868A1 (en) | Method and device for creating a map | |
| DE102019208712B4 (en) | Method for displaying an identified vehicle in an environment and a mobile terminal therefor | |
| DE102007022588A1 (en) | Method for displaying video images and video systems | |
| DE102012213336A1 (en) | Method for addition of digital card around spot heights pre-designated on geographical positions of vehicle, involves assigning geodetic projection height, for representing size to geographical position in digital card | |
| DE102013212186B4 (en) | Driver information device and procedure | |
| DE102015115349A1 (en) | Method for providing an image, driver assistance system and motor vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R082 | Change of representative |
Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE |
|
| R084 | Declaration of willingness to licence |