[go: up one dir, main page]

DE102021109083A1 - Tracking in the vehicle interior with a depth sensor in smart glasses - Google Patents

Tracking in the vehicle interior with a depth sensor in smart glasses Download PDF

Info

Publication number
DE102021109083A1
DE102021109083A1 DE102021109083.0A DE102021109083A DE102021109083A1 DE 102021109083 A1 DE102021109083 A1 DE 102021109083A1 DE 102021109083 A DE102021109083 A DE 102021109083A DE 102021109083 A1 DE102021109083 A1 DE 102021109083A1
Authority
DE
Germany
Prior art keywords
vehicle
data glasses
static
vehicle interior
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021109083.0A
Other languages
German (de)
Inventor
Tobias Bauernfeind
Wolfgang Haberl
Alan Keim
Manfred Pauli
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102021109083.0A priority Critical patent/DE102021109083A1/en
Publication of DE102021109083A1 publication Critical patent/DE102021109083A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln der 3D-Pose einer Datenbrille im Innenraum eines Fahrzeugs, wobei die Datenbrille einen Tiefensensor und/oder eine Kamera aufweist, umfassend die Schritte:- Ableiten einer statischen 3D-Referenzkarte des Fahrzeuginnenraums von einem dreidimensionalen CAD-Modell des Fahrzeuginnenraums in einem fahrzeugfesten Koordinatensystem, wobei die dreidimensionale Darstellung statischer Oberflächen im Fahrzeuginnenraum gemäß dem CAD-Modell zumindest teilweise übernommen wird, während dynamische Objekte aus dem CAD-Modell entfernt werden;- Speichern der statischen 3D-Referenzkarte in der Datenbrille oder in deren Steuereinheit;- wiederholtes Erfassen des Fahrzeuginnenraums durch den Tiefensensor und/oder die Kamera;- Erkennen übereinstimmender Merkmale in den erfassten Fahrzeuginnenraumdaten und in der statischen 3D-Referenzkarte; und- Ermitteln einer aktuellen 3D-Pose der Datenbrille, die deren dreidimensionale Position und Ausrichtung im fahrzeugfesten Koordinatensystem angibt, anhand der erkannten übereinstimmenden Merkmale.The invention relates to a method for determining the 3D pose of data glasses in the interior of a vehicle, the data glasses having a depth sensor and/or a camera, comprising the steps of: - Deriving a static 3D reference map of the vehicle interior from a three-dimensional CAD model of the Vehicle interior in a vehicle-fixed coordinate system, the three-dimensional representation of static surfaces in the vehicle interior according to the CAD model being at least partially adopted, while dynamic objects are removed from the CAD model;- Saving the static 3D reference map in the data glasses or in their control unit; - repeatedly capturing the vehicle interior by the depth sensor and/or the camera; - detecting matching features in the captured vehicle interior data and in the static 3D reference map; and- determining a current 3D pose of the data glasses, which indicates their three-dimensional position and alignment in the vehicle-fixed coordinate system, based on the recognized matching features.

Description

Technisches Gebiettechnical field

Die Erfindung betrifft ein Verfahren zum Ermitteln einer 3D-Pose einer Datenbrille, die von einem Benutzer im Innenraum eines Fahrzeugs getragen wird. Die ermittelte 3D-Pose der Datenbrille im fahrzeugfesten Koordinatensystem kann dabei insbesondere zum kontaktanalogen (d. h. an realen Umgebungsobjekten orientierten) Darstellen von Informationsobjekten im Blickfeld des Benutzers genutzt werden. Das Verfahren kann in einem Kraftfahrzeug oder einem andersartigen Fahrzeug zum Einsatz kommen kann. Die Erfindung richtet sich auch auf ein entsprechend eingerichtetes Fahrzeug sowie auf eine entsprechend ausgebildete Datenbrille.The invention relates to a method for determining a 3D pose of data glasses worn by a user in the interior of a vehicle. The determined 3D pose of the data glasses in the vehicle-fixed coordinate system can be used in particular for the contact-analogous (i.e. based on real objects in the environment) display of information objects in the user's field of vision. The method can be used in a motor vehicle or another type of vehicle. The invention also relates to a correspondingly equipped vehicle and correspondingly designed data glasses.

Technischer HintergrundTechnical background

Datenbrillen sind am Kopf eines Benutzers nach Art einer Sehhilfe tragbare Anzeigevorrichtungen, die auch unter der allgemeineren Bezeichnung Head-Mounted-Display (HMD) bekannt sind. Typischerweise werden durch eine Datenbrille nützliche Anzeigeinhalte einer vom Benutzer beobachteten realen Umgebung hinzugefügt. Dabei bleibt die reale Umgebung für den Benutzer durch zumindest teildurchlässige Anzeigeelemente weiterhin sichtbar (Augmented Reality, AR). In einem Kraftfahrzeug kann auf diese Weise beispielsweise eine Einparkhilfe realisiert werden, die dem Fahrer durch die Karosserie verdeckte Hindernisse wie Bordsteine etc. kontaktanalog, d. h. an realen Umgebungsobjekten orientiert, darstellt.Data glasses are display devices that can be worn on a user's head in the manner of a visual aid, which are also known under the more general designation head-mounted display (HMD). Typically, smart glasses add useful display content to a real-world environment observed by the user. The real environment remains visible to the user through at least partially transparent display elements (augmented reality, AR). In a motor vehicle, for example, a parking aid can be realized in this way, the obstacles hidden by the body such as curbs, etc. contact-analogous, d. H. based on real surrounding objects represents.

Für die Integration von Datenbrillen in Augmented-Reality-Erlebnisse im Fahrzeug ist es vor allem zum kontaktanalogen Darstellen nötig, die genaue Orientierung und Position der Datenbrille im Fahrzeug zu kennen. Für die Bestimmung einer solchen Ego-Pose (hierin als 3D-Pose bezeichnet) ist es beispielsweise bekannt, neben fahrzeugeigener Sensorik auch in der Datenbrille integrierte Kameras zu verwenden.For the integration of data glasses in augmented reality experiences in the vehicle, it is necessary to know the exact orientation and position of the data glasses in the vehicle, especially for contact-analog representation. For the determination of such an ego pose (referred to herein as a 3D pose), it is known, for example, to use cameras integrated in the data glasses in addition to the vehicle's own sensors.

Die im Stand der Technik bekannten Verfahren zur 3D-Posen-Bestimmung für Datenbrillen sind allerdings für statische Umgebungen mit möglichst vielen Features, die von den Kameras erkannt werden können, ausgelegt. Dabei werden die in der Datenbrille integrierten Kameras beispielsweise im Rahmen eines sogenannten SLAM-Verfahrens (Simultaneous Localization and Mapping) verwendet, um eine Umgebungskarte der Datenbrille zu erzeugen, welche wiederum erkannt und für das Tracken (d. h. 3D-Posen-Bestimmung) verwendet wird.However, the methods known in the prior art for determining 3D poses for data glasses are designed for static environments with as many features as possible that can be recognized by the cameras. The cameras integrated in the data glasses are used, for example, as part of a so-called SLAM process (Simultaneous Localization and Mapping) to generate a map of the surroundings of the data glasses, which in turn is recognized and used for tracking (i.e. 3D pose determination).

Für eine robuste Ego-Posen-Bestimmung sind Datenbrillen von einer möglichst statischen und strukturierten Umgebung abhängig, was bei Datenbrillenanwendungen unter freiem Himmel vor feststehenden Untersuchungsobjekten wie Brücken oder Gebäuden, aber auch im Inneren von Gebäuden meist gut erfüllbar ist. Ist dies allerdings nicht gegeben, kann eine Datenbrille nicht sinnvoll tracken.For a robust determination of the ego pose, data glasses are dependent on an environment that is as static and structured as possible, which can usually be easily achieved with data glasses applications in the open air in front of fixed examination objects such as bridges or buildings, but also inside buildings. However, if this is not the case, data glasses cannot track in a meaningful way.

Besonders ein Fahrzeuginnenraum stellt daher eine große Herausforderung an die Datenbrille hinsichtlich des Trackens, wobei insbesondere eine Anwendung von Tiefensensoren neben den Kameras zum Tracken kaum möglich erscheint. Zum einen gibt es viele dynamisch bewegliche Objekte wie z. B. das Lenkrad, den Innenspiegel oder die Insassen. Versucht nun die Datenbrille, diese Objekte im Tracking mitzuverwenden (was bei bekannten Verfahren automatisch passiert), resultiert das in einem sehr ungenauen Trackingergebnis, welches für sicherheitsrelevante AR-Anwendungen mit kontaktanaloger Darstellung in einem Fahrzeug praktisch unbrauchbar ist. A vehicle interior in particular therefore poses a major challenge for the data glasses in terms of tracking, with the use of depth sensors in particular next to the cameras for tracking hardly appearing possible. On the one hand there are many dynamically moving objects such as e.g. B. the steering wheel, the interior mirror or the occupants. If the data glasses now try to use these objects in the tracking (which happens automatically with known methods), this results in a very imprecise tracking result, which is practically unusable for safety-relevant AR applications with contact-analogous representation in a vehicle.

Zusätzlich erzeugen die Glasscheiben in einem Auto viele Reflektionen, die künstliche, jedoch nicht existierende, Objekte in den Bildern einer Kamera erzeugen würden. Somit wäre eine gängige Echtzeit-Kartenerstellung stark fehlerbehaftet, da dynamisch bewegliche und nicht-existierende Objekte für die Kartenerstellung verwendet werden. Zudem erzeugen die beweglichen Objekte eine Divergenz während des Tracking-Vorgangs, d. h. einen wesentlichen Unterschied zwischen der zuvor erstellten Karte und einer anschließend aufgenommenen Echtzeit-Umgebung der Datenbrille.In addition, the glass panes in a car create many reflections that artificial, but non-existent, objects would create in a camera's images. Thus, a common real-time mapping would be highly error-prone, since dynamically moving and non-existent objects are used for mapping. In addition, the moving objects create a divergence during the tracking process, i. H. a significant difference between the previously created map and a subsequently recorded real-time environment of the data glasses.

Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren zum Ermitteln einer 3D-Pose einer Datenbrille im Innenraum eines Fahrzeugs anzugeben, mit dem die geschilderten Probleme überwunden werden können. Dabei soll die Datenbrille einen Tiefensensor und/oder eine Kamera aufweisen können.It is the object of the present invention to specify a method for determining a 3D pose of data glasses in the interior of a vehicle, with which the problems described can be overcome. The data glasses should be able to have a depth sensor and/or a camera.

Offenbarung der ErfindungDisclosure of Invention

Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1, ein entsprechend ausgestattetes und eingerichtetes Fahrzeug sowie eine entsprechend ausgestattete und eingerichtete Datenbrille gemäß den nebengeordneten Ansprüchen gelöst. Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. Alle in den Ansprüchen und der nachfolgen Beschreibung für das Verfahren genannten weiterführenden Merkmale und Wirkungen gelten auch in Bezug auf das Fahrzeug sowie auf die Datenbrille, wie auch umgekehrt.This object is achieved by a method according to claim 1, a correspondingly equipped and set up vehicle and a correspondingly equipped and set up data glasses according to the independent claims. Further developments are specified in the dependent claims. All further features and effects mentioned in the claims and the following description for the method also apply in relation to the vehicle and the data glasses, and vice versa.

Gemäß einem ersten Aspekt ist ein Verfahren zum Ermitteln der 3D-Pose einer Datenbrille im Innenraum eines Fahrzeugs vorgesehen, wobei es sich insbesondere um ein Kraftfahrzeug oder ein beliebiges anderes Land-, Luft- oder Wasserfahrzeug handeln kann. Die Datenbrille weist dabei einen Tiefensensor und/oder eine optische Kamera auf. Der Tiefensensor kann dabei beispielsweise als ein Radar, ein Lidar oder ein andersartiger Entfernungssensor oder Time-of-Flight-Sensor (TOF-Sensor) ausgebildet sein.According to a first aspect, a method for determining the 3D pose of data glasses in the interior of a vehicle is provided, which can in particular be a motor vehicle or any other land, air or water vehicle. The data glasses have a depth sensor and/or an optical camera. In this case, the depth sensor can be embodied, for example, as a radar, a lidar or a different type of distance sensor or time-of-flight sensor (TOF sensor).

Das Verfahren umfasst folgende Schritte:

  • - Ableiten einer statischen 3D-Referenzkarte des Fahrzeuginnenraums von einem dreidimensionalen CAD-Modell des Fahrzeuginnenraums in einem fahrzeugfesten Koordinatensystem. Dabei wird die dreidimensionale Darstellung statischer Oberflächen im Fahrzeuginnenraum gemäß dem CAD-Modell zumindest teilweise übernommen. Hingegen werden dabei dynamische Objekte, d. h. solche Objekte bzw. Oberflächen des Fahrzeuginnenraums, die sich im fahrzeugfesten Koordinatensystem während der Fahrt dynamisch bewegen - wie z. B. der Lenkradkranz - aus dem CAD-Modell entfernt oder markiert, so dass sie vom weiteren Verfahren zur Ermittlung der 3D-Pose ausgeschlossen bleiben. Die statische 3D-Referenzkarte kann beispielsweise eine nahezu durchgehende dreidimensionale Flächendarstellung des Fahrzeuginnenraums und/oder eine dreidimensionale Darstellung von dessen einzelnen Bereichen und/oder Objekten wie der A-Säule, der Instrumententafel etc. enthalten.
  • - Speichern der dadurch erhaltenen statischen 3D-Referenzkarte in der Datenbrille oder in deren Steuereinheit. Die Steuereinheit kann in der Datenbrille integriert sein, alternativ aber auch separat ausgebildet sein und drahtlos mit der Datenbrille zu deren Steuerung kommunizieren.
  • - Wiederholtes Erfassen des Fahrzeuginnenraums durch den Tiefensensor und/oder durch die Kamera beim Tragen der Datenbrille durch einen Benutzer. Der Erfassungsschritt und die nachfolgenden Schritte können beispielsweise automatisch nach dem Aufsetzen der Datenbrille oder nach einer Aktivierung durch den Benutzer kontinuierlich ausgeführt oder in geeigneten Zeitabständen, die zum Tracking von Kopfbewegungen des Benutzers bemessen sind, wiederholt werden.
  • - Erkennen übereinstimmender Merkmale - wie z. B. geometrischer Muster, Strukturen, Objekte, aber auch Oberflächeneigenschaften wie Reflexions- und/oder Absorptionseigenschaften etc. - durch den Vergleich der von dem Tiefensensor und/oder der Kamera der Datenbrille erfassten Fahrzeuginnenraumdaten mit der statischen 3D-Referenzkarte des Fahrzeuginnenraums; und
  • - Ermitteln einer aktuellen 3D-Pose der Datenbrille, die deren dreidimensionale Position und deren dreidimensionale Ausrichtung im fahrzeugfesten Koordinatensystem angibt, anhand der erkannten übereinstimmenden Merkmale.
The procedure includes the following steps:
  • - Deriving a static 3D reference map of the vehicle interior from a three-dimensional CAD model of the vehicle interior in a vehicle-fixed coordinate system. The three-dimensional representation of static surfaces in the vehicle interior according to the CAD model is at least partially adopted. On the other hand, dynamic objects, ie those objects or surfaces of the vehicle interior that move dynamically in the vehicle-fixed coordinate system while driving - such. B. the steering wheel rim - removed from the CAD model or marked so that they remain excluded from the further procedure for determining the 3D pose. The static 3D reference map can contain, for example, an almost continuous three-dimensional surface representation of the vehicle interior and/or a three-dimensional representation of its individual areas and/or objects such as the A-pillar, the instrument panel, etc.
  • - Saving the resulting static 3D reference map in the data glasses or in their control unit. The control unit can be integrated in the data glasses, but alternatively it can also be designed separately and communicate wirelessly with the data glasses to control them.
  • - Repeated detection of the vehicle interior by the depth sensor and / or by the camera when wearing the data glasses by a user. The detection step and the subsequent steps can be carried out continuously, for example, automatically after the data glasses are put on or after activation by the user, or repeated at suitable time intervals that are measured for tracking head movements of the user.
  • - Recognition of matching characteristics - such. B. geometric patterns, structures, objects, but also surface properties such as reflection and / or absorption properties, etc. - by comparing the vehicle interior data recorded by the depth sensor and / or the camera of the data glasses with the static 3D reference map of the vehicle interior; and
  • - Determining a current 3D pose of the data glasses, which indicates their three-dimensional position and their three-dimensional alignment in the vehicle-fixed coordinate system, based on the recognized matching features.

Eine der Erfindung zugrundeliegende Idee ist somit zweiseitig. Zum einen wird die Umgebungskarte der Datenbrille (hierin statische 3D-Referenzkarte genannt) nicht in Echtzeit erstellt, sondern von den CAD-Daten des Fahrzeuginnenraums abgeleitet. In den CAD-Daten können dabei dynamische Objekte markiert oder entfernt werden, um bei der 3D-Posenbestimmung ignoriert zu werden. Die 3D-Referenzkarte besteht somit nur noch aus den statischen Objekten des Fahrzeuginnenraums, welche für jedes Fahrzeugmodell individuell festgelegt werden können. Dieser Schritt ist daher für jedes Modell nur einmal initial zu erledigen. Zum anderen wird während des Trackings (d. h. der 3D-Posenermittlung) keine Umgebungskarte ständig neu aufgenommen, sondern es wird die einmal initial erstellte statische 3D-Referenzkarte verwendet, da im Fahrzeuginnenraum davon ausgegangen werden kann, dass sich die Umgebung nicht ändert.An idea on which the invention is based is therefore two-sided. On the one hand, the map of the surroundings of the data glasses (referred to herein as a static 3D reference map) is not created in real time, but is derived from the CAD data of the vehicle interior. Dynamic objects can be marked or removed in the CAD data in order to be ignored in the 3D pose determination. The 3D reference map therefore only consists of the static objects of the vehicle interior, which can be defined individually for each vehicle model. This step therefore only has to be done once for each model. On the other hand, no environment map is continuously recorded during the tracking (i.e. the 3D pose determination), but the static 3D reference map initially created is used, since it can be assumed in the vehicle interior that the environment will not change.

Dadurch ist es möglich, nur noch auf statischen Objekten des Fahrzeuginnenraums - wie z.B. der A-Säule, dem Armaturenbrett o.ä. - zu tracken, die präzise Trackingergebnisse ohne Verfälschung durch dynamisch bewegliche Objekte ermöglicht. Ein weiterer Vorteil der Ableitung der 3D-Referenzkarte des Fahrzeuginnenraums von den CAD-Daten des Fahrzeugs besteht darin, dass die 3D-Referenzkarte dadurch - wie die CAD-Daten des Fahrzeugs - direkt in dem Koordinatensystem des Fahrzeugs bekannt ist. Wenn hingegen eine Referenzkarte, die im Stand der Technik Umgebungskarte genannt wird, in Echtzeit (z.B. mit SLAM) aufgenommen bzw. erstellt wird, bezieht sie sich zunächst auf ein zufällig festgelegtes Koordinatensystem. D. h. ein anschließendes Kalibrierverfahren wäre notwendig, um die herkömmliche Referenzkarte/Umgebungskarte in das Koordinatensystem des Fahrzeugs zu bringen. Durch die vorliegende Verwendung der CAD-Daten entfällt dieser Kalibrierschritt und 3D-Objekte können unmittelbar im Fahrzeug angezeigt werden.This makes it possible to track only on static objects in the vehicle interior - such as the A-pillar, the dashboard, etc. - which enables precise tracking results without being distorted by dynamically moving objects. A further advantage of deriving the 3D reference map of the vehicle interior from the CAD data of the vehicle is that the 3D reference map - like the CAD data of the vehicle - is thereby known directly in the coordinate system of the vehicle. If, on the other hand, a reference map, which is called an environment map in the prior art, is recorded or created in real time (e.g. with SLAM), it initially refers to a randomly defined coordinate system. i.e. a subsequent calibration procedure would be necessary to bring the conventional reference map/environment map into the vehicle's coordinate system. By using the CAD data, this calibration step is no longer necessary and 3D objects can be displayed directly in the vehicle.

Zusätzlich kann über die CAD-Daten des Fahrzeugs der Detektionsbereich bei der 3D-Posenermittlung deutlich eingeschränkt werden, was ohne die Kenntnis geometrischer Daten des Fahrzeugs im fahrzeugeigenen Koordinatensystem nicht möglich wäre. Durch das vorliegende Verfahren wird die 3D-Pose der Datenbrille direkt in Bezug zum Fahrzeugkoordinatensystem bestimmt. Dieser Gesichtspunkt macht es möglich, den zu trackenden 3D-Bereich der Fahrzeuginnenraums deutlich und präzise einzuschränken. So ist es beispielsweise möglich, den Detektionsbereich der Datenbrille derart dynamisch anzupassen, dass über eine bekannte Sitzposition und -Ausrichtung der Mensch nicht erfasst wird. Dadurch bleibt mehr Informationsgehalt in der Punktwolke vorhanden, welche zum Tracken verwendet werden kann. Hierzu werden weiter unten weitere Einzelheiten angegeben.In addition, the detection area for the 3D pose determination can be significantly limited via the CAD data of the vehicle, which would not be possible without knowledge of the geometric data of the vehicle in the vehicle's own coordinate system. The present method determines the 3D pose of the data glasses directly in relation to the vehicle coordinate system. This Viewpoint makes it possible to clearly and precisely limit the 3D area of the vehicle interior to be tracked. For example, it is possible to dynamically adapt the detection range of the data glasses in such a way that the person is not detected via a known sitting position and orientation. This leaves more information content in the point cloud, which can be used for tracking. Further details are given below.

Gemäß einer Ausführungsform, bei der der Fahrzeuginnenraum durch den Tiefensensor erfasst wird, umfasst die statische 3D-Referenzkarte des Fahrzeuginnenraums neben geometrischen Angaben zu den statischen Oberflächen auch Angaben über deren Reflexions- und/oder Absorptionseigenschaften und/oder über deren Oberflächenbeschaffenheit. Aus den erfassten Fahrzeuginnenraumdaten werden bei dieser Ausführungsform Reflexions- und/oder Absorptionseigenschaften und/oder eine Oberflächenbeschaffenheit der erfassten Oberflächen ermittelt und mit den betreffenden Angaben der statischen 3D-Referenzkarte verglichen. Bei dieser Ausführungsform können somit Reflexions- und/oder Absorptionseigenschaften und/oder die Oberflächenbeschaffenheit von Oberflächen im Fahrzeuginnenraum als übereinstimmende Merkmale erkannt werden, und nicht nur geometrische Merkmale.According to one embodiment in which the vehicle interior is detected by the depth sensor, the static 3D reference map of the vehicle interior includes not only geometric information about the static surfaces but also information about their reflection and/or absorption properties and/or their surface properties. In this embodiment, reflection and/or absorption properties and/or a surface condition of the recorded surfaces are determined from the recorded vehicle interior data and compared with the relevant information of the static 3D reference map. In this embodiment, reflection and/or absorption properties and/or the surface properties of surfaces in the vehicle interior can thus be identified as matching features, and not just geometric features.

Dieser Ausführungsform liegt die Erkenntnis zugrunde, dass Tiefensensoren neben den Tiefendaten auch eine Information über die Reflexionsintensität der erfassten Objekte und Oberflächen liefern. Durch eine Auswertung der Reflexionsintensität kann beispielsweise über das physikalische Verhalten bei der Reflektion des Lichtstrahls auf das Material, die Farbe und die Textur des Objekts rückgeschlossen werden. Da die CAD-Daten des Fahrzeugs bekannt sind und beim vorliegenden Verfahren in der statischen 3D-Referenzkarte enthalten sind, stehen somit auch Daten von Materialien und Farben zur Verfügung. Diese können zusätzlich für das Tracking der Datenbrille verwendet werden, wodurch der Abgleich von der 3D-Referenzkarte und den erfassten Sensordaten verbessert werden kann.This embodiment is based on the knowledge that, in addition to the depth data, depth sensors also supply information about the reflection intensity of the detected objects and surfaces. By evaluating the reflection intensity, for example, conclusions can be drawn about the material, the color and the texture of the object via the physical behavior when the light beam is reflected. Since the CAD data of the vehicle are known and are contained in the static 3D reference map in the present method, data on materials and colors are also available. These can also be used for tracking the data glasses, which improves the comparison between the 3D reference map and the recorded sensor data.

Insbesondere ist dadurch eine einfachere und robustere Bestimmung der Anfangspose der Datenbrille möglich, denn Lokalisierungsverfahren benötigen typischerweise eine Schätzung einer Initialpose der Datenbrille. Zudem sind die Reflexions- und Absorptionseigenschaften der verschiedenen Flächen im Fahrzeuginnenraum bekannt. Auch diese Eigenschaften können für die Lokalisierung verwendet werden: Z. B. ist es bekannt, dass Tiefensensoren auf glatten und glänzenden Oberflächen nicht tracken können. Diese Information kann verwendet werden, um beispielsweise Displays und Fensterscheiben vom Tracking auszuschließen. Zusätzlich können bei dieser Ausführungsform hell/dunkel-Übergänge und somit Kontrastunterschiede detektiert werden.In particular, a simpler and more robust determination of the initial pose of the data glasses is possible because localization methods typically require an estimate of an initial pose of the data glasses. In addition, the reflection and absorption properties of the various surfaces in the vehicle interior are known. These properties can also be used for localization: For example, it is known that depth sensors cannot track on smooth and shiny surfaces. This information can be used, for example, to exclude displays and window panes from tracking. In addition, light/dark transitions and thus contrast differences can be detected in this embodiment.

So werden bei einer Weiterbildung der obigen Ausführungsform die erkannten Übereinstimmungen in den Reflexions- und/oder Absorptionseigenschaften und/oder der Oberflächenbeschaffenheit zum groben Ermitteln einer 3D-Anfangspose der Datenbrille genutzt. Anschließend kann ein dreidimensionaler Teilbereich des Fahrzeuginnenraums anhand der grob ermittelten 3D-Anfangspose der Datenbrille eingegrenzt werden, in welchem eine genauere Ermittlung der aktuellen 3D-Pose durch das Erkennen übereinstimmender geometrischer Merkmale durchgeführt wird. Z. B. können anhand der grob ermittelten 3D-Anfangspose der Datenbrille ein Teilbereich des Fahrzeuginnenraums eingegrenzt werden, der in ausreichend kurzer Zeit mit einem vergleichsweise aufwändigen Mustererkennungsverfahren nach übereinstimmenden geometrischen Merkmalen abgesucht werden kann.In a further development of the above embodiment, the matches recognized in the reflection and/or absorption properties and/or the surface quality are used to roughly determine a 3D initial pose of the data glasses. A three-dimensional sub-area of the vehicle interior can then be delimited using the roughly determined 3D initial pose of the data glasses, in which a more precise determination of the current 3D pose is carried out by recognizing matching geometric features. For example, based on the roughly determined 3D initial pose of the data glasses, a sub-area of the vehicle interior can be delimited, which can be searched for matching geometric features in a sufficiently short time using a comparatively complex pattern recognition method.

Des Weiteren werden bei einer spezifischen Ausgestaltung beim Ableiten der statischen 3D-Referenzkarte des Fahrzeuginnenraums aus dem CAD-Modell glatte und glänzende Oberflächen, insbesondere Displayflächen und Fensterscheiben, aus dem CAD-Modell entfernt oder markiert, damit sie vom weiteren Verfahren der 3D-Posenermittlung ausgeschlossen bleiben. Auf diese Weise können von diesen Oberflächen herrührende Erfassungsdaten des Tiefensensors und der Kamera beim Ermitteln der aktuellen 3D-Pose der Datenbrille unberücksichtigt bleiben. So können durch Reflexionen hervorgerufene Scheinobjekte beim Tracking ignoriert werden und das Tracking dadurch ebenfalls präziser und besser werden.Furthermore, in a specific embodiment, when deriving the static 3D reference map of the vehicle interior from the CAD model, smooth and shiny surfaces, in particular display surfaces and window panes, are removed from the CAD model or marked so that they are excluded from the further process of 3D pose determination stay. In this way, acquisition data from the depth sensor and the camera originating from these surfaces can be disregarded when determining the current 3D pose of the data glasses. In this way, apparent objects caused by reflections can be ignored during tracking, making tracking more precise and better.

Insbesondere kann beim Ableiten der statischen 3D-Referenzkarte des Fahrzeuginnenraums aus dem CAD-Modell für statische Objekte des Fahrzeuginnenraums deren im Wesentlichen vollständige dreidimensionale Oberflächendarstellung gemäß dem CAD-Modell beibehalten werden.In particular, when deriving the static 3D reference map of the vehicle interior from the CAD model for static objects of the vehicle interior, their essentially complete three-dimensional surface representation according to the CAD model can be retained.

Bei einer spezifischen Ausgestaltung ist das Fahrzeug zum Übermitteln von Daten an die Datenbrille bzw. deren Steuereinheit ausgebildet, wenn die Datenbrille von einem Benutzer im Fahrzeug getragen wird. Dies kann beispielsweise eine drahtlose Übermittlung unter Verwendung eines im Fahrzeug geeigneten Kommunikationsstandards wie Wifi (WLAN), Bluetooth oder NFC (Near-Field-Communication) sein. Die vom CAD-Modell des Fahrzeuginnenraums abgeleitete statische 3D-Referenzkarte des Fahrzeuginnenraums ist bei dieser Ausgestaltung im Fahrzeug gespeichert. Das Vorhandensein oder das Tragen der Datenbrille im Fahrzeug wird vom Fahrzeug automatisch erkannt, woraufhin das Fahrzeug die statische 3D-Referenzkarte seines Fahrzeuginnenraums an die Datenbrille bzw. deren Steuereinheit übermittelt. Auf diese Weise kann jede Datenbrille, die von Insassen ins Fahrzeug mitgebracht wird, mit der individuellen statischen 3D-Referenzkarte des Fahrzeuginnenraums versorgt werden und dadurch zum präzisen Tracking gemäß dem hierin vorgestellten Verfahren im Fahrzeug befähigt werden.In a specific embodiment, the vehicle is designed to transmit data to the data glasses or their control unit when the data glasses are worn by a user in the vehicle. This can be, for example, a wireless transmission using a communication standard suitable in the vehicle, such as Wifi (WLAN), Bluetooth or NFC (Near Field Communication). The static 3D reference map of the vehicle interior derived from the CAD model of the vehicle interior is in this Ausgestal stored in the vehicle. The presence or wearing of the data glasses in the vehicle is automatically recognized by the vehicle, whereupon the vehicle transmits the static 3D reference map of its vehicle interior to the data glasses or their control unit. In this way, each pair of data glasses brought into the vehicle by the occupants can be supplied with the individual static 3D reference map of the vehicle interior and thereby be enabled for precise tracking in the vehicle according to the method presented here.

Bei einer Weiterbildung dieser Ausgestaltung werden im Fahrzeug jeweils aktuelle Fahrzeugdaten über die eingestellte Position verstellbarer statischer Elemente, insbesondere von Fahrzeugsitzen, des Fahrzeuginnenraums und/oder über eine erkannte Sitzbelegung bereitgestellt. Ein Erfassungsbereich des Tiefensensors bzw. der Kamera der Datenbrille und/oder die statische 3D-Referenzkarte des Fahrzeuginnenraums werden hier in Echtzeit durch Verwendung dieser Fahrzeugdaten aktualisiert und/oder ergänzt. Dadurch können insbesondere diejenigen dreidimensionalen Raumbereiche, die von auf Fahrzeugsitzen sitzenden Insassen besetzbar oder tatsächlich besetzt sind, aus der statischen 3D-Referenzkarte und/oder aus dem Erfassungsbereich des Tiefensensors und/oder der Kamera entfernt werden. Auf diese Weise können diese Raumbereiche, die von sich bewegenden Fahrzeuginsassen besetzt sind und daher das Tracking erschweren oder sogar verfälschen könnten, beim Ermitteln der aktuellen 3D-Pose der Datenbrille (Tracking) unberücksichtigt bleiben.In a further development of this embodiment, current vehicle data about the set position of adjustable static elements, in particular of vehicle seats, of the vehicle interior and/or about a detected seat occupancy is provided in the vehicle. A detection range of the depth sensor or the camera of the data glasses and/or the static 3D reference map of the vehicle interior are updated and/or supplemented here in real time by using this vehicle data. As a result, in particular those three-dimensional spatial regions that can be or are actually occupied by occupants sitting on vehicle seats can be removed from the static 3D reference map and/or from the detection range of the depth sensor and/or the camera. In this way, those spatial areas that are occupied by moving vehicle occupants and could therefore make tracking more difficult or even falsify can remain unconsidered when determining the current 3D pose of the data glasses (tracking).

Insbesondere kann die Datenbrille eine Anzeigeeinrichtung zum Darstellen von Informationsobjekten im Blickfeld des Benutzers umfassen, wobei Informationsobjekte dem Benutzer kontaktanalog (d. h. an realen Objekten im und um das Fahrzeug orientiert) unter Verwendung der jeweils ermittelten 3D-Pose der Datenbrille im fahrzeugfesten Koordinatensystem dargestellt werden.In particular, the data glasses can include a display device for displaying information objects in the user's field of vision, with information objects being displayed to the user in a contact-analogous manner (i.e. based on real objects in and around the vehicle) using the respectively determined 3D pose of the data glasses in the vehicle-fixed coordinate system.

Insbesondere können die Schritte des Erfassens des Fahrzeuginnenraums, des Erkennens übereinstimmender Merkmale und des Ermittelns der aktuellen 3D-Pose der Datenbrille beim Tragen der Datenbrille durch den Benutzer im Fahrzeug fortlaufend oder in geeigneten Zeitabständen, die zur Verfolgung von Kopfbewegungen des Benutzers bemessen sind, wiederholt werden.In particular, the steps of capturing the vehicle interior, recognizing matching features and determining the current 3D pose of the data glasses when the user wears the data glasses in the vehicle can be repeated continuously or at suitable time intervals that are measured to track the user's head movements .

Gemäß einem weiteren Aspekt ist ein Fahrzeug, insbesondere ein Kraftfahrzeug oder ein beliebiges anderes Land-, Luft- oder Wasserfahrzeug, vorgesehen. Das Fahrzeug ist zum Übermitteln von Daten an die Datenbrille bzw. deren Steuereinheit ausgebildet, während die Datenbrille von einem Benutzer im Fahrzeug getragen wird. Ferner weist das Fahrzeug eine fahrzeugeigene Steuereinheit auf, die zum Ausführen zumindest einiger der Schritte eines Verfahrens der hierin dargelegten Art eingerichtet ist.According to a further aspect, a vehicle, in particular a motor vehicle or any other land, air or water vehicle, is provided. The vehicle is designed to transmit data to the data glasses or their control unit while the data glasses are being worn by a user in the vehicle. Furthermore, the vehicle has an on-board control unit that is set up to carry out at least some of the steps of a method of the type presented here.

Gemäß einem weiteren Aspekt ist eine Datenbrille vorgesehen, umfassend:

  • - eine Anzeigeeinrichtung, die zum kontaktanalogen Darstellen von Informationsobjekten im Blickfeld eines Benutzers ausgebildet ist;
  • - einen Tiefensensor und/oder eine Kamera, die zur Erfassung einer Umgebung der Datenbrille ausgebildet ist/sind; und
  • - eine Steuereinheit, die zum Ausführen zumindest einiger der Schritte eines Verfahrens der hierin dargelegten Art eingerichtet ist.
According to a further aspect, data glasses are provided, comprising:
  • - A display device, which is designed for the contact-analogous representation of information objects in the field of view of a user;
  • - a depth sensor and/or a camera, which is/are designed to capture an area surrounding the data glasses; and
  • - a control unit configured to carry out at least some of the steps of a method of the type set forth herein.

Die Ausführung der Schritte des hierin vorgestellten Verfahrens kann grundsätzlich beliebig auf das Fahrzeug und die darin getragen Datenbrille verteilt sein.The execution of the steps of the method presented here can in principle be distributed arbitrarily to the vehicle and the data glasses worn in it.

Figurenlistecharacter list

Die obigen Aspekte der Erfindung und deren Ausführungsformen und spezifische Ausgestaltungen werden nachfolgend anhand der in den beigefügten Zeichnungen dargestellten Beispiele näher erläutert. Die Zeichnungen sind aus Gründen anschaulicher Darstellung rein schematisch gehalten: Sie sind daher nicht als maßstabsgetreu zu verstehen. Es zeigen:

  • 1 eine schematische perspektivische Darstellung einer Datenbrille gemäß einem Ausführungsbeispiel der Erfindung;
  • 2 ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung zum Ermitteln einer 3D-Pose der Datenbrille der 1 im Innenraum eines Fahrzeugs.
The above aspects of the invention and its embodiments and specific configurations are explained in more detail below with reference to the examples shown in the attached drawings. For the sake of clarity, the drawings are kept purely schematic: they are therefore not to be understood as true to scale. Show it:
  • 1 a schematic perspective view of data glasses according to an embodiment of the invention;
  • 2 a flowchart of a method according to an embodiment of the invention for determining a 3D pose of the data glasses 1 in the interior of a vehicle.

Beschreibung von AusführungsformenDescription of Embodiments

1 zeigt schematisch eine Datenbrille 1 gemäß einem Ausführungsbeispiel der Erfindung. Es handelt es sich in diesem Beispiel um ein Head-Mounted-Display (HMD) in Form einer Brille oder Sehhilfe mit einer Anzeigeeinrichtung, die zwei Anzeigeelemente 2a und 2b jeweils für ein Auge eines Benutzers (nicht gezeigt) aufweist. Bei den Anzeigeelementen 2a und 2b kann es sich beispielsweise um durchsichtige Gläser mit integrierten Waveguides zum Darstellen von Informationsobjekten im Blickfeld des Benutzers handeln, wobei auch jede andere für Datenbrillen geeignete Technologie vorliegend zum Einsatz kommen kann. 1 1 schematically shows data glasses 1 according to an exemplary embodiment of the invention. In this example, it is a head-mounted display (HMD) in the form of glasses or visual aids with a display device that has two display elements 2a and 2b, each for one eye of a user (not shown). The display elements 2a and 2b can, for example, be transparent glasses with integrated waveguides for displaying information objects in the user's field of vision, with any other technology suitable for data glasses being able to be used in the present case.

Die Datenbrille 1 ist in diesem Beispiel dazu ausgebildet, wie eine herkömmliche Sehhilfe auf der Nase des Benutzers getragen zu werden, indem sie mit einem zwischen den Anzeigeelementen 2a und 2b angeordneten Verbindungsstück 3 auf der Nase des Benutzers aufliegt und mit zwei seitlichen Bügeln 4a und 4b an den Ohren des Benutzers fixiert wird.In this example, the data glasses 1 are designed to be worn on the user's nose like a conventional pair of glasses by resting on the user's nose with a connecting piece 3 arranged between the display elements 2a and 2b and with two side brackets 4a and 4b fixed to the user's ears.

Die Datenbrille 1 umfasst in diesem Beispiel ferner mindestens einen Tiefensensor 5, der dazu ausgebildet ist, einen vor den Anzeigeelementen 2a und 2b, d. h. im Blickfeld des Benutzers, liegenden Raumbereich zu erfassen. Ferner weist die Datenbrille 1 eine Steuereinheit 6 auf, die zum Auslesen des Tiefensensors 5, zur drahtlosen Kommunikation in beide Richtungen mit einem Fahrzeug (nicht gezeigt) und zum Ansteuern der Anzeigeeinrichtung ausgebildet ist. Rein beispielhaft sind in 1 der mindestens eine Tiefensensor 5 und die Steuereinheit 6 in dem Verbindungsstück 3 angeordnet, wobei diese und gegebenenfalls auch weitere Bauelemente der Datenbrille 1, wie optische Kameras, Energiespeicher etc., alternativ oder zusätzlich auch in den Bügeln 4a und 4b integriert sein können.In this example, the data glasses 1 also include at least one depth sensor 5, which is designed to detect a spatial region in front of the display elements 2a and 2b, ie in the user's field of vision. Furthermore, the data glasses 1 have a control unit 6 which is designed to read out the depth sensor 5, for wireless communication in both directions with a vehicle (not shown) and for controlling the display device. Purely exemplary are in 1 the at least one depth sensor 5 and the control unit 6 are arranged in the connecting piece 3, whereby these and optionally also other components of the data glasses 1, such as optical cameras, energy storage, etc., can alternatively or additionally also be integrated in the brackets 4a and 4b.

Die Datenbrille 1 (das heißt deren Anzeigeeinrichtung und Steuereinheit 6) ist zum kontaktanalogen Darstellen von Inhaltsobjekten ausgebildet und eignet sich daher für Augmented-Reality-Anwendungen, wie z. B. visuelle Parkhilfe und vieles mehr, in einem Fahrzeug. Hierfür ist es nötig, die genaue Orientierung und Position (hierin als 3D-Pose bezeichnet) der Datenbrille 1 im Fahrzeug zu kennen.The data glasses 1 (i.e. their display device and control unit 6) are designed for the contact-analog display of content objects and are therefore suitable for augmented reality applications, such as e.g. B. visual parking aid and much more, in one vehicle. For this it is necessary to know the exact orientation and position (referred to herein as 3D pose) of the data glasses 1 in the vehicle.

2 zeigt schematisch ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung zum Ermitteln einer 3D-Pose der Datenbrille 1 der 1 im Innenraum eines Fahrzeugs. Rein beispielhaft können in diesem Beispiel die nachfolgend beschriebenen Verfahrensschritte S1 und S2 in einer fahrzeugeigenen Steuereinheit (nicht gezeigt) ausgeführt, während die zyklisch wiederholt ausgeführten Schritte S3 bis S5 in der Steuereinheit 6 der Datenbrille 1 implementiert sein können. Hierzu kann beispielsweise ein entsprechendes Computerprogramm in die Steuereinheit 6 geladen werden, um von dieser ausgeführt zu werden. 2 shows schematically a flow chart of a method according to an embodiment of the invention for determining a 3D pose of the data glasses 1 of FIG 1 in the interior of a vehicle. In this example, the method steps S1 and S2 described below can be carried out purely by way of example in an on-board control unit (not shown), while the cyclically repeated steps S3 to S5 can be implemented in the control unit 6 of the data glasses 1 . For this purpose, for example, a corresponding computer program can be loaded into the control unit 6 in order to be executed by it.

In einem ersten Schritt S1 wird eine statische 3D-Referenzkarte des Fahrzeuginnenraums von einem dreidimensionalen CAD-Modell des Fahrzeuginnenraums in einem fahrzeugfesten Koordinatensystem abgeleitet. Dabei wird die dreidimensionale Darstellung statischer Oberflächen im Fahrzeuginnenraum gemäß dem CAD-Modell zumindest teilweise übernommen. Hingegen werden dabei dynamisch bewegliche Objekte des Fahrzeuginnenraums, wie z. B. der Lenkradkranz, aus dem CAD-Modell entfernt oder markiert, so dass sie vom weiteren Verfahren zur Ermittlung der 3D-Pose ausgeschlossen bleiben. Die statische 3D-Referenzkarte kann beispielsweise eine nahezu durchgehende dreidimensionale Flächendarstellung des Fahrzeuginnenraums und/oder eine dreidimensionale Darstellung von dessen einzelnen Bereichen und/oder Objekten wie der A-Säule, der Instrumententafel etc. enthalten. Die so erhaltene statische 3D-Referenzkarte wird in diesem Beispiel zunächst im Fahrzeug in einem fahrzeugeigenen Speicher bzw. einer fahrzeugeigenen Steuereinheit abgespeichert.In a first step S1, a static 3D reference map of the vehicle interior is derived from a three-dimensional CAD model of the vehicle interior in a vehicle-fixed coordinate system. The three-dimensional representation of static surfaces in the vehicle interior according to the CAD model is at least partially adopted. On the other hand, dynamically moving objects in the vehicle interior, such as B. the steering wheel rim, removed from the CAD model or marked so that they remain excluded from the further process for determining the 3D pose. The static 3D reference map can contain, for example, an almost continuous three-dimensional surface representation of the vehicle interior and/or a three-dimensional representation of its individual areas and/or objects such as the A-pillar, the instrument panel, etc. In this example, the static 3D reference map obtained in this way is first stored in the vehicle in an on-board memory or an on-board control unit.

In einem weiteren Schritt S2 wird in diesem Beispiel vom Fahrzeug das Tragen der Datenbrille 1 durch einen seiner Insassen, beispielsweise einen Fahrer oder aber einen Passagier, automatisch erkannt und die statische 3D-Referenzkarte durch drahtlose Kommunikation auf die Datenbrille 1 bzw. deren Steuereinheit 6 übertragen.In a further step S2, in this example, the vehicle automatically recognizes that one of its occupants, for example a driver or a passenger, is wearing the data glasses 1 and transmits the static 3D reference map to the data glasses 1 or their control unit 6 by wireless communication .

In einem weiteren Schritt S3 wird der Fahrzeuginnenraum durch den Tiefensensor 5 der Datenbrille 1 erfasst. Der Erfassungsschritt und die nachfolgenden Schritte können beispielsweise automatisch nach dem Aufsetzen der Datenbrille oder nach einer Aktivierung durch den Benutzer kontinuierlich ausgeführt oder in geeigneten Zeitabständen, die zum Tracking von Kopfbewegungen des Benutzers bemessen sind, wiederholt werden.In a further step S3, the vehicle interior is detected by the depth sensor 5 of the data glasses 1. The detection step and the subsequent steps can be carried out continuously, for example, automatically after the data glasses are put on or after activation by the user, or repeated at suitable time intervals that are measured for tracking head movements of the user.

In einem weiteren Schritt S4 werden die von dem Tiefensensor 5 der Datenbrille 1 beim Schritt S3 erfassten Fahrzeuginnenraumdaten mit der statischen 3D-Referenzkarte des Fahrzeuginnenraums verglichen, um übereinstimmende Merkmale - wie z. B. geometrischer Muster, Strukturen, Objekte, aber auch Oberflächeneigenschaften wie Reflexions- und/oder Absorptionseigenschaften etc. - zu erkennen.In a further step S4, the vehicle interior data recorded by the depth sensor 5 of the data glasses 1 in step S3 are compared with the static 3D reference map of the vehicle interior in order to identify matching features—such as, for example, B. geometric patterns, structures, objects, but also surface properties such as reflection and / or absorption properties, etc. - to recognize.

In einem weiteren Schritt S5 wird eine aktuelle 3D-Pose der Datenbrille 1, die deren dreidimensionale Position und deren dreidimensionale Ausrichtung im fahrzeugfesten Koordinatensystem angibt, anhand der im Schritt S4 erkannten übereinstimmenden Merkmale ermittelt. Die Schritte S3 bis S5 können nacheinander oder auch zumindest teilweise parallel zueinander (d. h. im Voraus) ausgeführt werden. Dies ist in 2 durch eine gestrichelte Pfeillinie angedeutet.In a further step S5, a current 3D pose of the data glasses 1, which indicates their three-dimensional position and their three-dimensional orientation in the vehicle-fixed coordinate system, is determined using the matching features recognized in step S4. Steps S3 to S5 can be carried out one after the other or also at least partially in parallel with one another (ie in advance). this is in 2 indicated by a dashed arrow line.

Das Verfahren kann beispielsweise beim Abnehmen der Datenbrille 1 oder bei Verlassen des Fahrzeugs automatisch oder, alternativ, durch einen entsprechenden Befehl des Benutzers beendet werden. Das Gleiche gilt entsprechend auch für das Starten des Verfahrens ab Schritt S2 oder S3.The method can be ended automatically, for example, when the data glasses 1 are removed or when leaving the vehicle, or, alternatively, by a corresponding command from the user. The same also applies to starting the method from step S2 or S3.

Kurz zusammengefasst: es wird eine statische 3D-Referenzkarte des Innenraums (auch Umgebungskarte genannt) für das verwendete Fahrzeugmodell einmalig von den CAD-Daten des Fahrzeugs abgeleitet. In diesem Schritt werden nur statische Objekte berücksichtigt. Die statische 3D-Referenzkarte wird auf die Datenbrille übertragen. Im Fahrzeuginneren wird in der Folge nur noch diese einmal erstellte Umgebungskarte für das Tracken verwendet. Von den erkannten statischen Objekten (z. B. A-Säule, Armaturenbrett o.ä.) kann die 3D-Pose der Datenbrille 1 (auch Ego-Pose genannt) im Fahrzeuginneren präzise abgeleitet werden.In short: a static 3D reference map of the interior (also called environment map) for the vehicle model used once derived from the CAD data of the vehicle. Only static objects are considered in this step. The static 3D reference map is transferred to the data glasses. Inside the vehicle, only this environment map, once created, is subsequently used for tracking. The 3D pose of the data glasses 1 (also called the ego pose) inside the vehicle can be precisely derived from the detected static objects (e.g. A-pillar, dashboard, etc.).

Auf weiterführende Details, Weiterbildungen und Wirkungen dieses Verfahrens wird zur Vermeidung einer Wiederholung auf die ausführliche Beschreibung hierin weiter oben sowie in den Ansprüchen verwiesen.To avoid repetition, reference is made to the detailed description above and in the claims for further details, developments and effects of this method.

BezugszeichenlisteReference List

11
Datenbrilledata glasses
2a, 2b2a, 2b
jeweils für ein Auge des Benutzers vorgesehene Anzeigeelementedisplay elements provided for each eye of the user
33
Verbindungsstückconnector
4a, 4b4a, 4b
seitliche Bügelside brackets
55
Tiefensensordepth sensor
66
Steuereinheitcontrol unit

Claims (11)

Verfahren zum Ermitteln der 3D-Pose einer Datenbrille (1) im Innenraum eines Fahrzeugs, wobei die Datenbrille (1) einen Tiefensensor (5) und/oder eine Kamera aufweist und das Verfahren folgende Schritte umfasst: - (S1) Ableiten einer statischen 3D-Referenzkarte des Fahrzeuginnenraums von einem dreidimensionalen CAD-Modell des Fahrzeuginnenraums in einem fahrzeugfesten Koordinatensystem, wobei die dreidimensionale Darstellung statischer Oberflächen im Fahrzeuginnenraum gemäß dem CAD-Modell zumindest teilweise übernommen wird, während dynamische Objekte aus dem CAD-Modell entfernt oder markiert werden, so dass sie vom weiteren Verfahren ausgeschlossen bleiben; - (S2) Speichern der dadurch erhaltenen statischen 3D-Referenzkarte in der Datenbrille oder in deren Steuereinheit; - (S3) wiederholtes Erfassen des Fahrzeuginnenraums durch den Tiefensensor (5) und/oder die Kamera beim Tragen der Datenbrille (1) durch einen Benutzer; - (S4) Erkennen übereinstimmender Merkmale in den erfassten Fahrzeuginnenraumdaten und in der statischen 3D-Referenzkarte; und - (S5) Ermitteln einer aktuellen 3D-Pose der Datenbrille (1), die deren dreidimensionale Position und Ausrichtung im fahrzeugfesten Koordinatensystem angibt, anhand der erkannten übereinstimmenden Merkmale.Method for determining the 3D pose of data glasses (1) in the interior of a vehicle, the data glasses (1) having a depth sensor (5) and/or a camera and the method comprising the following steps: - (S1) Deriving a static 3D reference map of the vehicle interior from a three-dimensional CAD model of the vehicle interior in a vehicle-fixed coordinate system, the three-dimensional representation of static surfaces in the vehicle interior according to the CAD model being at least partially adopted, while dynamic objects from the CAD removed or marked so that they remain excluded from further proceedings; - (S2) storing the static 3D reference map obtained in this way in the data glasses or in their control unit; - (S3) repeated detection of the vehicle interior by the depth sensor (5) and / or the camera when wearing the data glasses (1) by a user; - (S4) detecting matching features in the captured vehicle interior data and in the static 3D reference map; and - (S5) determining a current 3D pose of the data glasses (1), which indicates their three-dimensional position and orientation in the vehicle-fixed coordinate system, based on the recognized matching features. Verfahren nach Anspruch 1, wobei - die statische 3D-Referenzkarte des Fahrzeuginnenraums neben geometrischen Angaben zu den statischen Oberflächen auch Angaben über deren Reflexions- und/oder Absorptionseigenschaften und/oder über deren Oberflächenbeschaffenheit umfasst; - der Fahrzeuginnenraum durch den Tiefensensor (5) erfasst wird; - aus den erfassten Fahrzeuginnenraumdaten Reflexions- und/oder Absorptionseigenschaften und/oder Oberflächenbeschaffenheit der erfassten Oberflächen ermittelt und mit den betreffenden Angaben der statischen 3D-Referenzkarte verglichen und gegebenenfalls als übereinstimmende Merkmale erkannt werden.procedure after claim 1 , wherein the static 3D reference map of the vehicle interior also includes information about their reflection and/or absorption properties and/or about their surface properties in addition to geometric information about the static surfaces; - The vehicle interior is detected by the depth sensor (5); - Determined from the detected vehicle interior data reflection and / or absorption properties and / or surface characteristics of the detected surfaces and compared with the relevant information on the static 3D reference map and possibly recognized as matching features. Verfahren nach Anspruch 2, wobei - die erkannten übereinstimmenden Merkmale in Bezug auf Reflexions- und/oder Absorptionseigenschaften und/oder Oberflächenbeschaffenheit zum groben Ermitteln einer 3D-Anfangspose der Datenbrille (1) genutzt werden; und - anschließend ein dreidimensionaler Teilbereich des Fahrzeuginnenraums anhand der grob ermittelten 3D-Anfangspose der Datenbrille (1) eingegrenzt wird, in welchem eine genauere Ermittlung der aktuellen 3D-Pose durch das Erkennen übereinstimmender geometrischer Merkmale durchgeführt wird.procedure after claim 2 , wherein - the identified matching features with regard to reflection and/or absorption properties and/or surface quality are used to roughly determine a 3D initial pose of the data glasses (1); and - subsequently a three-dimensional partial area of the vehicle interior is delimited using the roughly determined 3D initial pose of the data glasses (1), in which a more precise determination of the current 3D pose is carried out by recognizing matching geometric features. Verfahren nach einem der vorhergehenden Ansprüche, wobei - beim Ableiten der statischen 3D-Referenzkarte des Fahrzeuginnenraums aus dem CAD-Modell glatte und glänzende Oberflächen, insbesondere Displayflächen und Fensterscheiben, aus dem CAD-Modell entfernt oder markiert werden, so dass sie vom weiteren Verfahren ausgeschlossen bleiben.Method according to any one of the preceding claims, wherein - When deriving the static 3D reference map of the vehicle interior from the CAD model, smooth and shiny surfaces, in particular display surfaces and window panes, are removed from the CAD model or marked so that they remain excluded from the further process. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Ableiten der statischen 3D-Referenzkarte des Fahrzeuginnenraums aus dem CAD-Modell - für statische Objekte des Fahrzeuginnenraums deren im Wesentlichen vollständige dreidimensionale Oberflächendarstellung gemäß dem CAD-Modell beibehalten wird.Method according to one of the preceding claims, wherein when deriving the static 3D reference map of the vehicle interior from the CAD model - For static objects of the vehicle interior whose substantially complete three-dimensional surface representation is retained according to the CAD model. Verfahren nach einem der vorhergehenden Ansprüche, wobei - das Fahrzeug zum Übermitteln von Daten an die Datenbrille (1) bzw. deren Steuereinheit (6) ausgebildet ist, wenn die Datenbrille (1) im Fahrzeug getragen wird; - die vom CAD-Modell des Fahrzeuginnenraums abgeleitete statische 3D-Referenzkarte des Fahrzeuginnenraums im Fahrzeug gespeichert ist; - das Vorhandensein oder das Tragen der Datenbrille (1) im Fahrzeug vom Fahrzeug erkannt wird, woraufhin das Fahrzeug die statische 3D-Referenzkarte seines Fahrzeuginnenraums an die Datenbrille (1) bzw. deren Steuereinheit (6) übermittelt.Method according to one of the preceding claims, wherein - the vehicle is designed to transmit data to the data glasses (1) or their control unit (6) when the data glasses (1) are worn in the vehicle; - the 3D static reference map of the vehicle derived from the CAD model of the vehicle interior witness interior is stored in the vehicle; - The presence or wearing of the data glasses (1) in the vehicle is recognized by the vehicle, whereupon the vehicle transmits the static 3D reference map of its vehicle interior to the data glasses (1) or their control unit (6). Verfahren nach Anspruch 6, wobei - jeweils aktuelle Fahrzeugdaten über die eingestellte Position verstellbarer statischer Elemente, insbesondere von Fahrzeugsitzen, im Fahrzeuginnenraum und/oder über eine erkannte Sitzbelegung bereitgestellt werden; und - die statische 3D-Referenzkarte des Fahrzeuginnenraums und/oder ein dreidimensionaler Erfassungsbereich des Tiefensensors (5) und/oder der Kamera in Echtzeit durch Verwendung dieser Fahrzeugdaten aktualisiert und/oder ergänzt bzw. eingegrenzt werden; - wobei vorzugsweise diejenigen dreidimensionalen Raumbereiche, die von auf Fahrzeugsitzen sitzenden Insassen besetzbar oder tatsächlich besetzt sind, aus der statischen 3D-Referenzkarte und/oder aus dem Erfassungsbereich des Tiefensensors (5) und/oder der Kamera entfernt werden.procedure after claim 6 , wherein current vehicle data about the set position of adjustable static elements, in particular of vehicle seats, in the vehicle interior and/or about a detected seat occupancy are provided; and - the static 3D reference map of the vehicle interior and/or a three-dimensional detection area of the depth sensor (5) and/or the camera are updated and/or supplemented or delimited in real time by using this vehicle data; - wherein preferably those three-dimensional spatial areas that can be or are actually occupied by occupants sitting on vehicle seats are removed from the static 3D reference map and/or from the detection range of the depth sensor (5) and/or the camera. Verfahren nach einem der vorhergehenden Ansprüche, wobei - die Datenbrille (1) eine Anzeigeeinrichtung zum Darstellen von Informationsobjekten im Blickfeld des Benutzers umfasst; und - Informationsobjekte dem Benutzer kontaktanalog unter Verwendung der jeweils ermittelten 3D-Pose der Datenbrille (1) im fahrzeugfesten Koordinatensystem dargestellt werden.Method according to any one of the preceding claims, wherein - The data glasses (1) comprises a display device for displaying information objects in the field of view of the user; and - Information objects are presented to the user in a contact-analogous manner using the respectively determined 3D pose of the data glasses (1) in the vehicle-fixed coordinate system. Verfahren nach einem der vorhergehenden Ansprüche, wobei - die Schritte des Erfassens des Fahrzeuginnenraums, des Erkennens übereinstimmender Merkmale und des Ermittelns der aktuellen 3D-Pose der Datenbrille (1) beim Tragen der Datenbrille (1) durch den Benutzer im Fahrzeug fortlaufend oder in vorbestimmten Zeitabständen, die zur Verfolgung von Kopfbewegungen des Benutzers bemessen sind, wiederholt werden.Method according to any one of the preceding claims, wherein - the steps of capturing the vehicle interior, recognizing matching features and determining the current 3D pose of the data glasses (1) when the user wears the data glasses (1) in the vehicle continuously or at predetermined time intervals, which are used to track the user's head movements are measured, to be repeated. Fahrzeug, insbesondere ein Kraftfahrzeug, welches - zum Übermitteln von Daten an die Datenbrille (1) bzw. deren Steuereinheit (6) ausgebildet ist, während die Datenbrille (1) von einem Benutzer im Fahrzeug getragen wird; und - eine fahrzeugeigene Steuereinheit aufweist, die zum Ausführen zumindest einiger der Schritte eines Verfahrens nach einem der Ansprüche 1 bis 9 eingerichtet ist.Vehicle, in particular a motor vehicle, which - is designed to transmit data to the data glasses (1) or their control unit (6) while the data glasses (1) are being worn by a user in the vehicle; and - has an on-board control unit, which is configured to carry out at least some of the steps of a method according to any one of Claims 1 until 9 is set up. Datenbrille (1), umfassend: - eine Anzeigeeinrichtung, die zum kontaktanalogen Darstellen von Informationsobjekten im Blickfeld eines Benutzers ausgebildet ist; - einen Tiefensensor (5) und/oder eine Kamera, die zur Erfassung einer Umgebung der Datenbrille (1) ausgebildet ist/sind; und - eine Steuereinheit (6), die zum Ausführen zumindest einiger der Schritte eines Verfahrens nach einem der Ansprüche 1 bis 9 eingerichtet ist.Data glasses (1), comprising: - a display device which is designed for the contact-analogous display of information objects in the field of view of a user; - A depth sensor (5) and/or a camera, which is/are designed to detect an area surrounding the data glasses (1); and - a control unit (6) adapted to carry out at least some of the steps of a method according to any one of Claims 1 until 9 is set up.
DE102021109083.0A 2021-04-12 2021-04-12 Tracking in the vehicle interior with a depth sensor in smart glasses Pending DE102021109083A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021109083.0A DE102021109083A1 (en) 2021-04-12 2021-04-12 Tracking in the vehicle interior with a depth sensor in smart glasses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021109083.0A DE102021109083A1 (en) 2021-04-12 2021-04-12 Tracking in the vehicle interior with a depth sensor in smart glasses

Publications (1)

Publication Number Publication Date
DE102021109083A1 true DE102021109083A1 (en) 2022-10-13

Family

ID=83361864

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021109083.0A Pending DE102021109083A1 (en) 2021-04-12 2021-04-12 Tracking in the vehicle interior with a depth sensor in smart glasses

Country Status (1)

Country Link
DE (1) DE102021109083A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240160204A1 (en) * 2022-11-10 2024-05-16 Htc Corporation Vehicle control system, head-mounted display device, and vehicle control method
DE102023120699A1 (en) * 2023-08-03 2025-02-06 Bayerische Motoren Werke Aktiengesellschaft Method and device for adjusting an interior camera for outside-in tracking of data glasses

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150199847A1 (en) 2014-01-14 2015-07-16 Caterpillar Inc. Head Mountable Display System
DE102014213021A1 (en) 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Localization of an HMD in the vehicle
DE102016224122A1 (en) 2016-12-05 2018-06-07 Audi Ag Method for operating a VR glasses in an interior of a motor vehicle and control device and motor vehicle
DE102017219790A1 (en) 2017-11-07 2019-05-09 Volkswagen Aktiengesellschaft System and method for determining a pose of augmented reality goggles, system and method for gauging augmented reality goggles, method for assisting pose determination of augmented reality goggles, and motor vehicle suitable for the method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150199847A1 (en) 2014-01-14 2015-07-16 Caterpillar Inc. Head Mountable Display System
DE102014213021A1 (en) 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Localization of an HMD in the vehicle
DE102016224122A1 (en) 2016-12-05 2018-06-07 Audi Ag Method for operating a VR glasses in an interior of a motor vehicle and control device and motor vehicle
DE102017219790A1 (en) 2017-11-07 2019-05-09 Volkswagen Aktiengesellschaft System and method for determining a pose of augmented reality goggles, system and method for gauging augmented reality goggles, method for assisting pose determination of augmented reality goggles, and motor vehicle suitable for the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240160204A1 (en) * 2022-11-10 2024-05-16 Htc Corporation Vehicle control system, head-mounted display device, and vehicle control method
US12422845B2 (en) * 2022-11-10 2025-09-23 Htc Corporation Vehicle control system, head-mounted display device, and vehicle control method
DE102023120699A1 (en) * 2023-08-03 2025-02-06 Bayerische Motoren Werke Aktiengesellschaft Method and device for adjusting an interior camera for outside-in tracking of data glasses

Similar Documents

Publication Publication Date Title
EP2805183B1 (en) Method and device for visualizing the surroundings of a vehicle
DE102017007942B4 (en) Device and method for detecting the physical condition of a driver
EP3328686A1 (en) Method and device for displaying an image of the surroundings of a vehicle combination
WO2019170202A1 (en) Surround view system having an adapted projection surface
EP3630522B1 (en) External depiction of photographs of a vehicle interior in vr goggles
EP3695266B1 (en) Method for operating a display device in a motor vehicle
DE10131196A1 (en) Device for the detection of objects, people or the like
DE102010015079A1 (en) A method of displaying an image on a display device in a vehicle. Driver assistance system and vehicle
DE102021109083A1 (en) Tracking in the vehicle interior with a depth sensor in smart glasses
DE102005030968B4 (en) Automatic mirror alignment method for a vehicle
DE102014207398B4 (en) Object association for contact-analog display on a HMD
DE102020127278B4 (en) Around View Synthesis System and Method
WO2007147674A2 (en) Method for producing three-dimensionally structured surfaces
DE102018216409A1 (en) Method, device and means of transportation for a kinetose-avoiding representation of a liquid in a display in a means of transportation
DE102018210812A1 (en) Method for a sensor- and memory-based representation of an environment, display device and vehicle with the display device
EP2035810B1 (en) Method for analysing reflective properties
WO2015062750A1 (en) Infortainment system for a vehicle
DE112019006103B4 (en) Information display control device, method, program and recording medium
WO2019029966A1 (en) METHOD AND DEVICE FOR DRIVER STATE EVALUATION AND VEHICLE
AT524965B1 (en) Computer-implemented method for creating an attention zone
DE112018000789T5 (en) DEVICE AND METHOD FOR CONTROLLING A VEHICLE INDICATOR
DE102017112806A1 (en) TEXTURE EVALUATION SYSTEM
WO2021204431A1 (en) Method for adjusting a vehicle mirror and/or a screen, and system for carrying out the method
DE102024000765B3 (en) Calibration method for accommodation-supported depth reconstruction and motor vehicle
DE102018218875A1 (en) vehicle control

Legal Events

Date Code Title Description
R163 Identified publications notified