DE102020116296A1 - METHOD AND DEVICE FOR DETERMINING THE SPATIAL POSITIONS OF A HAND AND THE FINGERS OF THE HAND IN A AREA OF SPACE - Google Patents
METHOD AND DEVICE FOR DETERMINING THE SPATIAL POSITIONS OF A HAND AND THE FINGERS OF THE HAND IN A AREA OF SPACE Download PDFInfo
- Publication number
- DE102020116296A1 DE102020116296A1 DE102020116296.0A DE102020116296A DE102020116296A1 DE 102020116296 A1 DE102020116296 A1 DE 102020116296A1 DE 102020116296 A DE102020116296 A DE 102020116296A DE 102020116296 A1 DE102020116296 A1 DE 102020116296A1
- Authority
- DE
- Germany
- Prior art keywords
- hand
- dimensional image
- image
- pixels
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Ein Verfahren zur Ermittlung räumlicher Positionen einer Hand und der Finger der Hand in einem Raumbereich umfasst die Schritte:a) Erfassen von Pixeldaten von einer Vielzahl von Pixeln eines zweidimensionalen Bildes des Raumbereichs, welches ein Bild einer Hand umfasst, und von den einzelnen Pixeln des zweidimensionalen Bildes zugeordneten jeweiligen Tiefeninformationen des Raumbereichs,b) Erkennen der Hand anhand der Pixeldaten der Vielzahl von Pixeln des zweidimensionalen Bildes und Definieren eines Bildausschnitts des zweidimensionalen Bildes, der ein Bild der Hand enthält, als einen Bereich von Interesse in dem zweidimensionalen Bild, anhand der erkannten Hand,c) Bestimmen einer Entfernung des Bereichs von Interesse anhand mindestens einer einem Pixel des Bereichs von Interesse zugeordneten Tiefeninformation,d) Entfernen von Pixeln des zweidimensionalen Bildes, deren zugeordnete Tiefeninformationen eine vorbestimmte Bedingung in Bezug auf die bestimmte Entfernung des Bereichs von Interesse erfüllen, und dadurch Erhalten eines reduzierten zweidimensionalen Bildes, unde) Ermitteln der räumlichen Positionen der Hand und der Finger der Hand basierend auf den Pixeldaten der Pixel des reduzierten zweidimensionalen Bildes und den den Pixeln des reduzierten zweidimensionalen Bildes zugeordneten Tiefeninformationen.A method for determining spatial positions of a hand and the fingers of the hand in a spatial area comprises the steps: a) acquiring pixel data from a plurality of pixels of a two-dimensional image of the spatial area, which includes an image of a hand, and from the individual pixels of the two-dimensional Image assigned respective depth information of the spatial region,b) recognizing the hand based on the pixel data of the plurality of pixels of the two-dimensional image and defining an image detail of the two-dimensional image, which contains an image of the hand, as an area of interest in the two-dimensional image, based on the recognized hand,c) determining a distance of the area of interest based on at least one pixel of the area of interest associated depth information,d) removing pixels of the two-dimensional image, whose associated depth information a predetermined condition in relation to the determined distance of the area of I satisfy interest and thereby obtain a reduced two-dimensional image, ande) determining the spatial positions of the hand and the fingers of the hand based on the pixel data of the pixels of the reduced two-dimensional image and the depth information associated with the pixels of the reduced two-dimensional image.
Description
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Ermittlung räumlicher Positionen einer Hand und der Finger der Hand in einem Raumbereich.The present invention relates to a method and a device for determining spatial positions of a hand and the fingers of the hand in a spatial region.
Auf dem Markt erhältliche technische Geräte werden in zunehmendem Maße mit einer Gestenerkennungsfunktion ausgestattet, durch welche eine berührungsfreie Eingabe eines Benutzers in Form einer Geste erkannt werden kann. Bei Erkennung einer jeweiligen Geste führt das Gerät dann einen jeweiligen Schaltvorgang bzw. eine jeweilige Funktion durch, der bzw. die der jeweiligen erkannten Geste zugeordnet ist. Dabei muss sich im Falle einer mit einer Hand eines Benutzers durchgeführten Geste die Hand in einem von dem Gerät überwachten vorbestimmten Raumbereich befinden, damit die Geste beispielsweise unter Verwendung maschinellen Sehens erkannt werden kann.Technical devices available on the market are increasingly being equipped with a gesture recognition function, by means of which a contact-free input by a user can be recognized in the form of a gesture. When a respective gesture is recognized, the device then carries out a respective switching process or a respective function that is assigned to the respective recognized gesture. In the case of a gesture carried out with a user's hand, the hand must be located in a predetermined spatial area monitored by the device so that the gesture can be recognized using machine vision, for example.
Bei einem üblichen Ansatz zur Erfassung einer Hand mittels maschinellen Sehens wird eine Region of Interest (ROI) bzw. ein Bereich von Interesse in einem aufgenommenen Bild manuell beschränkt, auf die bzw. den sich die Analyse der Pixeldaten der Vielzahl von Pixeln des Bildes hinsichtlich der Erfassung der Hand konzentrieren soll, und der Benutzer wird dazu angehalten, die Hand in diesem Bereich von Interesse zu belassen.In a common approach to capturing a hand by means of machine vision, a region of interest (ROI) or an area of interest in a recorded image is manually restricted to which the analysis of the pixel data of the plurality of pixels in the image is based Capture the hand should focus and the user is encouraged to keep the hand in the area of interest.
Ein anderer bekannter Ansatz zur Erfassung der Hand mittels maschinellen Sehens beruht auf der Verwendung von Tiefenkameras, um das menschliche Skelett bzw. den menschlichen Körper ganz oder teilweise zu erfassen, und dann die Hand als Teil des Skeletts bzw. menschlichen Körpers zu erkennen. Die vorgelagerte Erfassung des menschlichen Skeletts bzw. des menschlichen Körpers ist erforderlich, da der entsprechende Algorithmus zur Erfassung der Hand einen Ausgangspunkt für die Suche nach der Hand benötigt.Another known approach to capturing the hand by means of machine vision is based on the use of depth cameras in order to capture all or part of the human skeleton or the human body and then to recognize the hand as part of the skeleton or the human body. The upstream detection of the human skeleton or the human body is necessary because the corresponding algorithm for detecting the hand requires a starting point for the search for the hand.
Bei dem Segmentierungsvorgang, bei dem der das Bild der Hand enthaltende Bildbereich aus dem gesamten Bild extrahiert wird bzw. von dem Hintergrund getrennt wird, wird üblicherweise basierend auf der Hautfarbe eine Maske erzeugt, die einen Wertebereich in dem HSV-Farbraum filtert, so dass durch den Farbunterschied zwischen der Hand und dem Hintergrund die Hand erkannt und extrahiert werden kann. Dieser Vorgang erfordert jedoch eine hohe Rechenleistung und ist störanfällig falls das Bild unerwünschtes Hintergrundrauschen enthält.In the segmentation process, in which the image area containing the image of the hand is extracted from the entire image or is separated from the background, a mask is usually generated based on the skin color, which filters a range of values in the HSV color space, so that by the color difference between the hand and the background the hand can be recognized and extracted. However, this process requires a high level of computing power and is prone to interference if the image contains unwanted background noise.
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung bereitzustellen, mit denen die Rechenleistung zur Ermittlung räumlicher Positionen einer Hand und der Finger in einem Raumbereich reduziert werden kann und die weniger störanfällig sind, falls ein Bild des Raumbereichs Hintergrundrauschen enthält.It is therefore an object of the present invention to provide a method and a device with which the computing power for determining spatial positions of a hand and fingers in a spatial area can be reduced and which are less susceptible to interference if an image of the spatial area contains background noise.
Diese Aufgabe wird durch ein Verfahren gemäß dem Patentanspruch 1 und eine Vorrichtung gemäß Patentanspruch 9 gelöst. Weitere bevorzugte Ausführungsformen, Weiterbildungen oder Varianten sind insbesondere Gegenstand von abhängigen Patentansprüchen. Der Gegenstand der Patentansprüche wird ausdrücklich zum Teil der Offenbarung der Beschreibung gemacht.This object is achieved by a method according to patent claim 1 and a device according to patent claim 9. Further preferred embodiments, developments or variants are in particular the subject of the dependent claims. The subject matter of the claims is expressly made part of the disclosure of the description.
Ein Verfahren zur Ermittlung räumlicher Positionen einer Hand und der Finger der Hand in einem Raumbereich gemäß einer Ausführungsform umfasst die Schritte:
- a) Erfassen von Pixeldaten von einer Vielzahl von Pixeln eines zweidimensionalen Bildes des Raumbereichs, welches ein Bild einer Hand umfasst, und von den einzelnen Pixeln des zweidimensionalen Bildes zugeordneten jeweiligen Tiefeninformationen des Raumbereichs,
- b) Erkennen der Hand anhand der Pixeldaten der Vielzahl von Pixeln des zweidimensionalen Bildes und Definieren eines Bildausschnitts des zweidimensionalen Bildes, der ein Bild der Hand enthält, als einen Bereich von Interesse in dem zweidimensionalen Bild, anhand der erkannten Hand,
- c) Bestimmen einer Entfernung des Bereichs von Interesse anhand mindestens einer einem Pixel des Bereichs von Interesse zugeordneten Tiefeninformation,
- d) Entfernen von Pixeln des zweidimensionalen Bildes, deren zugeordnete Tiefeninformationen eine vorbestimmte Bedingung in Bezug auf die bestimmte Entfernung des Bereichs von Interesse erfüllen, und dadurch Erhalten eines reduzierten zweidimensionalen Bildes, und
- e) Ermitteln der räumlichen Positionen der Hand und der Finger der Hand basierend auf den Pixeldaten der Pixel des reduzierten zweidimensionalen Bildes und den den Pixeln des reduzierten zweidimensionalen Bildes zugeordneten Tiefeninformationen.
- a) Acquisition of pixel data from a plurality of pixels of a two-dimensional image of the spatial area, which comprises an image of a hand, and from the respective depth information of the spatial area assigned to the individual pixels of the two-dimensional image,
- b) recognizing the hand based on the pixel data of the plurality of pixels of the two-dimensional image and defining an image section of the two-dimensional image, which contains an image of the hand, as an area of interest in the two-dimensional image, based on the recognized hand,
- c) determining a distance of the area of interest on the basis of at least one depth information assigned to a pixel of the area of interest,
- d) removing pixels of the two-dimensional image, the associated depth information of which satisfies a predetermined condition with respect to the determined distance of the area of interest, and thereby obtaining a reduced two-dimensional image, and
- e) determining the spatial positions of the hand and the fingers of the hand based on the pixel data of the pixels of the reduced two-dimensional image and the depth information assigned to the pixels of the reduced two-dimensional image.
Erfindungsgemäß wird die Hand anhand der Pixeldaten einer Vielzahl von Pixeln eines zweidimensionalen Bildes des Raumbereichs, insbesondere in dem gesamten Sichtfeld der das Bild aufnehmenden Kamera, erkannt und basierend auf der erkannten Hand automatisch ein Bildausschnitt des zweidimensionalen Bildes, der ein Bild der Hand enthält, als ein Bereich von Interesse in dem zweidimensionalen Bild definiert. Somit kann der in weiteren Schritten zu verarbeitende Bildausschnitt, nämlich der Bereich von Interesse, im Falle einer sequenziellen Aufnahme von Einzelbildern dynamisch an die jeweilige Position der Hand angepasst werden und muss nicht manuell beschränkt werden.According to the invention, the hand is recognized on the basis of the pixel data of a large number of pixels of a two-dimensional image of the spatial area, in particular in the entire field of view of the camera taking the image, and, based on the recognized hand, an image section of the two-dimensional image containing an image of the hand is automatically recognized as defines an area of interest in the two-dimensional image. Thus, the image section to be processed in further steps, namely the area of interest, in the case of a sequential recording of individual images can be dynamically adapted to the respective position of the hand and does not have to be restricted manually.
Des Weiteren ist es bei dem erfindungsgemäßen Verfahren nicht wie bei den bekannten Verfahren erforderlich, andere Teile des menschlichen Körpers bzw. des menschlichen Skeletts zu erkennen oder die Pixeldaten, insbesondere die Farbwerte, der Vielzahl von Pixeln mit einer basierend auf der Hautfarbe erzeugten Maske zu vergleichen. Auf diese Weise kann die erforderliche Rechenleistung der entsprechenden Datenverarbeitungsvorrichtung zur Ermittlung der räumlichen Positionen der Hand und der Finger der Hand bereits erheblich reduziert werden. Darüber hinaus können hierdurch Fehler bei der Erkennung der Hand, die beispielsweise bei dem Vergleich der Farbwerte der Vielzahl von Pixeln mit der basierend auf der Hautfarbe erzeugten Maske aufgrund von Hintergrundrauschen auftreten können, vermieden werden.Furthermore, in the method according to the invention it is not necessary, as in the known methods, to recognize other parts of the human body or the human skeleton or to compare the pixel data, in particular the color values, of the plurality of pixels with a mask generated based on the skin color . In this way, the required computing power of the corresponding data processing device for determining the spatial positions of the hand and the fingers of the hand can already be reduced considerably. In addition, errors in the detection of the hand, which can occur due to background noise, for example when comparing the color values of the plurality of pixels with the mask generated based on the skin color, can thereby be avoided.
Erfindungsgemäß wird ferner die Entfernung des Bereichs von Interesse bestimmt, und dann basierend auf einer vorbestimmten Bedingung in Bezug auf die bestimmte Entfernung des Bereichs von Interesse, beispielsweise der Bedingung, dass der Betrag der Differenz zwischen dem Wert der Tiefeninformation eines jeweiligen Pixels und der bestimmten Entfernung des Bereichs von Interesse kleiner als ein vorbestimmter Wert, beispielsweise 5 cm, ist, Pixel des zweidimensionalen Bildes entfernt, wodurch ein reduziertes zweidimensionales Bild erhalten wird. Durch diese Reduzierung der zu verarbeitenden Pixelanzahl kann die erforderliche Rechenleistung der entsprechenden Datenverarbeitungsvorrichtung zur Ermittlung der räumlichen Positionen der Hand und der Finger der Hand weiter reduziert werden.According to the invention the distance of the area of interest is further determined, and then based on a predetermined condition with respect to the determined distance of the area of interest, for example the condition that the amount of the difference between the value of the depth information of a respective pixel and the determined distance of the area of interest is smaller than a predetermined value, for example 5 cm, pixels of the two-dimensional image are removed, whereby a reduced two-dimensional image is obtained. As a result of this reduction in the number of pixels to be processed, the required computing power of the corresponding data processing device for determining the spatial positions of the hand and the fingers of the hand can be further reduced.
Gemäß einer bevorzugten Ausführungsform erfolgt in Schritt b) das Erkennen der Hand basierend auf mittels maschinellen Lernens gewonnenen Modellen einer Hand.According to a preferred embodiment, the hand is recognized in step b) based on models of a hand obtained by means of machine learning.
Dabei kann in Schritt b) das Erkennen der Hand unter Verwendung eines neuronalen Netzwerks erfolgen.The hand can be recognized in step b) using a neural network.
Die Pixeldaten der Vielzahl von Pixeln des zweidimensionalen Bildes des Raumbereichs können Farbinformationen enthalten, und die Farbinformationen der Pixeldaten der Vielzahl von Pixeldaten des zweidimensionalen Bildes und die den Pixeln des zweidimensionalen Bildes zugeordneten Tiefeninformationen des Raumbereichs können unter Verwendung einer Tiefenkamera, einer Stereokamera oder einer Kombination aus einer Farbkamera und einer Time-of-Flight-Kamera erfasst werden.The pixel data of the plurality of pixels of the two-dimensional image of the spatial area can contain color information, and the color information of the pixel data of the plurality of pixel data of the two-dimensional image and the depth information of the spatial area assigned to the pixels of the two-dimensional image can be obtained using a depth camera, a stereo camera or a combination of a color camera and a time-of-flight camera.
Das Verfahren kann ferner einen Schritt d1) umfassen, der nach Schritt d) und vor Schritt e) ausgeführt wird, bei dem das reduzierte zweidimensionale Bild einer morphologischen Transformation unterzogen wird, um Pixeldaten von fehlerhaften Pixeln durch an Pixeldaten benachbarter Pixel angepasste Pixeldaten zu ersetzen und ein transformiertes zweidimensionales Bild zu erhalten.The method can further comprise a step d1), which is carried out after step d) and before step e), in which the reduced two-dimensional image is subjected to a morphological transformation in order to replace pixel data of defective pixels with pixel data adapted to pixel data of neighboring pixels and obtain a transformed two-dimensional image.
Weiterhin kann das Verfahren ferner einen Schritt d2) umfassen, der nach Schritt d1) und vor Schritt e) ausgeführt wird, und bei dem das transformierte zweidimensionale Bild in ein binäres zweidimensionales Bild oder in ein zweidimensionales Graustufenbild umgewandelt wird.The method can furthermore comprise a step d2), which is carried out after step d1) and before step e), and in which the transformed two-dimensional image is converted into a binary two-dimensional image or into a two-dimensional grayscale image.
Bevorzugt umfasst das Verfahren ferner einen Schritt d3), der nach Schritt d2) und vor Schritt e) ausgeführt wird, und bei dem anhand des binären zweidimensionalen Bildes oder des zweidimensionalen Graustufenbildes eine Kontur der Hand in dem binären zweidimensionalen Bild oder dem zweidimensionalen Graustufenbild, und ein Mittelpunkt der Hand anhand eines Bildmoments des durch die Kontur der Hand definierten Bildausschnitts des binären zweidimensionalen Bildes oder des zweidimensionalen Graustufenbildes ermittelt wird.The method preferably further comprises a step d3), which is carried out after step d2) and before step e), and in which a contour of the hand in the binary two-dimensional image or the two-dimensional grayscale image is based on the binary two-dimensional image or the two-dimensional grayscale image, and a center point of the hand is determined on the basis of an image moment of the image section of the binary two-dimensional image or the two-dimensional grayscale image defined by the contour of the hand.
Das Verfahren kann ferner einen Schritt d4) umfassen, der nach Schritt d3) und vor Schritt e) ausgeführt wird, und bei dem basierend auf Krümmungen der Kontur der Hand die Bereiche des binären zweidimensionalen Bildes oder des zweidimensionalen Graustufenbildes ermittelt werden, die einzelnen Fingern der Hand entsprechen, und basierend auf dem Mittelpunkt der Hand und dem Bildmoment eine Ausrichtung der Hand ermittelt wird.The method can further include a step d4), which is carried out after step d3) and before step e), and in which, based on the curvatures of the contour of the hand, the areas of the binary two-dimensional image or the two-dimensional gray-scale image are determined, the individual fingers of the Hand, and an orientation of the hand is determined based on the center of the hand and the image moment.
Eine Vorrichtung zur Ermittlung räumlicher Positionen einer Hand und der Finger der Hand in einem Raumbereich gemäß einer Ausführungsform umfasst eine Aufnahmevorrichtung, die dazu eingerichtet ist Pixeldaten von einer Vielzahl von Pixeln eines zweidimensionalen Bildes des Raumbereichs, welches ein Bild einer Hand umfasst, und von den einzelnen Pixeln des zweidimensionalen Bildes zugeordneten jeweiligen Tiefeninformationen des Raumbereichs zu erfassen, und eine Datenverarbeitungsvorrichtung, die zur Durchführung folgender Schritte eingerichtet ist,
- a) die Hand anhand der Pixeldaten der Vielzahl von Pixeln des zweidimensionalen Bildes zu erkennen und einen Bildausschnitt des zweidimensionalen Bildes, der ein Bild der Hand enthält, als einen Bereich von Interesse in dem zweidimensionalen Bild zu definieren, anhand der erkannten Hand,
- b) eine Entfernung des Bereichs von Interesse anhand mindestens einer einem Pixel des Bereichs von Interesse zugeordneten Tiefeninformation zu bestimmen,
- c) Pixel des zweidimensionalen Bildes zu entfernen, deren zugeordnete Tiefeninformationen eine vorbestimmte Bedingung in Bezug auf die bestimmte Entfernung des Bereichs von Interesse erfüllen, und dadurch ein reduziertes zweidimensionalen Bild zu erhalten, und
- e) die räumlichen Positionen der Hand und der Finger der Hand basierend auf den Pixeldaten der Pixel des reduzierten zweidimensionalen Bildes und den den Pixeln des reduzierten zweidimensionalen Bildes zugeordneten Tiefeninformationen zu ermitteln.
- a) to recognize the hand based on the pixel data of the plurality of pixels of the two-dimensional image and to define an image section of the two-dimensional image, which contains an image of the hand, as an area of interest in the two-dimensional image, based on the recognized hand,
- b) a removal of the area of interest using at least one pixel of the Determine depth information associated with an area of interest;
- c) removing pixels of the two-dimensional image, the associated depth information of which fulfills a predetermined condition with regard to the determined distance of the area of interest, and thereby obtaining a reduced two-dimensional image, and
- e) to determine the spatial positions of the hand and the fingers of the hand based on the pixel data of the pixels of the reduced two-dimensional image and the depth information assigned to the pixels of the reduced two-dimensional image.
Bevorzugt umfasst die Vorrichtung ferner eine Speichereinrichtung, in der eine Vielzahl mittels maschinellen Lernens gewonnener Modelle einer Hand gespeichert sind, wobei die Datenverarbeitungsvorrichtung dazu eingerichtet ist, in Schritt a) die Hand unter Verwendung eines neuronalen Netzwerks und der in der Speichereinrichtung gespeicherten Vielzahl von Modellen einer Hand zu erkennen.The device preferably further comprises a storage device in which a plurality of models of a hand obtained by means of machine learning are stored, the data processing device being set up to process the hand in step a) using a neural network and the plurality of models stored in the storage device Hand to recognize.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung wenigstens einer bevorzugten Ausführungsform und/oder aus den Figuren. Gleiche Bauteile der Ausführungsformen werden im Wesentlichen durch die gleichen Bezugszeichen gekennzeichnet, falls dies nicht anders beschrieben wird oder sich nicht anderes aus dem Kontext ergibt.Further advantages, features and possible applications of the present invention emerge from the following detailed description of at least one preferred embodiment and / or from the figures. The same components of the embodiments are essentially identified by the same reference symbols, unless otherwise described or if nothing else results from the context.
Dabei zeigen, teilweise schematisiert:
-
1 eine Vorrichtung zur Ermittlung räumlicher Positionen einer Hand und der Finger der Hand in einem Raumbereich gemäß einer Ausführungsform, -
2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Ermittlung räumlicher Positionen einer Hand und der Finger der Hand in einem Raumbereich gemäß einer Ausführungsform, und -
3A und3B Darstellungen zur Erläuterung des in2 veranschaulichten Verfahrens.
-
1 a device for determining spatial positions of a hand and the fingers of the hand in a spatial area according to an embodiment, -
2 a flowchart to illustrate a method for determining spatial positions of a hand and the fingers of the hand in a spatial region according to an embodiment, and -
3A and3B Illustrations to explain the in2 illustrated procedure.
Die Aufnahmeeinrichtung
Eine derartig ausgebildete Aufnahmeeinrichtung
Die Pixeldaten des zweidimensionalen Bildes des Raumbereichs, welches das Bild der Hand
Die einzelnen Schritte zur Ermittlung der räumlichen Positionen der Hand
Mit Bezug auf
In Schritt
Dann wird von der Datenverarbeitungsvorrichtung
Basierend auf der bestimmten Entfernung des Bereichs von Interesse
In Schritt
Das transformierte zweidimensionale Bild wird in Schritt
Anhand des binären zweidimensionalen Bildes oder des zweidimensionalen Graustufenbildes wird in Schritt
Anschließend werden in Schritt
In Schritt
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020116296.0A DE102020116296A1 (en) | 2020-06-19 | 2020-06-19 | METHOD AND DEVICE FOR DETERMINING THE SPATIAL POSITIONS OF A HAND AND THE FINGERS OF THE HAND IN A AREA OF SPACE |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020116296.0A DE102020116296A1 (en) | 2020-06-19 | 2020-06-19 | METHOD AND DEVICE FOR DETERMINING THE SPATIAL POSITIONS OF A HAND AND THE FINGERS OF THE HAND IN A AREA OF SPACE |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102020116296A1 true DE102020116296A1 (en) | 2021-12-23 |
Family
ID=78823124
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102020116296.0A Pending DE102020116296A1 (en) | 2020-06-19 | 2020-06-19 | METHOD AND DEVICE FOR DETERMINING THE SPATIAL POSITIONS OF A HAND AND THE FINGERS OF THE HAND IN A AREA OF SPACE |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102020116296A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20100215257A1 (en) | 2009-02-25 | 2010-08-26 | Honda Motor Co., Ltd. | Capturing and recognizing hand postures using inner distance shape contexts |
| CN105389539B (en) | 2015-10-15 | 2019-06-21 | 电子科技大学 | A method and system for 3D gesture pose estimation based on depth data |
-
2020
- 2020-06-19 DE DE102020116296.0A patent/DE102020116296A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20100215257A1 (en) | 2009-02-25 | 2010-08-26 | Honda Motor Co., Ltd. | Capturing and recognizing hand postures using inner distance shape contexts |
| CN105389539B (en) | 2015-10-15 | 2019-06-21 | 电子科技大学 | A method and system for 3D gesture pose estimation based on depth data |
Non-Patent Citations (1)
| Title |
|---|
| SORCE, Salvatore; GENTILE, Vito; GENTILE, Antonio. Real-time hand pose recognition based on a neural network using microsoft kinect. In: 2013 Eighth International Conference on Broadband and Wireless Computing, Communication and Applications. IEEE, 2013. S. 344-350 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE60307967T2 (en) | IMAGE PROCESSING FOR THE STUDY OF THE APPEARANCE | |
| DE69610689T2 (en) | System for classifying fingerprints | |
| DE69833999T2 (en) | METHOD FOR THE AUTOMATIC DETECTION OF HUMAN EYES IN DIGITAL IMAGES | |
| EP0780002B1 (en) | Process and apparatus for reconstructing raster-shaped line structures | |
| DE102017220307B4 (en) | Device and method for recognizing traffic signs | |
| DE102017220752B4 (en) | image processing device, image processing method and image processing program | |
| DE60113564T2 (en) | Image processing device and pattern recognition device using the image processing device | |
| DE102019100575A1 (en) | METHOD AND SYSTEM FOR PRODUCING A AREA PICTURE USING LOW DEPTH DATA | |
| DE112015001656T5 (en) | Image processing method and apparatus | |
| EP2028605A1 (en) | Detection method for symmetric patterns | |
| DE102017215283A1 (en) | Method for anonymizing an image for a camera system of a motor vehicle, image processing device, camera system and motor vehicle | |
| EP3089106A1 (en) | Method for reflection adjustment of images and related apparatus | |
| DE102020209080A1 (en) | IMAGE PROCESSING SYSTEM | |
| EP1143373A1 (en) | Method for error-free image acquisition using an electronic sensor | |
| DE102019132012B4 (en) | Method and system for detecting small unclassified obstacles on a road surface | |
| DE102017124600A1 (en) | Semantic segmentation of an object in an image | |
| DE102006045828B4 (en) | Method and device for recognizing a face and a face recognition module | |
| DE10145608B4 (en) | Model-based object classification and target recognition | |
| WO2015193152A1 (en) | Method for detecting a viewing-angle-dependent feature of a document | |
| DE102020126954A1 (en) | System and method for detecting a spatial orientation of a portable device | |
| DE102020116296A1 (en) | METHOD AND DEVICE FOR DETERMINING THE SPATIAL POSITIONS OF A HAND AND THE FINGERS OF THE HAND IN A AREA OF SPACE | |
| DE19516662A1 (en) | Identification method for three-dimensional objects | |
| DE112021006095T5 (en) | EMPLOYMENT IDENTIFICATION DEVICE, EMPLOYMENT IDENTIFICATION METHOD AND EMPLOYMENT IDENTIFICATION PROGRAM | |
| DE102008019795A1 (en) | Method for adapting an object model to a three-dimensional point cloud by correcting erroneous correspondences | |
| EP3798969A1 (en) | Depth image processing method, image processing apparatus and depth camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009460000 Ipc: G06V0030180000 |