[go: up one dir, main page]

DE69816789T2 - Verfahren und system zur gestengesteuerten optionsauswahl - Google Patents

Verfahren und system zur gestengesteuerten optionsauswahl Download PDF

Info

Publication number
DE69816789T2
DE69816789T2 DE69816789T DE69816789T DE69816789T2 DE 69816789 T2 DE69816789 T2 DE 69816789T2 DE 69816789 T DE69816789 T DE 69816789T DE 69816789 T DE69816789 T DE 69816789T DE 69816789 T2 DE69816789 T2 DE 69816789T2
Authority
DE
Germany
Prior art keywords
user
option
arm
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69816789T
Other languages
English (en)
Other versions
DE69816789D1 (de
Inventor
M. Damian LYONS
G. Thomas MURPHY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69816789D1 publication Critical patent/DE69816789D1/de
Publication of DE69816789T2 publication Critical patent/DE69816789T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8029Fighting without shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren, wobei dem Benutzer die Möglichkeit geboten wird, aus einem Satz selektierbarer Optionen eine bestimmte Option zu selektieren, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst:
    • – das Wiedergeben des Satzes selektierbarer Optionen an betreffenden Optionsstellen,
    • – indem dem Benutzer die Möglichkeit geboten wird, auf die bestimmte Option physikalisch zu zeigen, das Abbilden des Benutzers,
    • – auf Basis des Bildes das Bestimmen einer Position eines zeigenden Endes eines Arms des Benutzers in einem dreidimensionalen Raum,
    • – das aus dem Bild Ermitteln, ob der Benutzer auf eine bestimmte Option zeigt, und zwar auf Basis der Position des Körpers und der Optionsstelle der bestimmten Option, und
    • – sollte dies der Fall sein, das Folgern, dass der Benutzer die bestimmte Option selektiert hat.
  • Die vorliegende Erfindung bezieht sich weiterhin auf ein System, durch das einem Benutzer die Möglichkeit geboten wird, aus einem Satz selektierbarer Optionen eine bestimmte Option zu selektieren, wobei dieses System die nachfolgenden Elemente umfasst:
    • – Wiedergabemittel zum Wiedergeben des Satzes selektierbarer Optionen an betreffenden Optionspositionen,
    • – Bildaufnahmemittel zum Machen eines Bildes vom Benutzer,
    • – Merkmalermittlungsmittel um auf Basis des Bildes eine Merkmalposition eines zeigenden Endes eines Arms des Benutzers in einem dreidimensionalen Raum zu ermitteln,
    • – Ermittlungsmittel um aus dem Bild zu ermitteln, ob der Benutzer auf Basis der Merkmalposition des Körpermerkmals und der Optionsposition der betreffenden Option auf eine bestimmte Option zeigt, und
    • – Folgerungsmittel um zu folgern, dass der Benutzer die bestimmte Option selektiert hat, in dem Fall, dass die Ermittlungsmittel ermittelt haben, dass der Benutzer auf die bestimmte Option zeigt.
  • Das US Patent 5.528.263 beschreibt ein System mit einem Projektor zum Projizieren eines Videobildes mit einer oder mehreren selektierbaren Optionen, dort als Tasten bezeichnet, auf einen Projektionsschirm. Das System umfasst eine Kamera, die ein Bild des auf den Schirm projizierten Bildes aufzeichnet. Weiterhin ist das System vorgesehen zum Vergleichen des von der Kamera aufgezeichneten Bildes mit dem ursprünglichen dem Projektor zugeführten Bild. Ein Benutzer, der neben dem projizierten Bild steht ist mit dem System dadurch interaktiv, dass er die bestimmte selektierbare Option mit einem Gegenstand bedeckt, was eine andere Lichtreflexion verursacht als der Projektionsschirm. Der Gegenstand kann die Hand des Benutzers sein oder eine dazu bestimmte Zeigervorrichtung, wie ein Stift oder ein Lineal. Wenn das Kamerabild mit dem Originalbild verglichen wird, wird die Bedeckung der bestimmten Option erkannt und es wird eine Aktion entsprechend dieser Option von dem System durchgeführt. Dies kann die Projektion eines nächsten Videobildes in einer Reihe von Bildern sein, die eine Präsentation bilden. Bei diesem bekannten System soll die Kamera das projizierte Videobild sowie den Benutzer gleichzeitig in einem einzigen Rahmen aufzeichnen. Dies begrenzt die Bewegungen des Benutzers, der in der Nähe des Projektionsschirms bleiben soll. Weiterhin muss der Benutzer in dem projizierten Bild die bestimmte Option bedecken um die Selektion dieser Option anzugeben. Dies erfordert ebenfalls, dass der Benutzer nahe bei dieser Option ist. Weiterhin muss der Benutzer dafür sorgen, dass er nicht unabsichtlich diese Option oder eine andere Option am Schirm mit einem Teil seines Körpers bedeckt und er muss vermeiden, dass die Sicht der Kamera auf die Option oder auf Optionen am Schirm nicht abgesperrt wird. Auf diese Weise ist für Interaktion mit dem bekannten System das Gebiet, in dem der Benutzer sich bewegen kann und die Position der selektierbaren Optionen begrenzt.
  • Die Europäische Patentanmeldung EP 571702 beschreibt ein System, wobei eine Anzahl Informationselemente nebeneinander an einer Wiedergabeanordnung wiedergegeben werden. Das System hat Kameras, die Bilder aufnehmen von dem Finger des Benutzers, indem dieser auf eines der Informationselement zeigt. Aus diesen Bildern ermittelt das System, auf welches Element der Informationselemente der Benutzer zeigt und ein Cursor wird auf die entsprechende Position an der Wiedergabeanordnung herangeführt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung ein Verfahren er eingangs beschriebenen Art zu schaffen mit einer verbesserten Art und Weise der Ermittlung des Zeigens durch den Benutzer. Diese Aufgabe wird nach der vorliegenden Erfindung erfüllt durch ein Verfahren, das dadurch gekennzeichnet ist, dass das Verfahren weiterhin auf Basis des Bildes die Ermittlung einer Fußposition eines Fußes des Benutzers, eine Projektion des Arms des Benutzers auf die Bildfläche, und eine lange Achse des Körpers des Benutzers auf der Bildfläche umfasst, und dass die Ermittlung der Merkmalposition weiterhin Folgendes umfasst:
    • – das Ermitteln des Abstandes zwischen der Optionsposition der bestimmten Option und der Fußposition,
    • – das Ermitteln eines ersten Winkels zwischen der Projektion des Arms des Benutzers und der Projektion der langen Achse des Körpers des Benutzers, und
    • – das Ermitteln eines zweiten Winkels zwischen dem Arm des Benutzers und der Ebene des Bildes auf Basis einer geschätzten Armlänge des Arms des Benutzers und einer ermittelten Länge der Projektion des Arms. Weil das Verfahren nach der vorliegenden Erfindung den Abstand zwischen dem Benutzer und den wiedergegebenen Optionen ermittelt, kann besser festgestellt werden, auf welche Option der Benutzer zeigt. Weil die Ermittlung, ob der Benutzer auf die bestimmte Option zeigt, nur basiert auf einem Bild des Benutzers, also ohne dass es erforderlich ist, dass die selektierbaren Optionen in diesem Bild sind, wird im Vergleich zu dem bekannten Verfahren dem Benutzer eine größere Freiheit geboten sich zu bewegen. Die Feststellung der Merkmalposition des Körpermerkmals des Benutzers in drei Dimensionen ermöglicht es, zu ermitteln, ob der Benutzer auf die bestimmte Option zeigt oder nicht, während diese Option nicht in dem Bild ist. Das Zeigen auf eine Option in dem dreidimensionalen Raum ohne dass es erforderlich ist, dass bestimmte Eingabevorrichtungen verwendet werden, ist eine sehr natürliche und intuitive Art und Weise für einen Benutzer, eine Wahl auszudrücken. Dies ist besonders vorteilhaft für einen Benutzer, dem die Benutzung eines Computers nicht geläufig ist. Weiterhin macht das Fehlen einer bestimmten Eingabevorrichtung und anderer Bewegungsvorrichtungen das Verfahren interessant für Anwendung an öffentlichen Stellen, da es keine Gefahr gibt, dass diese Vorrichtungen entwendet oder beschädigt werden.
  • An sich ist es bekannt, eine Applikation auf Basis des Bildes einer benutzenden Person zu steuern. Die Patentanmeldung WO 96/30856 beschreibt ein System, bei dem der Benutzer die Graphik, beispielsweise ein animiertes Zeichen, an einem Schirm, auf den der Benutzer schaut, dadurch steuert, dass er einen oder mehrere Körperteile bewegt. Dies System ist mit einer Kamera ausgestattet, die ein Bild vom Benutzer macht. Die Silhouette des Benutzers in diesem Bild wird analysiert und die Position und Bewegung eines Körperteils in einem oder mehreren Gebieten in dem Bild werden als Eingabe zur Steuerung der Graphik benutzt. Die Posen, die der Benutzer einnehmen kann, sind in der Silhouette auf einfache Weise erkennbar und umfassen nicht eine Zeigen in Richtung einer präsentierten Option. Das System analysiert das Bild des Benutzers in zwei Dimensionen, nur als eine Silhouette und es wird keine Ermittlung von Positionen des Körpers des Benutzers in drei Dimensionen durchgeführt. Wichtige Unterschiede zwischen diesem Verfahren und dem Verfahren nach der vorliegenden Erfindung sind:
    • – der Stil der Interaktion ist anders: bei dem bekannten Verfahren führen Posen, die eine bestimmte Silhouette verursachen, zu einem entsprechenden Befehl und zu einer Aktion in der Applikation, wodurch es zwischen der Pose und der resultierenden Aktion keine natürliche Übereinstimmung gibt, während die vorliegende Erfindung das natürliche Zeigen auf eine zu selektierende Option schafft;
    • – bei dem bekannten Verfahren sind die Posen und die Position des Körpers begrenzt um zu gewährleisten, dass die Silhouette der betreffenden Körperteile in den entsprechenden Gebieten des Bildes sind, während die vorliegende Erfindung sehr frei ist in der Position und in den Posen, die der Benutzer einnehmen kann;
    • – bei dem bekannten Verfahren wird die Analyse der Posen des Benutzers nur in den zwei Dimensionen des Bildes durchgeführt, während in der vorliegenden Erfindung die Posen des Körpers in dem dreidimensionalen Raum ermittelt werden, in dem der Benutzer interaktiv tätig ist, wodurch auf diese Weise eine Schnittstelle geschaffen wird, die für den Benutzer sehr intuitiv ist, da dies dem menschlichen Empfinden der Welt entspricht.
  • Das Verfahren nach der vorliegenden Erfindung kann in vielen Applikation ausgenutzt werden, wobei ein Benutzer mit einem System interaktiv ist. Es wird benutzt zum Eingeben von Befehlen in das System, während keine separate Eingabevorrichtung erforderlich ist. Beispiele sind Informationsermittlungssysteme in öffentlichen Gebäuden, wie Bibliotheken, Kunstgalerien und Musen und Einkaufssysteme in öffentlichen Kaufzentren, wie Einkaufsboulevards und Spezialgeschäften. Weitere Applikationen umfassen öffentliche Dienstmöglichkeiten, wie "Fast-Food"-Lieferanten, wo der Benutzer auf ein ge wünschtes Nahrungs-Item zeigen kann, und der private Heim-Gebrauch, wie Interaktion mit einem "Heim-Theater-System".
  • Bei einer Ausführungsform des Verfahrens nach der vorliegenden Erfindung wird der Satz mit selektierbaren Objekten an einem Videoschirm vor dem Benutzer wiedergegeben. Das Wiedergeben der selektierbaren Optionen an einem Schirm schafft eine flexible Art und Weise, diese Optionen für einen Benutzer wiederzugeben. Das Wiedergeben kann dann einfach an den aktuellen Benutzer angepasst werden, der eine Selektion macht: die Höhe der wiedergegebenen Optionen kann an die Größe des vor dem Schirm stehenden Benutzers angepasst werden und die Größe der wiedergegebenen Optionen kann an den Abstand angepasst werden, in dem der Benutzer vor dem Schirm steht. Weiterhin kann ein System, das dieses Verfahren anwendet, auf einfache Weise beibehalten werden, da eine Änderung des Satzes selektierbarer Optionen am Schirm einfacher ein weniger aufwendig ist als eine Änderung eines Hardware-Aufsatzes des Satzes selektierbarer Optionen.
  • Eine Ausführungsform des Bildermittlungssystems nach der vorliegenden Erfindung umfasst einen Initialisierungsschritt, bei dem die Größe des Benutzers ermittelt wird. Bei dieser Ausführungsform wird die geschätzte Armlänge aus biometrischen Daten auf Basis der Größe des Benutzers ermittelt. Das Erhalten einer Schätzung für die erforderliche Armlänge aus biometrischen Daten hat sich als adäquat erwiesen. Solche biometrischen Daten sind das Ergebnis von Messungen vieler verschiedener Personen, gesammelt in vielen Jahren, auf die an vielen Stellen zugegriffen werden kann, beispielsweise in einer öffentlichen Bibliothek.
  • Es ist weiterhin eine Aufgabe der vorliegenden Erfindung, ein System der beschriebenen Art zu schaffen, und zwar mit einem verbesserten Mechanismus zum Ermitteln des Zeigens durch einen Benutzer. Diese Aufgabe wird nach der vorliegenden Erfindung erfüllt in einem System, wobei auf den Bild eine Merkmalposition eines Körpermerkmals des Benutzers in einem dreidimensionalen Raum ermittelt wird und wobei die Bestätigungseinheit vorgesehen ist um zu bestätigen, ob der Benutzer auf die bestimmte Option zeigt, und zwar auf Basis der Merkmalposition des Körpermerkmals und der Option, mit dem Kennzeichen, dass das System weiterhin weitere Ermittlungsmittel (622) aufweist um auf Basis des Bildes, eine Fußposition eines Fußes des Benutzers, eine Projektion des Arms des Benutzers auf der Bildfläche und eine lange Achse des Körpers des Benutzers auf der Bildfläche zu ermitteln, und dass die Merkmalermittlungsmittel (620) für folgende Zwecke vorgesehen sind:
    • – zum Ermitteln des Abstandes zwischen der Optionsposition der betreffenden Option und der Fußposition,
    • – zum Ermitteln eines ersten Winkels zwischen der Projektion des Arms des Benutzers und der Projektion der langen Achse des Körpers des Benutzers, und
    • – zum Ermitteln eines zweiten Winkels zwischen dem Arm des Benutzers und der Bildfläche auf Basis einer geschätzten Armlänge des Arms des Benutzers und einer ermittelten Länge der Projektion des Arms.
  • Weil das System ermittelt, ob der Benutzer auf das bestimmte Item zeigt, und zwar auf Basis des Bildes des Benutzers, insbesondere durch Ermittlung der Merkmalposition des zeigenden Körpermerkmals in drei Dimensionen, gibt es für die Position und die Pose des Benutzers beim Anzeigen eine große Flexibilität. Weiterhin ist Interaktion mit dem System auf eine kontaktfreie Weise, d. h. es weder Tasten, die betätigt werden müssen, noch Zeigevorrichtungen, die in Wirkung gesetzt werden müssen. Dies macht das System robust und geeignet für Gebrauch an öffentlichen Stellen, da kaum Gefahr besteht, dass das System entwendet oder beschädigt wird.
  • Eine Ausführungsform des Systems nach der vorliegenden Erfindung hat einen Videoschirm, der dem Benutzer zugewandt ist zum Wiedergeben des Satzes selektierbarer Objekte. Der Videoschirm zum Wiedergeben des Satzes selektierbarer Optionen macht, dass das System auf einfache Weise unterhalten werden kann. Änderungen des Inhaltes oder des Aussehens des Satzes erfolgt durch Änderung der Software, die das Bild am Schirm erzeugt und erfordert keine Änderung der Hardwareteile des Systems.
  • Weitere vorteilhafte Ausführungsformen der vorliegenden Erfindung werden nachstehend erläutert.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben. Es zeigen:
  • 1 eine schematische Darstellung eines Systems nach der vorliegenden Erfindung,
  • 2 ein Flussdiagramm mit den Hauptschritten des Verfahrens nach der vorliegenden Erfindung,
  • 3 ein Zwischenergebnis der Analyse des von der Kamera erstellten Bildes,
  • 4 die Schritte zum Berechnen der Position der zeigenden Hand,
  • 5 die Ermittlung der angezeigten Option auf Basis der Handposition, und
  • 6 die wichtigsten Elemente des Systems nach der vorliegenden Erfindung.
  • Entsprechende Elemente in den jeweiligen Figuren sind durch die gleichen Bezugszeichen angegeben.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 zeigt schematisch ein System nach der vorliegenden Erfindung. Das System 100 hat einen Videoschirm 102 von 2 zu 3 m und ein Interaktionsgebiet 104. Das System hat eine Kamera 106, die ein Bild von einer benutzenden Person 108 erstellt, die in dem Interaktionsgebiet vor dem Videoschirm steht. Das System gibt einen Satz selektierbarer Optionen 110 an dem Videoschirm wieder und der Benutzer selektiert eine Option dadurch, dass er darauf zeigt. Das System ist derart ausgebildet, dass es einen zusätzlichen Gegenstand 112 wiedergibt mit einer Erläuterung der selektierbaren Optionen oder mit anderer unterstützender Information, fasst das anwendbar ist. Das Kamerabild 114 des Benutzers wird in einem Bilderkennungsteil 116 des Systems analysiert. Dieser Bilderkennungsteil ermittelt die Pose des Benutzers und berechnet die Position der zweigen Hand des Benutzers in dem dreidimensionalen Raum. In einem Applikationsteil 118 des Systems werden die dreidimensionalen Daten benutzt um zu ermitteln, ob der Benutzer auf eine der selektierbaren Optionen zeigt, die am Videoschirm wiedergegeben werden. Der Applikationsteil basiert die Berechnungen auf der Position der zeigenden Hand des Benutzers, die aus dem Bilderkennungsteil empfangen wird, sowie auf den betreffenden Positionen der selektierbaren Optionen, die bekannt sind, da der Applikationsteil die Wiedergabe der Optionen erzeugt hat. Basiert auf der betreffenden selektierten Option führt der Applikationsteil eine entsprechende Aktion durch. Wenn die selektierte Option eine Selektion in einer Menühierarchie ist, dann ist die Aktion die Wiedergabe eines neuen Satzes selektierbarer Optionen, die den nächsten Pegel in der Menühierarchie darstellen. Wenn die selektierte Option einen Antrag für eine bestimmte Information darstellt, dann ist die Aktion die Suche nach dieser Information und die nächste Wiedergabe der Information am Videoschirm.
  • Das Selektieren einer Option erfolgt in zwei Stufen. In einer ersten Stufe zeigt der Benutzer auf die gewünschte Option und in der zweiten Stufe bestätigt der Benutzer, dass dies die gewünschte Option ist. Diese zweistufige Annäherung vermeidet die Gefahr einer unerwünschten Selektion und ist vergleichbar mit der Zeigen-und-Klicken-Annäherung, die für eine Maus angewandt wird. In der vorliegenden Ausführungsform des Systems nach der vorliegenden Erfindung wird die Bestätigung derart implementiert, dass der Benutzer während einer bestimmten Zeitperiode auf die betreffende Option zeigt. Wenn diese Periode vorbei ist, erkennt das System die Bestätigung durch den Benutzer und führt die entsprechende Aktion durch. Alternative Weisen der Bestätigung werden betrachtet und werden zur Zeit studiert. Eine erste Alternative ist, dass der Benutzer die gewünschte Option mit der Hand oder dem Finger umkreist. Wenn der Benutzer diesen Kreis schließt, hat die Bestätigung stattgefunden und die gewünschte Option wird selektiert. Eine zweite Alternative ist die Verwendung von Spracheingabe zur Bestätigung. Der Benutzer sagt: "Diese", während er auf die gewünschte Option zeigt. Diese Aussage bildet die Bestätigung und die gewünschte Option wird selektiert.
  • 2 zeigt ein Flussdiagramm mit den Hauptschritten des Verfahrens nach der vorliegenden Erfindung. In dem Schritt 202 werden die selektierbaren Optionen an dem Videoschirm wiedergegeben und danach wird in dem Schritt 204 ein Bild von dem Benutzer erstellt, der vor dem Schirm in dem Interaktionsbereich steht. Die Kamera des Systems zeichnet ständig die Szene in dem Interaktionsbereich auf und zu einem geeigneten Zeitpunkt greift das System ein einziges Bild zur Analyse. In dem Schritt 206 wird dieses Bild analysiert und die Position der zeigenden Hand des Benutzers in dem dreidimensionalen Raum des Systems wird ermittelt. Dieser Schritt 206 ist weiterhin in den 3 und 4 detailliert dargestellt. Danach überprüft der Schritt 208, ob der Benutzer in dem Bild auf eine bestimmte Option zeigt. Sollte das nicht der Fall sein, so wird der Prozess auf den Schritt 204 zurückgesetzt, wo ein neues Bild gegriffen und der Prozess wiederholt wird. Wenn in dem Schritt 208 gefolgert wird, dass der Benutzer auf eine bestimmte Option zeigt, dann wird die Aktion entsprechend der Option in dem Schritt 210 durchgeführt. Danach wird in dem Schritt 212 überprüft, ob ein nächstes Videobild mit einem neuen Satz selektierbarer Optionen am Videoschirm wiedergegeben werden soll. Sollte das der Fall Optionen am Videoschirm wiedergegeben werden soll. Sollte das der Fall sein, so kehrt der Prozess zu dem Schritt 202 zurück zum Wiedergeben des Videobildes und die nachfolgenden Schritte werden daraufhin für dieses neue Videobild auf entsprechende Weise durchgeführt. Es sei bemerkt, dass das Flussdiagramm nach 2 nur die Hauptschritte der vorliegenden Erfindung zeigt. In Wirklichkeit umfasst die vorliegende Erfindung viel detailliertere Prozess- und Steuerschritte, auf die der Deutlichkeit der Zeichnung halber verzichtet worden ist.
  • 3 zeigt ein Zwischenergebnis der Analyse des von der Kamera erstellten Bildes. In einem ersten Schritt, wobei das von der Kamera erstellte Bild verarbeitet wird, wird eine Körperkontur 302 des Benutzers erhalten, der vor dem Videoschirm steht. Dieser erste Verarbeitungsschritt ist nicht ein wesentliches Element der vorliegenden Erfindung und ist in dem vorliegenden Patentdokument der Kürze desselben wegen, nicht weiter detailliert beschrieben. Der Verarbeitungsschritt zum Erhalten der Körperkontur ist von Darrel T., Wren C., Azarbayejani A. und Pentland A in der Veröffentlichung: "Pfinder: Realtime tracking of the human body", in IEEE Transactions on Pattern Analysis and Machine Intelligence" Heft 19, Nr. 7, Juli 1997, Seiten 780–785 beschrieben worden. In einem nächsten Schritt wird die Begrenzungsbox 304 ermittelt, welche die Körperkontur einschließt. Die Begrenzungsbox 304 ist in 9 Zellen aufgeteilt, indem die Box in 3 horizontale, zueinander gleich bemessene Reigen und in 3 vertikale, zueinander gleich bemessene Spalten aufgeteilt wird. Die drei Spalten sind von links nach rechts durch A, B bzw. C bezeichnet und die drei Reihen sind von oben nach unten durch 1, 2 bzw. 3 bezeichnet. Die Körperkontur wird je Zelle analysiert, damit mehrere Merkmale des Körpers des Benutzers erkannt werden. Die nachfolgenden Messungen werden für die betreffenden Zellen durchgeführt, wobei (x,y) die Stelle in dem Bild bezeichnet, wo x von links nach rechts läuft und wo y von unten nach oben läuft:
  • Figure 00090001
  • Je nach der Körperkontur brauchen nicht alle Messungen zu bestehen. In 3 werden die erhaltenen Messungen als Plus-Zeichen angegeben, mit den nachfolgenden Zahlen je Zelle:
  • Figure 00090002
  • Figure 00100001
  • Auf Basis der obenstehenden Messungen werden viele Körpermerkmale identifiziert. Diese Identifikation wird nachstehend je Körpermerkmal in Pseudocode gegeben, wobei das //-Zeichen einen Kommentar auf die betreffende Linie des Pseudocodes angibt.
  • Rechte Hand:
  • Wenn (eine A1-Messung vorhanden ist) Dann//rechte Hand über Schulter
    Rechte Hand = A1-Messung
    Sonst//rechte Hand unter Schulter
    Wenn (eine A2-Messung vorhanden ist) Dann
    Rechte Hand = A2-Messung
    Sonst//rechte Hand in diesem Bild nicht sichtbar
    Rechte Hand = ungültig
  • Linke Hand:
  • Wenn (eine C1-Messung vorhanden ist) Dann//linke Hand über Schulter
    Linke Hand = C1-Messung
    Sonst//linke Hand unter Schulter
    Wenn (eine C2-Messung vorhanden ist) Dann
    Linke Hand = C2-Messung
    Sonst//linke Hand in diesem Bild nicht sichtbar
    Linke Hand = ungültig
  • Kopf:
  • Wenn (eine B1-Messung vorhanden ist) Dann
    Kopf = B1-Messung
    Sonst//Kopf in diesem Bild nicht sichtbar
    Kopf = ungültig
  • Rechter Fuß:
  • Wenn (eine A3-Messung vorhanden ist) Dann//Füße auseinander stehend
    Rechter Fuß = A3-Messung
    Sonst//Füße nebeneinander
    Wenn (eine B3-MIN(x)-Messung vorhanden ist) Dann
    Rechter Fuß = B3-MIN(x)-Messung
    Sonst//den rechten Fuß in diesem Bild nicht sichtbar
    Rechter Fuß = ungültig
  • Linker Fuß:
  • Wenn (eine C3-Messung vorhanden ist) Dann//Füße auseinander stehend
    Linker Fuß = C3-Messung
    Sonst//Füße nebeneinander
    Wenn (eine B3-MAX(x)-Messung vorhanden ist) Dann
    Linker Fuß = B3-MAX(x)-Messung
    Sonst//linker Fuß in diesem Bild nicht sichtbar
    Linker Fuß = ungültig
  • Weiterhin werden eine Anzahl zusätzlicher Körpermerkmale identifiziert. Ein zentrales Merkmal wird in der Mitte des Begrenzungsbox 304 identifiziert und ein Basismerkmal wird in der unteren Mitte der Begrenzungsbox identifiziert. Ein Merkmal der linken und der rechten Schulter werden an betreffenden festen x- und y-Offsets des Kopfmerkmals identifiziert/
  • Die Aufteilung der Begrenzungsbox in 9 Zellen ermöglicht es, die Pose, in der der Benutzer eine Hand über dem Kopf hält, aufzulösen. Wenn die einzige Begrenzungsbox 304 verwendet werden würde, würde die höchste in der Box gefundene Stelle als Kopf vorausgesetzt werden. Dies würde bestimmt zu einer falschen Ermittlung der Richtung führen, worin der Benutzer zeigt.
  • 4 zeigt die Schritte zum Berechnen der Position der zeigenden Hand. Diese Schritte basieren auf den Merkmalen, wie diese im Zusammenhang mit 3 berechnet worden sind. Der Schritt 402 ist ein Schritt zur Kamerakalibrierung, die durchgeführt werden muss, wenn die Kamera nicht unmittelbar vor dem Benutzer positioniert ist. Der Ausgang des Kalibierschrittes der Kamera ist eine 4×4 Matrix, welche die Drehungen und geradlinigen Bewegungen darstellt, durch welche die Kameraposition und Kameraorientierung auf den Koordinatenrahmen des Systems bezogen ist. Dieser Koordinatenrahmen hat die X- und Z-Achse unten und die Y-Achse oben. Das Bild, wie von der Kamera erstellt, wird unter Verwendung der Kamerakalibriermatrix zu der XY-Ebene transformiert. Das transformierte Bild ist das Bild, das von einer Kamera erstellt werden würde, die unmittelbar vor dem Benutzer aufgestellt wäre. Die Kamerakalibriermatrix wird also verwendet zum Ermitteln der aktuellen dreidimensionalen Position des Fußes und der relatierten Positionen von Kopf und Händen in der XY-Ebene, ungeachtet in welchem Winkel die Kamera sich befindet. Die nachfolgenden Schritte arbeiten an dem Bild, nachdem dieses zu der XY-Ebene transformiert worden ist um die Kameraposition zu berücksichtigen.
  • In dem Schritt 404 wird die volle Länge 1 des Arms des Benutzers erhalten. Dies ist die wirkliche Länge des Arms und nicht die Länge, wie diese in dem Bild erscheint. Zunächst wird aus dem Kopfmerkmal und dem Basismerkmal der Körperkontur in dem Bild die Größe des Benutzers berechnet. Unter der Annahme, dass der Benutzer auf dem Boden steht, wird der Abstand zwischen der Kamera und der Position des Benutzers durch die Position des Basismerkmals in dem Bild ermittelt. Wenn dieser Abstand gegeben ist, kann die Größe der Körperkontur zu der wirklichen Größe des Benutzers skaliert werden. Daraufhin erhält das System eine Schätzung für die wirkliche Länge des Arms des Benutzers, und zwar aus einer Tafel mit biometrischen Daten. Diese biometrischen Daten wurden aus statistischen Daten von Messungen von vielen Personen ermittelt und können benutzt werden zum Schätzen mehrerer Abmessungen des Körpers einer Person. In dem Schritt 406 wird ein Vektor b für die lange Achse des Körpers des Benutzers definiert. Der Vektor b hat eine Richtung von dem Basismerkmal zu dem Kopfmerkmal und erhält eine Länge von einer Einheit. In dem Schritt 408 wird ein Vektor a für den zeigenden Arm des Benutzers definiert. Aus der Tafel mit biometrischen Daten wird eine Schulterposition erhalten als ein bestimmter Offset der Position des Kopfmerkmals. Der Vektor a hat eine Richtung von der Schulterposition zu der Position der Hand und wird gegeben durch eine Länge einer Einheit. In dem Schritt 410 wird die Länge 1 des Arms des Benutzers, wie diese in dem Bild erscheint, gemessen. Der Arm in dem Bild ist eine Projektion des wirklichen dreidimensionalen Arms auf das Bild und ist kürzer als die volle, wirkliche Länge 1, und zwar durch die Verkürzung der Projektion.
  • Zum Schluss wird in den Schritten 412 und 414 die Position der Hand berechnet, und zwar auf Basis der oben erhaltenen Daten. In dem Schritt 412 wird der Winkel θ1 zwischen dem Vektor a und dem Vektor b unter Anwendung der nachfolgenden Gleichung berechnet: θ1 = cos–1 (a.b) (1)
  • Diese einfache Beziehung ist wahr, da a und b Vektoren einheitlicher Länge sind. Die Vektoren a und b liegen beide in der Ebene des Bildes, ebenso wie der Winkel θ1. In dem Schritt 414 wird der Winkel θ2 zwischen dem zeigenden Arm des Benutzers und der Ebene des Bildes unter Verwendung der nachfolgenden Gleichung berechnet: θ2 = cos–1(I ^/1) (2)
  • Wie oben bereits beschrieben, ist die Länge 1 die wahre Länge des Arms, während die Länge 1 die Länge des Arms ist, wie in dem Bild gesehen. Je mehr der Arm aus der Bildebene heraus zeigt, umso kürzer wird die Länge 1 sein. Dies entspricht der obenstehenden Gleichung (2).
  • Nun ist, wo die Position der Schulter, der Winkel θ1, der Winkel θ2 und die Armlänge 1 gegeben ist, die Position der Hand in den drei Dimensionen des Koordinatenrahmens des Systems völlig bestimmt. Daraufhin wird diese Handposition benutzt um zu ermitteln, auf welche Option der Benutzer zeigt. Es sei bemerkt, dass die Messungen und die Berechnungen der Schritte 404 und 414 an dem Bild des Benutzers durchgeführt werden, nachdem dies zu der XY-Ebene transformiert worden ist. Diese Transformation wird durchgeführt um zu berücksichtigen, dass die Kamera nicht unmittelbar von dem Benutzer steht. Sollte die Kamera unmittelbar vor dem Benutzer stehen, so braucht die Transformation nicht durchgeführt zu werden.
  • 5 zeigt die Ermittlung der angezeigten Option auf Basis der Handposition. Diese 5 zeigt in Seitenansicht den Videoschirm 102 mit den selektierbaren Optionen 110 und den Benutzer 108, der in dem Interaktionsbereich 104 steht. Die Position einer zweigen Hand 502 wird auf Basis des von der Kamera 106 erstellten Bildes berechnet. In der vorliegenden Ausführungsform wird um zu ermitteln, auf welche Option der Benutzer zeigt, eine Erfassungslinie 504 durch das Auge des Benutzers und die Hand des Benutzers ermittelt. Die Position des Auges ist ein bestimmter Offset der Position des Kopfmerkmals und wird aus der Tafel mit biometrischen Daten erhalten. Wenn die bekannten Positionen von Auge und Hand des Benutzers und die Position des Videoschirms gegeben sind, wird der Schnittpunkt 506 zwischen der Linie 504 und dem Videoschirm 102 berechnet. Der Abstand zwischen dem Benutzer, dargestellt durch eine Fußposition, und dem selektierba ren Objekt, wiedergegeben am Videoschirm, wird entsprechend den oben gegebenen Schritten berechnet. Aus dem Vergleich dieses Schnittpunktes 506 mit der bekannten Position der selektierbaren Option kann auf einfache Weise ermittelt werden, auf welche Option der Benutzer zeigt, wenn überhaupt. Es gibt Alternativen zur Definition der Schnittlinie 504, wobei beispielsweise die Linie durch die Schulter und die Hand des Benutzers mit dem zeigenden Arm des Benutzers zusammenfällt.
  • 6 zeigt die wichtigsten Elemente des Systems nach der vorliegenden Erfindung. Das System 600 ist entsprechend einer bekannten Architektur implementiert worden und kann mit einem allgemeinen Computer verwirklicht werden. Das System hat einen Prozessor 602 zum Durchführen von Instruktionen eines Applikationsprogramms, das in den Arbeitsspeicher 604 geladen ist. Das System hat weiterhin eine Schnittstelle 606 zum Kommunikation mit peripheren Anordnungen. Es gibt einen Bus 608 zum Austauschen von Befehlen und Daten zwischen den jeweiligen Elementen des Systems. Die Randapparatur des Systems umfasst ein Speichermedium 610 mit den durchführbaren Programmen. Das Speichermedium 610 ist eine magnetische Festplatte, kann aber auch als mehrere einzelne Anordnungen ausgebildet sein, eventuell aus verschiedenen Arten von Speicheranordnungen. Anwendung der vorliegenden Erfindung ist nicht auf den Typ der Anordnung begrenzt und Speichermedien, die benutzt werden können, umfassen optische Platten, magnetische Platten, Band, Chip-Karten, Halbleiteranordnungen oder Kombinationen derselben. Das System hat weiterhin einen Ausgang 614 zum Senden eines Videobildes mit den selektierbaren Optionen zu dem Video-Wiedergabeschirm. Weiterhin hat das System einen Eingang 616 zum Empfangen eines von der Kamera erstellten Videos.
  • Zum Durchführen der jeweiligen Aufgaben wird eine Anzahl Software-Einheiten in den Arbeitsspeicher 604 geladen, unter denen die Nachfolgenden:
    • – eine Initialisierungseinheit 618 zum Ermitteln der Größe des Benutzers;
    • – eine Merkmalermittlungseinheit 620 um, basiert auf dem Bild, eine Merkmalposition eines Körpermerkmals des Benutzers in dreidimensionalem Raum zu ermitteln;
    • – eine weitere Ermittlungseinheit 622 um, basiert auf dem Bild, eine Fußposition eines Fußes des Benutzers, eine Projektion des Arms des Benutzers an der Bildebene und eine lange Achse des Körpers des Benutzers an der Bildebene zu ermitteln;
    • – eine Bestätigungseinheit 624 um aus dem Bild zu bestätigen, ob der Benutzer auf die bestimmte Option zeigt; und
    • – eine Folgerungseinheit 626 um zu folgern, dass der Benutzer die bestimmte Option selektiert hat, in dem Fall, wo die Bestätigungsmittel bestätigt haben, dass der Benutzer auf die bestimmte Option zeigt.
  • Weiterhin hat der Arbeitsspeicher 604 Speicherraum 628 zur einstweiligen Speicherung von Eingangs- und Ausgangsdaten und von Zwischenergebnissen, wie der Körperkontur und der Positionen der jeweiligen Körpermerkmale in dem Bild, das von dem System analysiert wird.
  • Die vorliegende Erfindung ist in einem System dargestellt, bei dem der Benutzer mit dem Arm auf eine Option zeigt, die an einem relativ großen Videoschirm dargestellt wird. Es dürfte einleuchten, dass die vorliegende Erfindung ebenfalls bei Systemen geringerer Abmessungen angewandt werden kann. Ein Beispiel ist ein PC, wobei die selektierbaren Optionen an dem relativ kleinen Computer-Monitor wiedergegeben werden und wobei ein Benutzer mit dem Finger auf die gewünschte Option zeigen darf. Dann wird, auf ähnliche Weise wie oben beschrieben, die Option, auf die der Benutzer zeigt, durch Berechnung der dreidimensionalen Position der Fingerspitze und dadurch ermittelt, dass dies auf die betreffenden Positionen der an dem Monitor wiedergegebenen selektierbaren Optionen bezogen wird.
  • Text in der Zeichnung
  • 2
    Start
    Wiedergabe Optionen
    Erstellen eines Bildes
    Position des Merkmals
    Angezeigte Option
    Aktion
    Nächste Wiedergabe
    Ende
  • 4
    Start
    Kamera kalibrieren
    Länge 1 des Arms
    Lange Achse b
    Armvektor a
    Länge 1 ^ des Arms
    Ende

Claims (6)

  1. Verfahren, wobei dem Benutzer die Möglichkeit geboten wird, aus einem Satz selektierbarer Optionen eine bestimmte Option zu selektieren, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Wiedergeben des Satzes selektierbarer Optionen an betreffenden Optionsstellen, – indem dem Benutzer die Möglichkeit geboten wird, auf die bestimmte Option physikalisch zu zeigen, das Abbilden des Benutzers, – auf Basis des Bildes das Bestimmen einer Position eines zeigenden Endes eines Arms des Benutzers in einem dreidimensionalen Raum, – das aus dem Bild Ermitteln, ob der Benutzer auf eine bestimmte Option zeigt, und zwar auf Basis der Position des Körpers und der Optionsstelle der bestimmten Option, und – sollte dies der Fall sein, das Folgern, dass der Benutzer die bestimmte Option selektiert hat; dadurch gekennzeichnet, dass das Verfahren weiterhin auf Basis des Bildes die Ermittlung einer Fußposition eines Fußes des Benutzers, eine Projektion des Arms des Benutzers auf die Bildfläche, und eine lange Achse des Körpers des Benutzers auf der Bildfläche umfasst, und dass die Ermittlung der Merkmalposition weiterhin Folgendes umfasst: – das Ermitteln des Abstandes zwischen der Optionsposition der bestimmten Option und der Fußposition, – das Ermitteln eines ersten Winkels zwischen der Projektion des Arms des Benutzers und der Projektion der langen Achse des Körpers des Benutzers, und – das Ermitteln eines zweiten Winkels zwischen dem Arm des Benutzers und der Ebene des Bildes auf Basis einer geschätzten Armlänge des Arms des Benutzers und einer ermittelten Länge der Projektion des Arms.
  2. Verfahren nach Anspruch 1, wobei der Satz selektierbarer Gegenstände an einem dem Benutzer zugewandten Videoschirm wiedergegeben wird.
  3. Verfahren nach Anspruch 1 mit einem Initialisierungsschritt, wobei die Grö ße des Benutzers ermittelt wird, wobei die geschätzte Armlänge aus biometrischen Daten auf Basis der Größe des Benutzers erhalten wird.
  4. System (600), bei dem einem Benutzer die Möglichkeit geboten wird, aus einem Satz selektierbarer Optionen eine bestimmte Option zu wählen, wobei das System die nachfolgenden Elemente umfasst: – Wiedergabemittel (102) zum Wiedergeben des Satzes selektierbarer Optionen an betreffenden Optionspositionen, – Bildaufnahmemittel (106) zum Machen eines Bildes vom Benutzer, – Merkmalermittlungsmittel (620) um auf Basis des Bildes eine Merkmalposition eines zeigenden Endes eines Arms des Benutzers in einem dreidimensionalen Raum zu ermitteln, – Ermittlungsmittel (624) um aus dem Bild zu ermitteln, ob der Benutzer auf Basis der Merkmalposition des Körpermerkmals und der Optionsposition der betreffenden Option auf eine bestimmte Option zeigt, und – Folgerungsmittel (626) um zu folgern, dass der Benutzer die bestimmte Option selektiert hat, in dem Fall, dass die Ermittlungsmittel ermittelt haben, dass der Benutzer auf die bestimmte Option zeigt, dadurch gekennzeichnet, dass das System weitere Ermittlungsmittel (622) aufweist um auf Basis des Bildes eine Fußposition eines Fußes des Benutzers, eine Projektion des Arms des Benutzers auf die Bildfläche und eine lange Achse des Körpers des Benutzers auf die Bildfläche zu ermitteln, und dass die Merkmalermittlungsmittel (620) für die nachfolgenden Zwecke vorgesehen sind: – das Ermitteln des Abstandes zwischen der Optionsposition der bestimmten Option und der Fußposition, – das Ermitteln eines ersten Winkels zwischen der Projektion des Arms des Benutzers und der Projektion der langen Achse des Körpers des Benutzers, und – das Ermitteln eines zweiten Winkels zwischen dem Arm des Benutzers und der Bildebene auf Basis einer geschätzten Armlänge des Arms des Benutzers und einer ermittelten Länge der Projektion des Arms.
  5. System (600) nach Anspruch 4, wobei die Wiedergabemittel (102) einen Videoschirm aufweisen, der dem Benutzer zugewandt ist zur Wiedergabe des Satzes selek tierbarer Gegenstände.
  6. System (600) nach Anspruch 4 mit Initialisierungsmitteln (618) zum Ermitteln der Größe des Benutzers, wobei die Merkmalermittlungsmittel dazu vorgesehen sind, aus biometrischen Daten auf Basis der Größe des Benutzers die geschätzte Armlänge zu erhalten.
DE69816789T 1997-12-22 1998-12-14 Verfahren und system zur gestengesteuerten optionsauswahl Expired - Lifetime DE69816789T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/995,823 US6176782B1 (en) 1997-12-22 1997-12-22 Motion-based command generation technology
US995823 1997-12-22
PCT/IB1998/002018 WO1999032959A2 (en) 1997-12-22 1998-12-14 Method and system for gesture based option selection

Publications (2)

Publication Number Publication Date
DE69816789D1 DE69816789D1 (de) 2003-09-04
DE69816789T2 true DE69816789T2 (de) 2004-05-27

Family

ID=25542253

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69816789T Expired - Lifetime DE69816789T2 (de) 1997-12-22 1998-12-14 Verfahren und system zur gestengesteuerten optionsauswahl

Country Status (5)

Country Link
US (2) US6176782B1 (de)
EP (1) EP0961965B1 (de)
JP (1) JP4874450B2 (de)
DE (1) DE69816789T2 (de)
WO (1) WO1999032959A2 (de)

Families Citing this family (353)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
GB2330669B (en) * 1997-10-24 2002-09-11 Sony Uk Ltd Data processing
IL127569A0 (en) 1998-09-16 1999-10-28 Comsense Technologies Ltd Interactive toys
DE19845030A1 (de) * 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6732915B1 (en) * 1999-09-10 2004-05-11 Fuji Xerox Co., Ltd. Systems and methods for controlling a presentation using physical objects
US20030174125A1 (en) * 1999-11-04 2003-09-18 Ilhami Torunoglu Multiple input modes in overlapping physical space
US20030132950A1 (en) * 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
JP2001145779A (ja) * 1999-11-22 2001-05-29 Namco Ltd サイン認識システム、ゲームシステム、ゲーム用のプログラムが記録されたコンピュータ読み取り可能な記録媒体
US7028269B1 (en) 2000-01-20 2006-04-11 Koninklijke Philips Electronics N.V. Multi-modal video target acquisition and re-direction system and method
GB0012275D0 (en) * 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
US7206029B2 (en) * 2000-12-15 2007-04-17 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on video content analysis
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US6704447B2 (en) * 2001-02-21 2004-03-09 Justsystem Corporation Method and apparatus for using illumination from a display for computer vision based user interfaces and biometric authentication
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
EP1689172B1 (de) * 2001-06-05 2016-03-09 Microsoft Technology Licensing, LLC Interaktives Video-Anzeigesystem
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3417555B2 (ja) * 2001-06-29 2003-06-16 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置、人物画像処理方法及びプログラム
KR100480770B1 (ko) * 2001-07-12 2005-04-06 삼성전자주식회사 3차원 공간상의 정보 포인팅 방법
JP3611807B2 (ja) * 2001-07-19 2005-01-19 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
US20030095154A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and apparatus for a gesture-based user interface
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7274803B1 (en) * 2002-04-02 2007-09-25 Videomining Corporation Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction
US7203911B2 (en) * 2002-05-13 2007-04-10 Microsoft Corporation Altering a display on a viewing device based upon a user proximity to the viewing device
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
US6996460B1 (en) * 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
DE10260305A1 (de) * 2002-12-20 2004-07-15 Siemens Ag HMI Einrichtung mit einem optischem Touch Screen
US7618323B2 (en) * 2003-02-26 2009-11-17 Wms Gaming Inc. Gaming machine system having a gesture-sensing mechanism
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP1510407A3 (de) * 2003-09-01 2005-07-27 Matsushita Electric Industrial Co., Ltd. Bildanzeigevorrichtung
WO2005031552A2 (en) * 2003-09-30 2005-04-07 Koninklijke Philips Electronics, N.V. Gesture to define location, size, and/or content of content window on a display
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
CN1902930B (zh) * 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
WO2005041167A1 (ja) * 2003-10-28 2005-05-06 Matsushita Electric Industrial Co., Ltd. 画像表示装置および画像表示方法
FI117308B (fi) * 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP4433948B2 (ja) * 2004-09-02 2010-03-17 株式会社セガ 背景画像取得プログラム、ビデオゲーム装置、背景画像取得方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2006038577A1 (ja) * 2004-10-05 2006-04-13 Nikon Corporation プロジェクタ装置を有する電子機器
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
CN100359437C (zh) * 2005-05-11 2008-01-02 凌阳科技股份有限公司 交互式影像游戏系统
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US20070159455A1 (en) * 2006-01-06 2007-07-12 Ronmee Industrial Corporation Image-sensing game-controlling device
US8125526B2 (en) * 2006-02-03 2012-02-28 Olympus Imaging Corp. Camera for selecting an image from a plurality of images based on a face portion and contour of a subject in the image
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US8628418B2 (en) * 2006-05-03 2014-01-14 Igt Method and apparatus for operating a mobile gaming system
US9104270B2 (en) * 2006-05-22 2015-08-11 Thomson Licensing Video system having a touch screen
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US8690670B2 (en) 2007-06-14 2014-04-08 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
EP2188737A4 (de) 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc Verarbeitung von benutzerinteraktionen auf gestenbasis
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
TWI372645B (en) * 2007-10-17 2012-09-21 Cywee Group Ltd An electronic game controller with motion-sensing capability
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20090166684A1 (en) * 2007-12-26 2009-07-02 3Dv Systems Ltd. Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk
TWI378329B (en) * 2008-02-12 2012-12-01 Shenzhen China Star Optoelect Method for controlling angle of display and self-adjusting display device
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
JP5120754B2 (ja) * 2008-03-28 2013-01-16 株式会社国際電気通信基礎技術研究所 動作検出装置
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8663013B2 (en) 2008-07-08 2014-03-04 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8681321B2 (en) * 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8577084B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8577085B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8682028B2 (en) * 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
JP2010176510A (ja) * 2009-01-30 2010-08-12 Sanyo Electric Co Ltd 情報表示装置
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
KR20100101389A (ko) 2009-03-09 2010-09-17 삼성전자주식회사 사용자 메뉴를 제공하는 디스플레이 장치 및 이에 적용되는ui제공 방법
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8660303B2 (en) * 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) * 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8428340B2 (en) * 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8760571B2 (en) * 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
KR20110069563A (ko) * 2009-12-17 2011-06-23 엘지전자 주식회사 영상표시장치 및 그 동작 방법
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) * 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US8568234B2 (en) 2010-03-16 2013-10-29 Harmonix Music Systems, Inc. Simulating musical instruments
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8514269B2 (en) * 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9189949B2 (en) 2010-12-09 2015-11-17 Sealed Air Corporation (Us) Automated monitoring and control of contamination in a production area
CA2795136A1 (en) 2010-04-01 2011-10-06 Sealed Air Corporation (Us) Automated monitoring and control of safety in a production area
US9406212B2 (en) 2010-04-01 2016-08-02 Sealed Air Corporation (Us) Automated monitoring and control of contamination activity in a production area
US9143843B2 (en) 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
WO2011123743A1 (en) 2010-04-01 2011-10-06 Sealed Air Corporation (Us) Automated monitoring and control of contamination in a production area
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
CA2802348A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
EP2410400B1 (de) * 2010-07-23 2013-06-12 BrainLAB AG Medizintechnisches Anzeigegerät mit einer Eingabeoberfläche und Verfahren zum Ansteuern eines solchen Geräts
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8760432B2 (en) * 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9011607B2 (en) 2010-10-07 2015-04-21 Sealed Air Corporation (Us) Automated monitoring and control of cleaning in a production area
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
ES2693060T3 (es) * 2011-03-17 2018-12-07 Ssi Schäfer Automation Gmbh Control y supervisión de una instalación de almacén y preparación de pedidos mediante movimiento y voz
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
JP5730086B2 (ja) * 2011-03-18 2015-06-03 Necパーソナルコンピュータ株式会社 入力装置および入力方法
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
WO2012144667A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Method and electronic device for gesture recognition
JP5798183B2 (ja) * 2011-04-22 2015-10-21 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America ポインティング制御装置とその集積回路、およびポインティング制御方法
CA2833928C (en) 2011-04-22 2018-01-02 Pepsico, Inc. Beverage dispensing system with social media capabilities
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
CN109271029B (zh) * 2011-08-04 2022-08-26 视力移动技术有限公司 无触摸手势识别系统、无触摸手势识别方法和介质
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
WO2013067020A1 (en) 2011-11-01 2013-05-10 Stephen Lim Dispensing system and user interface
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
WO2013136333A1 (en) 2012-03-13 2013-09-19 Eyesight Mobile Technologies Ltd. Touch free user interface
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
KR101533320B1 (ko) * 2012-04-23 2015-07-03 주식회사 브이터치 포인터가 불필요한 3차원 객체 정보 획득 장치
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
EP2864961A4 (de) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc Erzeugung eines avatars mit einer tiefenkamera
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
TWI454968B (zh) * 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9507425B2 (en) * 2013-03-06 2016-11-29 Sony Corporation Apparatus and method for operating a user interface of a device
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
DE102013207528A1 (de) 2013-04-25 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
KR102209354B1 (ko) * 2014-06-20 2021-01-29 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
JP6592940B2 (ja) * 2015-04-07 2019-10-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
JP6373546B2 (ja) * 2016-09-02 2018-08-15 楽天株式会社 情報処理装置、情報処理方法、及びプログラム
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
CN107977071B (zh) * 2016-10-24 2020-02-28 中国移动通信有限公司研究院 一种适用于空间系统的操作方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0829799A3 (de) 1992-05-26 1998-08-26 Takenaka Corporation Wandcomputereinheit
US5686940A (en) * 1993-12-24 1997-11-11 Rohm Co., Ltd. Display apparatus
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5704836A (en) 1995-03-23 1998-01-06 Perception Systems, Inc. Motion-based command generation technology
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
DE69634913T2 (de) * 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
US6176872B1 (en) * 1995-08-15 2001-01-23 Ethicon, Inc. Radial strength stent
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs

Also Published As

Publication number Publication date
WO1999032959A2 (en) 1999-07-01
EP0961965A2 (de) 1999-12-08
US6176782B1 (en) 2001-01-23
WO1999032959A3 (en) 1999-08-19
JP4874450B2 (ja) 2012-02-15
JP2001513244A (ja) 2001-08-28
EP0961965B1 (de) 2003-07-30
DE69816789D1 (de) 2003-09-04
US6283860B1 (en) 2001-09-04

Similar Documents

Publication Publication Date Title
DE69816789T2 (de) Verfahren und system zur gestengesteuerten optionsauswahl
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE19853676B4 (de) Bilderzeugungsvorrichtung
DE60308541T2 (de) Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung
DE69427210T2 (de) Verfahren und Gerät zur Erzeugung von dreidimensionaler Animation
DE69922898T2 (de) Verfahren zur dreidimensionalen Gesichtsmodellerzeugung aus Gesichtsbildern
DE69635347T2 (de) Verfahren und system zum wiedergeben und kombinieren von bildern
DE60201692T2 (de) Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren
DE3873792T2 (de) Elektronische bildverarbeitung.
DE69816688T2 (de) Perspektivsteuerung für Videospielbilder
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE69032971T2 (de) Stellungssteuerungsgerät eines visuellen Punktes
DE2264123C3 (de) Verfahren zur rechner-unterstützten Erzeugung von Trickfolgen-Projektionsbildern mehrdimensionaler Objekte
DE69734658T2 (de) Verfahren und system für virtuelle kinematographie
DE69924700T2 (de) Verfahren zur Darstellung von durch Oberflächenelemente repräsentierten grafischen Objekten
DE60115034T2 (de) Verfeinerung von dreidimensionalen polygonalen gitterdaten
DE60225933T2 (de) Tragbare virtuelle realität
DE69129712T2 (de) Arbeitsraumanzeigen
DE69936332T2 (de) Videospielvorrichtung
DE112007001789B4 (de) Verfahren zum Bewerten eines Bildes im Hinblick auf eine dominante Linie
DE69623385T2 (de) Interaktive Bilderzeugungsmethode und Gerät
DE60024514T2 (de) Aufzeichnungsmedium, Verfahren und Einrichtung zur Bildverarbeitung mit integrierten Daten zur Formmodellierung
DE69812518T2 (de) Bildverarbeitungsvorrichtung
DE69715816T2 (de) Videoanzeigesystem zum Darstellen einer virtuellen dreidimensionalen Bildanzeige
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition