[go: up one dir, main page]

DE102015100911B4 - Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität - Google Patents

Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität Download PDF

Info

Publication number
DE102015100911B4
DE102015100911B4 DE102015100911.0A DE102015100911A DE102015100911B4 DE 102015100911 B4 DE102015100911 B4 DE 102015100911B4 DE 102015100911 A DE102015100911 A DE 102015100911A DE 102015100911 B4 DE102015100911 B4 DE 102015100911B4
Authority
DE
Germany
Prior art keywords
participant
video
head
display
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015100911.0A
Other languages
English (en)
Other versions
DE102015100911A1 (de
Inventor
Tamar Baruza
Yair Wiener
Ori Modai
Azaria Cohen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avaya Inc
Original Assignee
Avaya Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avaya Inc filed Critical Avaya Inc
Publication of DE102015100911A1 publication Critical patent/DE102015100911A1/de
Application granted granted Critical
Publication of DE102015100911B4 publication Critical patent/DE102015100911B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • H04L65/4038Arrangements for multi-party communication, e.g. for conferences with floor control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Nicht transientes computerlesbares Speichermedium mit darauf gespeicherten Befehlen, das, wenn es von einer Verarbeitungsschaltung eines Konferenzsystems ausgeführt wird, das Konferenzsystem dazu anweist, ein Verfahren zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen durchzuführen, wobei das Verfahren Folgendes umfasst:Empfangen eines ersten Videos, während einer Konferenzsitzung, das von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde;Identifizieren einer oder mehrerer verfügbarer physischer Teilnehmerpositionen am Besprechungsort, wobei jede eine Position umfasst, an der sich der erste Teilnehmer physisch befinden könnte, wenn sich der physische Teilnehmer am Besprechungsort befände;Bestimmen einer ersten Position für den ersten Teilnehmer/die erste Teilnehmerin aus der einen oder den mehreren verfügbarer physischer Teilnehmerpositionen am physischen Besprechungsort;Bestimmen einer Ansicht einer am Kopf angebrachten Augmented-Reality(AR)-Anzeige, die von einem zweiten Teilnehmer/einer zweiten Teilnehmerin am physischen Besprechungsort getragen wird;Generieren, aus dem ersten Video, eines AR-Videos, das den ersten Teilnehmer/die erste Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin erscheinen lässt, als ob der erste Teilnehmer/die erste Teilnehmerin sich physisch an der ersten Position befände, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird; undÜbertragen des AR-Videos an die am Kopf angebrachte AR-Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer/der zweiten Teilnehmerin.

Description

  • STAND DER TECHNIK
  • Konferenzschaltungssysteme ermöglichen seit langem Audiokommunikationen zwischen Teilnehmern/Teilnehmerinnen an unterschiedlichen Orten. Neuerdings erlauben einige Konferenzsysteme Echtzeitvideokommunikationen zwischen Teilnehmern/Teilnehmerinnen. Mithin kann ein Teilnehmer/eine Teilnehmerin an einem Ort Live-Videos und -Tonteile von anderen sprechenden Teilnehmern/Teilnehmerinnen ansehen, obgleich diese anderen Teilnehmer/Teilnehmerinnen möglicherweise sehr weit weg sind. Die Fähigkeit, die anderen Teilnehmer/Teilnehmerinnen anzusehen, gewährleistet eine produktivere Konferenz, denn die Teilnehmer/Teilnehmerinnen können gegenseitig ihre Gesichtsausdrücke, ihre Gesten oder andere visuelle Informationen ansehen, die während eines Audioanrufs nicht gesehen werden können.
  • Wenngleich Videokonferenzen die Erfahrung von entfernt befindlichen Teilnehmern/Teilnehmerinnen sicherlich verbessert haben, können Videokonferenzen entfernten Teilnehmern/Teilnehmerinnen bisher noch nicht das Gefühl vermitteln, sie befänden sich alle im selben Raum. Das heißt, wenn Teilnehmer/Teilnehmerinnen in einem Konferenzraum sitzen und andere Teilnehmer/Teilnehmerinnen auf einem Anzeigebildschirm beobachten, wird dadurch nicht hinlänglich simuliert, dass sich diese anderen Teilnehmer/Teilnehmerinnen innerhalb des Konferenzraums befinden. Jedoch sind nun Virtual-Reality-Headsets erhältlich, die eine visuelle Immersion von Benutzern/Benutzerinnen in visuelle Erfahrungen, etwa Videospiele, bewirken. Ähnlich können Augmented-Reality-Headsets einem Benutzer/einer Benutzerin Informationen anzeigen, während dieser Benutzer/diese Benutzerin das Geschehen um sich herum weiter ansehen kann.
  • Aus der US 2004 / 0 104 935 A1 ist ein nicht transientes computerlesbares Speichermedium mit darauf gespeicherten Befehlen bekannt, das, wenn es von einem Konferenzsystem („conferencing“) ausgeführt wird, das Konferenzsystem dazu anweist, zum Zweck einer verbesserten visuellen Kommunikation zwischen entfernten Teilnehmern ein AR -Video zu erzeugen, das einen ersten Teilnehmer für einen zweiten Teilnehmer an einer ersten Position erscheinen lässt, wenn es durch die am Kopf angebrachte AR -Anzeige angesehen wird, wobei das AR -Video an die am Kopf angebrachte AR -Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer übertragen wird.
  • Weitere derartige Konzepte sind aus den Druckschriften US 6,545,700 , US 2012 / 0 249 591 A1 und US 2003 / 0 067 536 A1 bekannt.
  • Der Erfindung liegt nunmehr die Aufgabe zugrunde, ein nicht transientes computerlesbares Speichermedium mit darauf gespeicherten Befehlen sowie ein Konferenzsystem mit einem solchen Speichermedium anzugeben, das eine verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen ermöglicht.
  • Diese Aufgabe wird erfindungsgemäß für das Speichermedium mit den Merkmalen des Anspruchs 1 und für das Konferenzsystem mit den Merkmalen des Anspruchs 7 gelöst.
  • ÜBERBLICK
  • Hierin offenbarte Ausführungsformen sehen Verfahren, Systeme und computerlesbare Speichermedien zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen vor. In einer konkreten Ausführungsform sieht ein Verfahren vor, dass während einer Konferenzsitzung ein erstes Video empfangen wird, das von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde. Das Verfahren sieht weiter vor, dass eine erste Position für den ersten Teilnehmer/die erste Teilnehmerin am physischen Besprechungsort bestimmt wird und dass eine Ansicht einer am Kopf angebrachten Augmented-Reality(AR)-Anzeige, die von einem zweiten Teilnehmer/einer zweiten Teilnehmerin getragen wird, am physischen Besprechungsort bestimmt wird. Das Verfahren sieht vor, dass aus dem ersten Video ein AR-Video generiert wird, das den ersten Teilnehmer/die erste Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin an der ersten Position erscheinen lässt, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird. Das Verfahren beinhaltet auch, dass das AR-Video an die am Kopf angebrachte AR-Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer/der zweiten Teilnehmerin übertragen wird.
  • In einigen Ausführungsformen umfasst das Verfahren weiter, dass ein zweites Video, das vom physischen Besprechungsort aufgenommen wurde, empfangen wird, dass eine zweite Position am physischen Besprechungsort für einen dritten Teilnehmer/eine dritte Teilnehmerin, der/die vom physischen Besprechungsort entfernt ist, bestimmt wird und dass aus dem ersten Video und dem zweiten Video ein Virtual-Reality(VR)-Video, das den physischen oder den virtuellen Besprechungsraum mit dem ersten Teilnehmer/der ersten Teilnehmerin an der ersten Position von einem Ansichtspunkt der zweiten Position präsentiert aus, generiert wird. Das Verfahren beinhaltet weiter, dass das VR-Video an eine am Kopf angebrachte VR-Anzeige, die von dem dritten Teilnehmer/der dritten Teilnehmerin getragen wird, zur Präsentation gegenüber dem dritten Teilnehmer/der dritten Teilnehmerin übertragen wird.
  • In einigen Ausführungsformen bringt das Generieren des AR-Videos weiter mit sich, dass eine Darstellung des dritten Teilnehmers/der dritten Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin an der zweiten Position erscheint, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird.
  • In einigen Ausführungsformen umfasst das Verfahren weiter, dass ein erster Tonteil, der von dem ersten Teilnehmer/der ersten Teilnehmerin zusammen mit dem ersten Video aufgenommen wurde, empfangen wird und dass der erste Tonteil an ein Audiogerät am physischen Besprechungsort übertragen wird, wobei das Audiogerät den ersten Tonteil so präsentiert, dass der zweite Teilnehmer/die zweite Teilnehmerin den Tonteil als im Wesentlichen von der ersten Position kommend hört.
  • In einigen Ausführungsformen umfasst das Bestimmen der Ansicht der am Kopf angebrachten AR-Anzeige, dass Ausrichtungsinformationen von der am Kopf angebrachten AR-Anzeige empfangen werden, dass Positionsinformationen zu dem zweiten Teilnehmer/der zweiten Teilnehmerin von Quellen, die von außerhalb der am Kopf angebrachten AR-Anzeigekommen, empfangen werden und dass die Ansicht der am Kopf angebrachten AR-Anzeige basierend auf den Ausrichtungsinformationen und den Positionsinformationen identifiziert wird.
  • In einigen Ausführungsformen beinhaltet das Bestimmen der Ansicht der am Kopf angebrachten AR-Anzeige, dass nachfolgende Ausrichtungsinformationen und nachfolgende Positionsinformationen empfangen werden und dass die Ansicht der am Kopf angebrachten AR-Anzeige basierend auf den nachfolgenden Ausrichtungsinformationen und den nachfolgenden Positionsinformationen aktualisiert wird.
  • In einigen Ausführungsformen beinhaltet das Verfahren weiter, dass die Konferenzsitzung aus mindestens einer der Ansichten der am Kopf angebrachten AR-Anzeige und einer anderen Ansicht des physischen Besprechungsorts aufgezeichnet wird.
  • In einigen Ausführungsformen beinhaltet das Verfahren, dass die Aufzeichnung in ein Format, das auf einer nicht am Kopf angebrachten Anzeige anzeigbar ist, umgewandelt wird.
  • In einigen Ausführungsformen umfasst das Generieren des AR-Videos weiter, dass zusätzliche visuelle Informationen, die mit der Konferenzsitzung assoziiert sind, eingeblendet werden, sodass die zusätzlichen visuellen Informationen für den zweiten Teilnehmer/die zweite Teilnehmerin an einer Position innerhalb des physischen Besprechungsorts erscheinen, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird.
  • In einer anderen Ausführungsform ist ein Konferenzsystem vorgesehen, das eine Kommunikationsschnittstelle und eine Verarbeitungsschaltung umfasst. Die Kommunikationsschnittstelle ist konfiguriert, um während einer Konferenzsitzung ein erstes Video zu empfangen, das von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde. Die Verarbeitungsschaltung ist konfiguriert, um eine erste Position für den ersten Teilnehmer/die erste Teilnehmerin am physischen Besprechungsort zu bestimmen, eine Ansicht einer am Kopf angebrachten Augmented-Reality(AR)-Anzeige, die von einem zweiten Teilnehmer/einer zweiten Teilnehmerin getragen wird, am physischen Besprechungsort zu bestimmen und aus dem ersten Video ein AR-Video zu generieren, das den ersten Teilnehmer/die erste Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin an der ersten Position erscheinen lässt, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird. Die Kommunikationsschnittstelle ist konfiguriert, um das AR-Video an die am Kopf angebrachte AR-Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer/der zweiten Teilnehmerin zu übertragen.
  • Figurenliste
    • 1 veranschaulicht eine Konferenzumgebung zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
    • 2 veranschaulicht ein Betriebsszenario einer Konferenzumgebung zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
    • 3 veranschaulicht ein Verfahren zum Betreiben eines Konferenzsystems zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
    • 4 veranschaulicht eine Konferenzumgebung zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
    • 5 veranschaulicht ein Betriebsszenario einer Konferenzumgebung zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
    • 6 veranschaulicht ein Verfahren zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen beim Betriebsszenario.
    • 7 veranschaulicht ein Verfahren zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
    • 8 veranschaulicht beispielhafte Raumausrichtungen, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen ermöglicht wird.
    • 9 veranschaulicht beispielhafte Raumausrichtungen, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen ermöglicht wird.
    • 10 veranschaulicht ein Konferenzsystem zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung und die assoziierten Figuren lehren die beste Ausführungsform der Erfindung. Zum Zweck des Lehrens der Erfindungsprinzipien werden einige herkömmliche Aspekte der besten Ausführungsform möglicherweise vereinfacht oder weggelassen. Die folgenden Ansprüche legen den Schutzbereich der Erfindung fest. Es ist zu beachten, dass einige Aspekte der besten Ausführungsform möglicherweise nicht in den Schutzbereich der Erfindung, wie von den Ansprüchen festgelegt, fallen. Mithin erkennt der Fachmann Varianten der besten Ausführungsform, die in den Schutzbereich der Erfindung fallen. Der Fachmann erkennt, dass die unten beschriebenen Merkmale auf verschiedene Weisen kombiniert werden können, um mehrere Varianten der Erfindung zu bilden. Folglich wird die Erfindung nicht auf die unten beschriebenen speziellen Beispiele, sondern nur von den Ansprüchen und ihren Äquivalenten begrenzt.
  • 1 veranschaulicht eine Konferenzumgebung 100. Die Konferenzumgebung 100 beinhaltet ein Konferenzsystem 101, ein Teilnehmeraufnahmesystem 102 und eine am Kopf angebrachte Augmented-Reality(AR)-Anzeige (Head Mounted Display, HMD) 103. Das Konferenzsystem 101 und das Teilnehmeraufnahmesystem 102 kommunizieren über eine Kommunikationsverbindung 112. Das Konferenzsystem 101 und die AR-HMD 103 kommunizieren über eine Kommunikationsverbindung 111.
  • Im Betrieb ist das Konferenzsystem 101 konfiguriert, um Konferenzteilnehmern/Konferenzteilnehmerinnen an unterschiedlichen Orten eine Konferenzerfahrung derart zu vermitteln, als seien die Teilnehmer/Teilnehmerinnen am selben Ort. Hierzu nutzt das Konferenzsystem 101 AR, dank der ein Teilnehmer/eine Teilnehmerin die Welt um sich herum sehen kann, während es zusätzliche Informationen einblendet. In einigen AR-Geräten, etwa einem Smartphone, nimmt das Gerät Videobilder auf und zeigt diese Bilder auf einem Bildschirm so ähnlich an, wie wenn der Bildschirm als Sucher für eine Kamera genutzt wird. AR-Informationen werden auf den angezeigten Bildschirmbildern im Verhältnis zu dem eingeblendet, was im Bild angezeigt wird. Zum Beispiel werden Informationen zu einem Geschäft mit einer Schaufensterfront, die im Bild aufgenommen wurde, auf dem Bildschirm möglicherweise neben der Schaufensterfront angezeigt. Bei einem anderen Beispiel verfügt eine Person in der AR-Ansicht möglicherweise über Informationen, die in der Nähe der Person angezeigt werden, etwa visitenkartenartige Informationen, sodass sie einfacher referenziert werden kann. Alternativ werden die AR-Informationen möglicherweise auf einem durchsichtigen Medium angezeigt, etwa transparenten Linsen, aufgrund deren sich das Anzeigen der Bilder erübrigt, die durch die Linsen gesehen werden können.
  • Für die Zwecke des Ermöglichens einer Konferenz nutzt das Konferenzsystem 101 AR-Videos, um aufgenommene Videos von Konferenzteilnehmern/Konferenzteilnehmerinnen einzublenden, die sich nicht an demselben Ort befinden wie der Teilnehmer/die Teilnehmerin, der/die das AR-Video ansieht. Zum Beispiel ist ein Teilnehmer/eine Teilnehmerin 123 in einem Besprechungsraum, während ein Teilnehmer/eine Teilnehmerin 122 nicht dort ist. Der Teilnehmer/die Teilnehmerin 122 kann in einem Raum auf demselben Korridor wie der Besprechungsraum sein oder auf der anderen Seite der Welt. Ungeachtet dessen, wo sich der Teilnehmer/die Teilnehmerin 122 befindet, erlaubt die AR-HMD 103, die von dem Teilnehmer/der Teilnehmerin 123 getragen wird, zusammen mit dem Konferenzsystem 101 und dem Aufnahmesystem 102 dem Teilnehmer/der Teilnehmerin 123 das Ansehen des Teilnehmers/der Teilnehmerin 122 an einer Position im Besprechungsraum. Daher kann der Teilnehmer/die Teilnehmerin 123, statt dass er/sie lediglich ein von dem Teilnehmer/der Teilnehmerin 122 aufgenommenes Video auf einer Anzeige ansieht, den Teilnehmer/die Teilnehmerin 122 im Besprechungsraum „sehen“, wodurch die Erfahrung emuliert wird, dass sich der Teilnehmer/die Teilnehmerin 122 wirklich im Raum befindet.
  • 2 veranschaulicht einen Betrieb 200 der Konferenzumgebung 100, um verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen zu ermöglichen. Beim Betrieb 200 werden vom Aufnahmesystem 102 bei Schritt 1 Videobilder von dem Teilnehmer/der Teilnehmerin 122 aufgenommen. Die Videobilder können, abhängig von den Fähigkeiten des Aufnahmesystems 102, der HMD 103, des Konferenzsystems 101 oder anderweitig, in zwei oder drei Dimensionen aufgenommen werden. Nach der Aufnahme wird ein Video von den aufgenommenen Videobildern in Echtzeit an das Konferenzsystem 101 übertragen (Schritt 2). Das Video kann in einem beliebigen Format, das vom Aufnahmesystem 102 und vom Konferenzsystem 101 unterstützt wird, übertragen werden. Das Video kann abhängig davon, wie weit das Aufnahmesystem 102 vom Konferenzsystem 101 entfernt ist, über ein oder mehrere verschiedene Kabel- oder Drahtlosnetze (Local Area, Wide Area, das Internet, zellulares Datennetz und dergleichen) oder direkte Verbindungen übertragen werden.
  • Bei Schritt 3 bestimmt das Konferenzsystem 101 eine Position für die AR-Darstellung des Teilnehmers/der Teilnehmerin 122 am Besprechungsort, an dem sich der Teilnehmer/die Teilnehmerin 123 befindet. Schritt 4 lässt sich zu einer beliebigen Zeit durchführen, bevor die Darstellung des Teilnehmers/der Teilnehmerin 122 dem Teilnehmer/der Teilnehmerin 123 auf der HMD 103 präsentiert wird, und muss nicht zwingend nach den Schritten 1 und 2 durchgeführt werden. Das Konferenzsystem 101 kann die Position basierend auf Informationen bestimmen, die von der HMD 103, anderen Geräten oder Sensoren am Besprechungsort, von dem Teilnehmer/der Teilnehmerin 123, von einem Besprechungsadministrator/einer Besprechungsadministratorin oder einer beliebigen anderen Quelle potenzieller Positionsinformationen her empfangen werden. Mittels der ihm zur Verfügung stehenden Informationen bestimmt das Konferenzsystem 101 deshalb eine Position innerhalb des Besprechungsorts, an dem sich der Teilnehmer/die Teilnehmerin 122 physisch befinden könnte, falls der Teilnehmer/die Teilnehmerin 122 am Besprechungsort wäre.
  • Falls der Besprechungsort zum Beispiel einen Konferenztisch beinhaltet, kann das Konferenzsystem 101 bestimmen, dass die Position des Teilnehmers/der Teilnehmerin 122 ein leerer Sitzplatz am Konferenztisch ist. Das Vorhandensein des leeren Sitzplatzes ist bestimmbar basierend auf einem von der HMD 103 her aufgenommenen Video (z. B. Analysieren des Videos, um die Anwesenheit einer Person an jeder Position zu bestimmen), basierend auf Informationen, die von einem Teilnehmer/einer Teilnehmerin oder einem Administrator/einer Administratorin manuell eingegeben wurden, wenn das System für eine Konferenzsitzung eingesetzt wird (z. B. manuelle Abbildung des Besprechungsraums für Standorte von Teilnehmern/Teilnehmerinnen, Stühlen etc.), basierend auf Drucksensoren in Stühlen am Tisch oder durch beliebige andere Mittel.
  • Das Konferenzsystem 101 bestimmt weiter eine Ansicht des Teilnehmers/der Teilnehmerin 123 bei Schritt 4. Die Ansicht des Teilnehmers/der Teilnehmerin 123 muss bestimmt werden, um zu bestimmen, wo die Position des Teilnehmers/der Teilnehmerin 122 relativ zur Ansicht des Teilnehmers/der Teilnehmerin 123 ist. Die Ansicht lässt sich bestimmen, indem ein von der HMD 103 her aufgenommenes Video, ein von dem Teilnehmer/der Teilnehmerin 123 am Besprechungsort aufgenommenes Video, Ausrichtungssensoren der HMD 103 (z. B. Beschleunigungsmesser, Kompass, Gyroskope etc.) oder beliebige andere Informationen, die zum Bestimmen der Ansicht eines Teilnehmers/einer Teilnehmerin genutzt werden können, analysiert werden.
  • Sobald die Position des Teilnehmers/der Teilnehmerin 122 und die Ansicht des Teilnehmers/der Teilnehmerin 123 bestimmt sind, kann das Konferenzsystem 101 bei Schritt 5 ein AR-Video generieren, das dem Teilnehmer/der Teilnehmerin 123 auf der HMD 103 angezeigt wird. Das AR-Video kann abhängig von den Fähigkeiten der HMD 103 und davon, wie der Teilnehmer/die Teilnehmerin 122 aufgenommen wurde, entweder in 2D oder in 3D generiert werden. Um das AR-Video zu generieren, kann das Konferenzsystem 101 eventuelle Hintergrundbilder im von dem Teilnehmer/der Teilnehmerin 122 aufgenommenen Video entfernen, sodass nur der Teilnehmer/die Teilnehmerin 122 und Dinge, die der Teilnehmer/die Teilnehmerin 122 gerade hält, nutzt oder die für die Konferenzsitzung anderweitig nützlich sind, übrig bleiben. Das Konferenzsystem 101 kann das Videobild von dem Teilnehmer/der Teilnehmerin 122 bearbeiten, damit es aus der Ansicht des Teilnehmers/der Teilnehmerin 123 durch die HMD 103 so aussieht, als sei der Teilnehmer/die Teilnehmerin 122 an der bei Schritt 3 bestimmten Position. Zum Beispiel lässt sich das Bild von dem Teilnehmer/der Teilnehmerin 122 im AR-Video verkleinern, falls die Position in der Ansicht des Teilnehmers/der Teilnehmerin 123 weiter weg ist. Ferner lässt sich das Bild des Teilnehmers/der Teilnehmerin 122 basierend auf dem Winkel drehen, in dem der Teilnehmer/die Teilnehmerin 122 aus der Ansicht des Teilnehmers/der Teilnehmerin 123 angesehen wird. Das heißt, die Position des Teilnehmers/der Teilnehmerin 122 am Besprechungsort kann bedeuten, dass die Seite des Teilnehmers/der Teilnehmerin 122 der Ansicht des Teilnehmers/der Teilnehmerin 123 zugewandt ist. Abhängig davon, ob das Video von dem Teilnehmer/der Teilnehmerin 122 von der Seite aufgenommen wurde, muss das Konferenzsystem 101 möglicherweise schätzen, wie der Teilnehmer/die Teilnehmerin 122 von der Seite aussieht, wenn es den Teilnehmer/die Teilnehmerin 122 dem Teilnehmer/der Teilnehmerin 123 präsentiert. Alternativ kann das Konferenzsystem 101 möglicherweise einfach weiterhin die Vorderseite des Teilnehmers/der Teilnehmerin 122 präsentieren, obgleich der Teilnehmer/die Teilnehmerin 123 den Teilnehmer/die Teilnehmerin 122 möglicherweise nicht so ansähe, falls der Teilnehmer/die Teilnehmerin 122 an dem Ort anwesend wäre. Darüber hinaus muss das Konferenzsystem 101 möglicherweise Okklusionen wie andere Personen, Pflanzen oder andere Objekte in der Ansicht von dem Teilnehmer/der Teilnehmerin 123 hin zu dem Teilnehmer/der Teilnehmerin 122 berücksichtigen.
  • Nachdem das Konferenzsystem 101 das AR-Video generiert hat, wird das AR-Video bei Schritt 6 an die HMD 103 übertragen. Das AR-Video kann abhängig davon, wie weit das Aufnahmesystem 102 vom Konferenzsystem 101 entfernt ist, über ein oder mehrere verschiedene Kabel- oder Drahtlosnetze (Local Area, Wide Area, das Internet, zellulares Datennetz und dergleichen) oder direkte Verbindungen übertragen werden. Bei einigen Beispielen befindet sich das Konferenzsystem 101 möglicherweise am Besprechungsort. Nach dem Empfangen des AR-Videos zeigt die HMD 103 das AR-Video dem Teilnehmer/der Teilnehmerin 123. Falls die HMD 103 transparente Linsen nutzt, umfasst das AR-Video ein Video von dem Teilnehmer/der Teilnehmerin 122 an der bestimmten Position im Besprechungsraum, wie auf den transparenten Linsen angezeigt. Falls die HMD 103 alternativ eine nicht transparente Anzeige umfasst, die vom Ansichtspunkt des Teilnehmers/der Teilnehmerin 123 aus aufgenommene Videos anzeigt (z. B. „Sucher“), wird das AR-Video auf dieses aufgenommene Video eingeblendet, wenn es dem Teilnehmer/der Teilnehmerin 123 wieder angezeigt wird.
  • Die Schritte 1-2 und 4-7 erfolgen fortlaufend während einer Besprechung, um den Teilnehmer/die Teilnehmerin 122 dem Teilnehmer/der Teilnehmerin 123 nach bestem Bemühen so zu präsentieren, dass emuliert wird, dass der Teilnehmer/die Teilnehmerin 122 am selben Besprechungsort anwesend ist wie der Teilnehmer/die Teilnehmerin 123. Schritt 3 erfolgt möglicherweise nur einmal, es sei denn, das Konferenzsystem 101 bestimmt, dass der Teilnehmer/die Teilnehmerin 122 während der Besprechung andere Positionen einnimmt. Wenn der Teilnehmer/die Teilnehmerin 123 seine/ihre Ausrichtung zur HMD 103 ändert (z. B. seinen/ihren Kopf dreht, andere Positionen am Besprechungsort einnimmt etc.), werden diese Ausrichtungsänderungen bei den Schritten 4 und 5 berücksichtigt, um ein AR-Video zu generieren, das den Teilnehmer/die Teilnehmerin 122 trotzdem an der bestimmten Position anzeigt. Dies bedeutet in einigen Fällen auch, dass, falls der Teilnehmer/die Teilnehmerin 123 die Position des Teilnehmers/der Teilnehmerin 122 gerade nicht ansieht, der Teilnehmer/die Teilnehmerin 122 im AR-Video nicht gezeigt wird. Desgleichen, falls die Position des Teilnehmers/der Teilnehmerin 122 nur teilweise sichtbar ist, zeigt das AR-Video den Teilnehmer/die Teilnehmerin 122 demgemäß nur zum Teil.
  • In einigen Konfigurationen lassen sich Tonwiedergabegeräte am Besprechungsort nutzen, um die Ausgangsposition eines zusammen mit dem Video von dem Teilnehmer/der Teilnehmerin 122 durch das Aufnahmesystem 102 aufgenommenen Tonteils zu emulieren. Das heißt, das Konferenzsystem 101 wird ein Audiogerät auswählen, welches den aufgenommenen Tonteil abspielen und den Anschein erwecken kann, dass der Tonteil von der bestimmten Position des Teilnehmers/der Teilnehmerin 122 am Besprechungsort kommt. Daher lässt die AR-HMD 103 es gegenüber dem Teilnehmer/der Teilnehmerin 123 nicht nur so aussehen, als ob sich der Teilnehmer/die Teilnehmerin 122 an einem konkreten Ort befände, sondern das Audiogerät lässt es auch so klingen, als ob der Teilnehmer/die Teilnehmerin 122 von diesem Ort ausspräche. Bei einigen Beispielen befindet sich das Audiogerät nahe bei der bestimmten Position des Teilnehmers/der Teilnehmerin 122, während bei anderen Beispielen Audiogeräte, die nicht nahe bei den bestimmten Positionen sind, etwa in die HMD 103 eingebaute Geräte, genutzt werden, um den von der Position des Teilnehmers/der Teilnehmerin 122 kommenden Tonteil in der für sie bestmöglichen Weise zu simulieren.
  • In einigen Ausführungsformen nimmt ein anderes Aufnahmesystem den Teilnehmer/die Teilnehmerin 123 auf und der Teilnehmer/die Teilnehmerin 123 wird dem Teilnehmer/der Teilnehmerin 122 unter Widerspiegelung des Betriebs 200 durch eine von dem Teilnehmer/der Teilnehmerin 122 getragene AR-HMD präsentiert. Demgemäß kann das Konferenzsystem 101 den Teilnehmer/die Teilnehmerin 122 am Besprechungsort mit dem Teilnehmer/der Teilnehmerin 123 emulieren und den Teilnehmer/die Teilnehmerin 123 am Ort des Teilnehmers/der Teilnehmerin 122 emulieren. Des Weiteren können sich an jedem Ort (oder zusätzlichen Orten, die nicht erwähnt werden) zusätzliche Teilnehmer/Teilnehmerinnen befinden und diese zusätzlichen Teilnehmer/Teilnehmerinnen werden weiter auf den AR-HMDs anderer Teilnehmer/Teilnehmerinnen emuliert, die sich nicht am selben Ort befinden.
  • In weiteren Ausführungsformen kann das Konferenzsystem 101 konfiguriert sein, um die Besprechung zwischen Teilnehmern/Teilnehmerinnen in einem Speichersystem aufzuzeichnen, damit die Besprechung zu einem späteren Zeitpunkt wiedergegeben werden kann. Diese Aufzeichnung erfolgt möglicherweise vom Ansichtspunkt des Teilnehmers/der Teilnehmerin 123, vom Ansichtspunkt eines anderen Teilnehmers/einer anderen Teilnehmerin am Besprechungsort, vom Ansichtspunkt einer Person, die „Mäuschen spielt“, und die den ganzen Besprechungsort im Blick hat, oder anderweitig, und beinhaltet sowohl die Teilnehmer/Teilnehmerinnen am Besprechungsort (z. B. den Teilnehmer/die Teilnehmerin 123) als auch entfernte Teilnehmer/Teilnehmerinnen (z. B. den Teilnehmer/die Teilnehmerin 122) an ihren durch das Konferenzsystem 101 bestimmten Positionen. Die aufgezeichnete Besprechung lässt sich wiedergeben auf einer AR-HMD ohne den Besprechungsortshintergrund, auf einer Virtual-Reality(VR)-HMD, welche die Besprechungsraummerkmale in einer immersiven visuellen Umgebung weiter präsentiert, auf einem zweidimensionalen Anzeigebildschirm, nur mit Ton oder durch ein beliebiges anderes Wiedergabeverfahren. In einigen Fällen müssen die Bilder möglicherweise in ein zum Ansehen auf der Wiedergabeanzeige zweckmäßiges Format umgewandelt werden. Falls zum Beispiel entfernte Teilnehmer/Teilnehmerinnen wie der Teilnehmer/die Teilnehmerin 122 in einem dreidimensionalen Video aufgenommen werden, muss dieses Video möglicherweise in zwei Dimensionen und in ein für eine zweidimensionale Wiedergabe fähiges Dateiformat umgewandelt werden.
  • 3 veranschaulicht ein Verfahren zum Betreiben des Konferenzsystems 101 anhand eines Beispiels für ein Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen. Während einer Konferenzsitzung empfängt das Konferenzsystem 101 ein erstes Video, das von dem Teilnehmer/der Teilnehmerin 122, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde (Schritt 301). Das Konferenzsystem 101 bestimmt eine erste Position für den ersten Teilnehmer/die erste Teilnehmerin am physischen Besprechungsort (Schritt 302) und bestimmt eine Ansicht der von dem Teilnehmer/der Teilnehmerin 123 getragenen AR-HMD 103 am physischen Besprechungsort (Schritt 303). Aus dem ersten Video generiert das Konferenzsystem 101 ein AR-Video, das den Teilnehmer/die Teilnehmerin 122 für den Teilnehmer/die Teilnehmerin 123 an der ersten Position erscheinen lässt, wenn es durch die AR-HMD 103 angesehen wird (Schritt 304). Das Konferenzsystem 101 überträgt dann das AR-Video an die AR-HMD 103 zur Präsentation gegenüber dem Teilnehmer/der Teilnehmerin 123 (Schritt 305).
  • Wie für den Betrieb 200 angemerkt, kann das Konferenzsystem 101 dieselben Funktionen zum Präsentieren des Teilnehmers/der Teilnehmerin 123 gegenüber dem Teilnehmer/der Teilnehmerin 122 durchführen und kann dieselben Funktionen für mehr als zwei Teilnehmer/Teilnehmerinnen durchführen. Desgleichen müssen nicht alle der Schritte 301-305 in dieser Reihenfolge erfolgen. Zum Beispiel lässt sich die erste Position bestimmen, bevor die Konferenzsitzung beginnt.
  • Unter erneuter Bezugnahme auf 1 umfasst das Konferenzsystem 101 ein Computerverarbeitungssystem und eine Kommunikationsschnittstelle. Das Konferenzsystem 101 kann auch noch andere Komponenten umfassen, etwa einen Router, einen Server, ein Datenspeichersystem und eine Stromversorgung. Das Konferenzsystem 101 kann in einem einzelnen Gerät liegen oder kann über mehrere Geräte verteilt sein. Das Konferenzsystem 101 könnte ein Anwendungsserver, eine Personal Workstation oder ein Computersystem von einem beliebigen anderen Typ sein, das zum Ermöglichen einer Konferenz mit mehreren beteiligten Personen fähig ist - einschließlich Kombinationen davon.
  • Das Teilnehmeraufnahmesystem 102 umfasst eine oder mehrere Kameras zum Aufnehmen des Teilnehmers/der Teilnehmerin 122 und eine Kommunikationsschaltung zum Kommunizieren mit dem Konferenzsystem 101. Das Aufnahmesystem 102 kann auch ein oder mehrere Mikrofone zum Aufnehmen von Ton, eine Stromversorgung, eine Verarbeitungsschaltung oder andere Komponenten beinhalten. Das Aufnahmesystem 102 kann in einem einzelnen Gerät liegen oder kann über mehrere Geräte verteilt sein. Zum Beispiel umfasst das Aufnahmesystem 102 möglicherweise getrennte Kamera- und Mikrofonkomponenten zum Aufnehmen des Teilnehmers/der Teilnehmerin 122. Bei einigen Beispielen beinhaltet das Aufnahmesystem 102 möglicherweise Motoren, die ein Drehen, Schwenken oder Neigen des Systems 102 erlauben. Das Aufnahmesystem 102 kann auch 3D-Aufnahme- und -Registrierfähigkeiten wie Tiefen- oder Stereoabtastung beinhalten.
  • Die AR-HMD 103 umfasst ein Gestell, damit der Teilnehmer/die Teilnehmerin 123 die HMD 103 an seinem/ihrem Kopf tragen kann. In der Regel hat die AR-HMD 103 allgemein die Form einer Brille. Die HMD 103 umfasst weiter eine persönliche Anzeige zum Anzeigen von Videobildern für den Teilnehmer/die Teilnehmerin 123. Die Anzeige kann einen Bildprojektor umfassen, der Bilder auf Linsen der HMD 103 projiziert, oder kann eine Anzeige wie eine LCD sein, die in die Linsen eingebaut oder an ihrer Stelle vorhanden ist. Die HMD 103 beinhaltet weiter eine Verarbeitungs- und Kommunikationsschaltung und kann Tonwiedergabekomponenten wie Lautsprecher oder Kopfhörer beinhalten. Darüber hinaus kann die HMD 103 Video- und Tonaufnahmekomponenten wie eine Kamera und ein Mikrofon beinhalten.
  • Die Kommunikationsverbindungen 111 und 112 nutzen Metall, Glas, Luft, den Raum oder irgendein anderes Material als Transportmedium. Die Kommunikationsverbindungen 111 und 112 könnten verschiedene Kommunikationsprotokolle nutzen, etwa Time Division Multiplex (TDM), Internet Protocol (IP), Ethernet, Kommunikationssignalisierung, Code Division Multiple Access (CDMA), Evolution Data Only (EVDO), Worldwide Interoperability for Microwave Access (WIMAX), Global System for Mobile Communication (GSM), Long Term Evolution (LTE), Wireless Fidelity (WIFI), High Speed Packet Access (HSPA) oder irgendein anderes Kommunikationsformat - einschließlich Kombinationen davon. Die Kommunikationsverbindungen 111 und 112 könnten direkte Verbindungen sein oder können dazwischenliegende Netze, Systeme oder Geräte beinhalten.
  • 4 veranschaulicht eine Konferenzumgebung 400. Die Konferenzumgebung 400 beinhaltet ein Konferenzsystem 401, einen Besprechungsraum 402, einen Besprechungsraum 403, einen individuellen Raum 404 und ein Kommunikationsnetz 405. Der Besprechungsraum 402 beinhaltet AR-HMDs 421-423, Audio-Video-Aufnahmegeräte 424 und Raumsensoren 425. Der Besprechungsraum 403 beinhaltet AR-HMDs 431-432, Audio-Video-Aufnahmegeräte 434 und Raumsensoren 435. Der individuelle Raum 404 beinhaltet eine Virtual-Reality(VR)-HMD 441 und eine Tonaufnahme 444. Das Kommunikationsnetz 405 kommuniziert mit dem Konferenzsystem 401, dem Besprechungsraum 402, dem Besprechungsraum 403 und dem individuellen Raum 404 jeweils über Kommunikationsverbindungen 411-414.
  • Das Kommunikationsnetz 405 umfasst Netzelemente, die Kommunikationsdienste für die Räume 402-404 und das Konferenzsystem 401 bereitstellen. Das Kommunikationsnetz 405 umfasst möglicherweise Switches, Funkzugangsknoten, Internetrouter, Netzgateways, Anwendungsserver, Computersysteme, Kommunikationsverbindungen oder eine Kommunikationsausstattung von irgendeinem anderen Typ - einschließlich Kombinationen davon. Wenngleich das Kommunikationsnetz 405 als einzelnes Netz gezeigt ist, kann es auch eine Menge von Netzen umfassen, die Local Area Networks, Wide Area Networks, das Internet oder Computernetze von beliebigen anderen Typen beinhalten - einschließlich Kombinationen davon.
  • Die VR-HMD 441 umfasst ein Gestell, damit ein Teilnehmer/eine Teilnehmerin die HMD 441 an seinem/ihrem Kopf tragen kann, ähnlich wie eine AR-HMD, die oben beschrieben wird. Die HMD 441 umfasst weiter eine persönliche Anzeige zum Anzeigen von Videobildern für den Teilnehmer/die Teilnehmerin 123. Die Anzeige kann eine Anzeige wie eine LCD umfassen, die in der HMD anstelle von Linsen eingebaut und so positioniert ist, dass der Teilnehmer/die Teilnehmerin wenig, falls überhaupt etwas, vom physischen Geschehen um sich herum sieht. Demgemäß bewirkt die VR-HMD 441 eine Immersion des Teilnehmers/der Teilnehmerin in die angezeigten visuellen Elemente. Die HMD 441 beinhaltet weiter eine Verarbeitungs- und Kommunikationsschaltung und kann Tonwiedergabekomponenten wie Lautsprecher oder Kopfhörer beinhalten. Darüber hinaus kann die HMD 441 Video- und Tonaufnahmekomponenten wie eine Kamera oder ein Mikrofon beinhalten.
  • Die Audio-Video-Aufnahmegeräte 424 und 434 umfassen Komponenten wie 2D- oder 3D-Kameras und Mikrofone, die für Video- und Tonaufnahmen von den Besprechungsräumen 402 und 403 und den darin befindlichen Teilnehmern genutzt werden. Die A/V-Aufnahmegeräte 424 und 434 können weiter Schaltungselemente für Kabel- oder Drahtlosvernetzung beinhalten, etwa eine Ethernet-Schnittstelle, eine Wi-Fi-Schnittstelle, ein Bluetooth-Modul oder eine Kommunikationsschnittstelle von einem anderen Typ. Bei einigen Beispielen können manche Komponenten der A/V-Aufnahmegeräte 424 und 434 in den AR-HMDs 421-423 und 431-432 beinhaltet sein.
  • Die Raumsensoren 425 und 435 beinhalten Komponenten, die Informationen aufnehmen, welche zum Bestimmen der Position und der Ansicht eines Teilnehmers/einer Teilnehmerin genutzt werden. Die Sensoren 425 und 435 beinhalten möglicherweise Näherungssensoren, RFID-Tags, Infrarot-Tags, Kompasse, Schallsensoren, Beschleunigungsmesser, Gyrosensoren oder beliebige andere Komponenten, die maßgebliche Informationen liefern können. Mindestens einige der Komponenten der Sensoren 425 und 435 können in die HMDs 421-423 und 431-432 und die AN-Aufnahmegeräte 424 und 434 integriert sein.
  • Bei einigen Beispielen beinhaltet jeder der Räume 402-404 möglicherweise weiter ein Zwischencomputersystem, das mit den HMDs, den A/V-Aufnahmegeräten und den Raumsensoren jedes Raums kommuniziert. Die Zwischencomputersysteme kommunizieren dann mit dem Konferenzsystem 401. In einigen Konfigurationen können einige der vom Konferenzsystem 401 durchgeführten Funktionen im Auftrag des Konferenzsystems 401 von diesen Zwischencomputersystemen erfüllt werden.
  • 5 ist ein Sequenzdiagramm, das ein Betriebsszenario 500, um verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen zu ermöglichen, veranschaulicht. Beim Szenario 500 wird eine Konferenzsitzung initiiert und das Konferenzsystem 401 beginnt, Ton- und Videoaufnahmen von den A/V-Aufnahmegeräten 424 und 434 nebst Sensorinformationen von den Raumsensoren 425 und 435 zu empfangen. Darüber hinaus wird bei diesem Beispiel am individuellen Raum 404 nur ein Tonteil vom Tonaufnahmegerät 444 her empfangen. Jedoch kann bei anderen Beispielen auch ein Video von einem Teilnehmer/einer Teilnehmerin, der/die die VR-HMD 441 trägt, zur Präsentation gegenüber den Teilnehmern/Teilnehmerinnen in den Besprechungsräumen 402 und 403 aufgenommen werden.
  • Das Konferenzsystem 401 nutzt dann die empfangenen Audio-, Video- und Sensorinformationen, um Positionen innerhalb jedes Besprechungsraums 402 und 403 zu bestimmen, in dem entfernte Teilnehmer/Teilnehmerinnen durch HMDs angesehen werden. Insbesondere bestimmt das Konferenzsystem 401 Positionen innerhalb des Besprechungsraums 402, an denen die Darstellungen von Teilnehmern/Teilnehmerinnen, die die HMDs 431, 432 und 441 tragen, angezeigt werden. Desgleichen bestimmt das Konferenzsystem 401 Positionen innerhalb des Besprechungsraums 403, an denen die Darstellungen von Teilnehmern/Teilnehmerinnen, die die HMDs 421-423 und 441 tragen, angezeigt werden.
  • Darüber hinaus bestimmt das Konferenzsystem 401 eine Position und eine Ansicht, von denen der Teilnehmer/die Teilnehmerin der VR-HMD 441 an der Konferenzsitzung teilnehmen wird. Die VR-Teilnehmer/VR-Teilnehmerinnen können die Konferenz von einer VR-Position innerhalb des Besprechungsraums 402, 403 oder innerhalb einer virtuellen Besprechungsraumdarstellung ansehen, in die Darstellungen von Teilnehmern/Teilnehmerinnen der Besprechungsräume 402 und 403 platziert sind. Der VR-Teilnehmer/die VR-Teilnehmerin wird dann im Rahmen einer Virtual-Reality-Besprechungserfahrung mit dem Hintergrund des ausgewählten Besprechungsraums zusätzlich zu den Darstellungen von Teilnehmern/Teilnehmerinnen am Besprechungsraum 402-403 präsentiert.
  • Bei einigen Beispielen kann dieser Positionsbestimmungsschritt während der Konferenz wiederholt werden, falls die Position eines oder mehrerer Teilnehmer/einer oder mehrerer Teilnehmerinnen geändert werden muss. Beispielsweise sind möglicherweise mehr Teilnehmer/Teilnehmerinnen bei der Konferenzsitzung, als Positionen für diese Teilnehmer/Teilnehmerinnen in einem gegebenen physischen Besprechungsraum vorhanden sind. Demgemäß werden möglicherweise nur manche Teilnehmer/Teilnehmerinnen, etwa die letzten Sprecher/Sprecherinnen, Teilnehmern/Teilnehmerinnen in einem physischen Besprechungsraum angezeigt. Wenn ein neuer Sprecher/eine neue Sprecherin redet, kann dieser Sprecher/diese Sprecherin die Position eines Sprechers/einer Sprecherin einnehmen, der/die eine Zeit lang nicht geredet hat.
  • Sobald Positionen bestimmt wurden, werden die Betriebsabläufe 600 und 700 durchgeführt, um ein Video zur Anzeige durch die AR-HMDs 421-423 und 431-432 und die VR-HMD 441 zu generieren. 6 veranschaulicht den Betrieb 600 zum Generieren von AR-Videos, während beim Betrieb 700 VR-Videos generiert werden.
  • Beim Betrieb 600 bestimmt das Konferenzsystem 401 Ansichten von jeder der AR-HMDs 421-423 und 431-432 (Schritt 601). Die Ansichten werden bestimmt aus Videos, die von jeder der AR-HMDs aufgenommen werden, und Raumsensorinformationen von den Sensoren 425 und 435. Die Ansichten werden bestimmt, damit das Video von den anderen Teilnehmern/Teilnehmerinnen an den bestimmten Orten relativ zur momentanen Ansicht der AR-HMD auf den AR-HMDs präsentiert werden kann.
  • Dann wird für jede AR-HMD 421-423 und 431-432 ein AR-Video generiert (Schritt 602). Jedes Video einer AR-HMD beinhaltet Darstellungen der anderen Teilnehmer/Teilnehmerinnen, die sich physisch nicht im selben Raum befinden. Bei einigen Beispielen beinhaltet möglicherweise jedes Video alle entfernten Teilnehmer/Teilnehmerinnen, die an ihren momentanen Positionen momentan in der Ansicht sind, sodass jede jeweilige AR-HMD das Video einfach anzeigt. Bei anderen Beispielen wird ein Video für jeden entfernten Teilnehmer/jede entfernte Teilnehmerin in der Ansicht generiert und die Position des Videos für jeden entfernten Teilnehmer/jede entfernte Teilnehmerin mit einem Tag versehen, sodass die anzeigende AR-HMD jedes Teilnehmervideo an einer Position in Übereinstimmung mit dem Tag anzeigt. Andere Varianten der Generierung von AR-Videos können ebenfalls genutzt werden.
  • Das Konferenzsystem 401 verfolgt weiterhin Änderungen der Ansichten von jeder AR-HMD (Schritt 603). Die Ansichtsänderungen werden basierend auf nachfolgenden Sensorinformationen und Videos von den AR-HMDs verfolgt, was aktualisierte Ansichten von jeder AR-HMD zur Folge hat. Zum Beispiel wendet jeder Teilnehmer/jede Teilnehmerin wahrscheinlich seinen/ihren jeweiligen Kopf oder bewegt sich in anderer Weise, sodass die Ansicht des Teilnehmers/der Teilnehmerin sich ändert und die Position jedes entfernten Teilnehmers/jeder entfernten Teilnehmerin relativ zur Änderung der Ansicht sich deshalb ebenfalls ändert. Basierend auf den Ansichtsänderungen wird das AR-Video für jede AR-HMD so angeglichen, dass die Ansichtsänderung berücksichtigt wird (Schritt 604). Das heißt, die im AR-Video angezeigten entfernten Teilnehmer/Teilnehmerinnen müssen möglicherweise so angeglichen werden, dass sie an ihren bestimmten Positionen relativ zur Perspektive der geänderten Ansicht bleiben. Die Angleichungen erfolgen sehr schnell, sodass der AR-Teilnehmer/die AR-Teilnehmerin nicht sieht, wie ein entfernter Teilnehmer/eine entfernte Teilnehmerin „springt“, um die Position aufrechtzuerhalten, wenn der AR-Teilnehmer/die AR-Teilnehmerin seinen/ihren Kopf bewegt.
  • 7 veranschaulicht den Betrieb 700 zum Generieren eines VR-Videos gleichzeitig mit dem Betrieb 600, bei dem ein AR-Video generiert wird. Beim Betrieb 700 wird eine Ansicht der VR-HMD 441 bestimmt (Schritt 701). Da sich die VR-HMD 441 in keinem Besprechungsraum befindet, umfasst die Ansicht das Geschehen des Besprechungsraums, der durch die VR-HMD 441 aus der Perspektive der Position, die für den VR-Teilnehmer/die VR-Teilnehmerin vom Konferenzsystem 401 basierend auf der momentanen Position die VR-HMD 441 bestimmt wird (z. B. ausgelöst durch Kopfneigung, Kopfdrehung etc.), ihrem Teilnehmer/ihrer Teilnehmerin präsentiert wird. Wie oben angemerkt, kann die Ansicht eine Videoaufnahme vom Besprechungsraum 402, vom Besprechungsraum 403 oder von irgendeinem anderen virtuellen Besprechungsraum sein, der vom Konferenzsystem 401 grafisch generiert wird.
  • Das VR-Video wird dann generiert, um die bestimmte Ansicht zu bilden, die Videodarstellungen jeglicher Teilnehmer/Teilnehmerinnen beinhaltet, die physisch nicht im Raum sind, der für die Ansicht aufgenommen wird (Schritt 702). Falls der Besprechungsraum 402 zum Beispiel als der Raum genutzt wird, der von der VR-HMD 441 präsentiert wird, werden Teilnehmer/Teilnehmerinnen der AR-HMDs 421-423 abhängig vom Winkel der Ansicht bereits im Video aufgenommen. Ein Video, das von Teilnehmern/Teilnehmerinnen im Besprechungsraum 403 aufgenommen wurde, falls ihre Position in der momentanen Ansicht beinhaltet ist, wird in das VR-Video an ihren bestimmten Positionen im Raum 402 eingeblendet. Daher ähnelt das VR-Video für einen VR-Teilnehmer/eine VR-Teilnehmerin stark der Ansicht, die der Teilnehmer/die Teilnehmerin hätte, falls er/sie ein AR-Teilnehmer/eine AR-Teilnehmerin innerhalb des Raums 402 wäre. Der Unterschied besteht darin, dass der physische Besprechungsraum selbst, und die physischen Teilnehmer/Teilnehmerinnen darin, direkt durch transparente Linsen angesehen würden, statt über die VR-HMD 441 reproduziert zu werden. Falls der Besprechungsraum im VR-Video bei einem anderen Beispiel einen vom Konferenzsystem 401 generierten virtuellen Besprechungsraum umfasst, müssen die Teilnehmer/Teilnehmerinnen in den Besprechungsräumen 402 und 403 alle in ihre bestimmten Positionen innerhalb dieses virtuellen Besprechungsraums eingeblendet werden.
  • Das Konferenzsystem 401 verfolgt dann Änderungen der Ansicht der VR-HMD 441 im weiteren Verlauf der Konferenzsitzung (Schritt 703). Diese Änderungen werden basierend auf von der VR-HMD 441 empfangenen Sensorinformationen verfolgt und können angeben, dass der Teilnehmer/die Teilnehmerin seinen/ihren Kopf geneigt, gedreht oder in anderer Weise bewegt hat. Das VR-Video wird dann basierend auf diesen verfolgten Änderungen angeglichen (Schritt 704). Das heißt, das VR-Video wird den Teil des Besprechungsraumgeschehens anzeigen, der der momentanen Kopfposition des Teilnehmers/der Teilnehmerin entspricht. Falls der Teilnehmer/die Teilnehmerin seinen/ihren Kopf zum Beispiel von links nach rechts bewegt, schwenkt die vom VR-Video angezeigte Ansicht so ruhig wie möglich von links nach rechts und platziert jegliche entfernten Teilnehmer/Teilnehmerinnen an ihren korrekten Positionen innerhalb des angezeigten Raums. Dieser Prozess vermittelt dem VR-Teilnehmer/der VR-Teilnehmerin effektiv eine visuelle Erfahrung, die vergleichbar mit einem Aufenthalt in dem Raum mit den anderen Teilnehmern/Teilnehmerinnen ist.
  • Unter erneuter Bezugnahme auf 5 wird, sobald das AR- und das VR-Video generiert wurden, das AR-Video an die AR-HMDs 421-423 und 431-432 in den Besprechungsräumen 402 und 403 übertragen und das VR-Video wird an die VR-HMD 441 im unabhängigen Raum 404 übertragen. Die AR-HMDs 421-423 und 431-432 und die VR-HMD 441 präsentieren dann das empfangene Video ihren jeweiligen Trägern/Trägerinnen. Desgleichen wird ein dem AR- und dem VR-Video entsprechender Tonteil mit dem AR- und dem VR-Video oder in dem AR- und dem VR-Video beinhaltet an jede HMD übertragen. Der Tonteil kann von der empfangenden HMD selbst präsentiert oder von anderen Audiogeräten innerhalb der Räume 402-404 präsentiert werden. Bei einem konkreten Beispiel kann ein Tonteil, der die Stimme eines entfernten Teilnehmers/einer entfernten Teilnehmerin im Video darstellt, von einem Sprecher/einer Sprecherin, der/die im Raum positioniert ist, präsentiert werden, um den von der Position des Sprechers/der Sprecherin im Raum ausgehenden Tonteil zu simulieren. Die Schritte von 5 erfolgen fortlaufend, um Echtzeitkommunikationen zwischen allen Teilnehmern/Teilnehmerinnen, welche die HMDs tragen, zu ermöglichen.
  • 8 veranschaulicht eine beispielhafte Ausrichtung von Teilnehmern/Teilnehmerinnen innerhalb der Räume 402-404. Insbesondere beinhaltet der Besprechungsraum 402 Teilnehmer/Teilnehmerinnen 811-813, die gerade jeweils die AR-HMDs 421-423 tragen. Der Besprechungsraum 403 beinhaltet Teilnehmer/Teilnehmerinnen 814 und 815, die gerade jeweils die AR-HMDs 421-423 tragen. Der unabhängige Raum 404 beinhaltet einen Teilnehmer/eine Teilnehmerin 816, der/die die VR-HMD 441 trägt. Bei diesem Beispiel beinhaltet der Besprechungsraum 402 einen Konferenztisch mit sechs Sitzpositionen mit einem Gerät 821-826 an jeder Position. Jedes Gerät 821-826 beinhaltet Komponenten von AN-Aufnahmegeräten 424 und Raumsensoren 425. Der Besprechungsraum 403 beinhaltet einen Konferenztisch ebenfalls mit sechs Sitzpositionen mit einem Gerät 831-836 an jeder Position. Jedes Gerät 831-836 beinhaltet Komponenten von AN-Aufnahmegeräten 434 und Raumsensoren 435. Des Weiteren ist das Tonaufnahmegerät 444 bei diesem Beispiel in die VR-HMD 441 integriert.
  • Im Betrieb haben die Geräte 822, 825, 826, 831, 832, 834 und 836 keine Teilnehmer/Teilnehmerinnen an ihren Positionen und können deshalb keinerlei Audio- oder Videoinformationen für eine Konferenzsitzung aufnehmen. Dagegen nehmen diese Geräte möglicherweise dennoch andere Informationen auf, die zum Bestimmen von Ansichten genutzt werden, und übertragen diese Informationen an das Konferenzsystem 401. Im Gegensatz dazu haben alle der Geräte 821, 823, 824, 833 und 835 Teilnehmer/Teilnehmerinnen an ihren jeweiligen Orten. Demgemäß beginnen diese Geräte, sobald die Konferenzsitzung angefangen hat, mit Ton- und Videoaufnahmen von ihren jeweiligen Teilnehmern/Teilnehmerinnen und mit der Übertragung dieser Ton- und Videoaufnahmen an das Konferenzsystem 401. Darüber hinaus beinhaltet jede der AR-HMDs 421-423 und 431-432 nach außen gerichtete Videokameras, die Videos aufnehmen und an das Konferenzsystem 401 übertragen, das die Videos zum Bestimmen einer Ansicht jedes Teilnehmers/jeder Teilnehmerin nutzt. Ferner nimmt das Aufnahmegerät 827 ein Video vom Besprechungsraum 402 zur Nutzung im VR-Video auf und stellt die visuelle Perspektive der Konferenz für den Teilnehmer/die Teilnehmerin 816 durch die VR-HMD 441 bereit.
  • Andere Aufnahmegeräte als diejenigen an den Positionen der Besprechungsteilnehmer/Besprechungsteilnehmerinnen können ebenfalls Videos von den Teilnehmern/Teilnehmerinnen aufnehmen, um gewünschte Videowinkel für entfernte Teilnehmer/Teilnehmerinnen zu liefern. Zum Beispiel kann ein Aufnahmegerät genutzt werden, das am besten den Winkel eines physischen Teilnehmers/einer physischen Teilnehmerin aufnehmen kann, der dem Winkel entspricht, in dem ein entfernter Teilnehmer/eine entfernte Teilnehmerin den physischen Teilnehmer/die physische Teilnehmerin gerade ansieht. Spezieller wird das Gerät 822, falls ein entfernter Teilnehmer/eine entfernte Teilnehmerin die Besprechung gerade von der leeren Position neben dem Gerät 822 ansieht, zum Aufnehmen des Besprechungsraums 402 für diesen Teilnehmer/diese Teilnehmerin genutzt. Des Weiteren können mehrere Aufnahmegeräte, einschließlich des Geräts 827 oder anderer nicht gezeigter Geräte, genutzt werden, um sicherzustellen, dass Videos aus so vielen maßgeblichen Winkeln wie möglich aufgenommen werden.
  • Nach dem Empfangen der Audio-, Video- und anderer Sensorinformationen führt das Konferenzsystem 401 die in den 5-7 oben beschriebenen Betriebsabläufe durch. Dank dieser Betriebsabläufe kann das Konferenzsystem 401 AR- und VR-Videos bereitstellen, die nötig sind, damit die Teilnehmer/Teilnehmerinnen 811-813, 814-815 und 816 alle die Konferenzsitzung so erfahren, als wenn sie alle im selben Raum seien.
  • 9 veranschaulicht eine beispielhafte Ausrichtung von Teilnehmern/Teilnehmerinnen innerhalb der Räume 402-404, sobald die Teilnehmer/Teilnehmerinnen die Konferenzsitzung durch vom Konferenzsystem 401 bereitgestellte Videos ansehen. Speziell hat das Konferenzsystem 401, wie gezeigt, Positionen innerhalb jedes Raums 402 und 403 für die von jedem Raum entfernten Teilnehmer/Teilnehmerinnen bestimmt. Keine Position wurde bei diesem Beispiel für den Teilnehmer/die Teilnehmerin 816 bestimmt, weil kein Video von dem Teilnehmer/der Teilnehmerin 816 aufgenommen wurde, obwohl Tonteile von dem Teilnehmer/der Teilnehmerin 816 von einer konkreten Position präsentiert werden können. Jedoch wird bei einigen Beispielen möglicherweise ein Video von dem Teilnehmer/der Teilnehmerin 816 aufgenommen und deshalb kann die freie Stelle in jedem der Räume 402 und 403 von dem Teilnehmer/der Teilnehmerin 816 eingenommen werden. Alternativ kann der Teilnehmer/die Teilnehmerin 816 statt durch ein Echtzeitvideo von dem Teilnehmer/der Teilnehmerin 816 durch einen Avatar oder eine andere grafische Darstellung dargestellt werden.
  • Wenn die Teilnehmer/Teilnehmerinnen 811-813 im Raum 402 durch ihre AR-HMDs angesehen werden, können sie ein Video von den Teilnehmern/Teilnehmerinnen 814-815 an Positionen im Raum 402 so sehen, als ob sich die Teilnehmer/Teilnehmerinnen 814-815 im Raum 402 befänden. Desgleichen können die Teilnehmer/Teilnehmerinnen 814-815 im Raum 403 ein Video von den Teilnehmern/Teilnehmerinnen 811-813 an Positionen im Raum 403 so sehen, als ob sich die Teilnehmer/Teilnehmerinnen 811-813 im Raum 403 befänden. Bei einem konkreten Beispiel ist die Ansicht 901 das, was der Teilnehmer/die Teilnehmerin 811 durch seine/ihre AR-HMD 421 sieht. Obgleich die Position des Teilnehmers/der Teilnehmerin 815 physisch leer ist, erweckt das dem Teilnehmer/der Teilnehmerin 811 präsentierte AR-Video den Anschein, dass der Teilnehmer/die Teilnehmerin 815 an dieser Position ist. Ähnlich ist die Ansicht 902 das, was der Teilnehmer/die Teilnehmerin 815 durch seine/ihre AR-HMD 432 sieht. Obgleich die Positionen der Teilnehmer/Teilnehmerinnen 811 und 812 physisch leer sind, erweckt das dem Teilnehmer/der Teilnehmerin 815 präsentierte AR-Video den Anschein, dass die Teilnehmer/Teilnehmerinnen 811 und 812 an diesen Positionen sind.
  • Wenn sich die Ansichten 901 und 902 ändern (z. B. wenn die Teilnehmer/Teilnehmerinnen 811 und 815 ihre Köpfe neigen oder schwenken), verfolgt das Konferenzsystem 401 diese Ansichtsänderungen und gleicht das AR-Video für jeden Teilnehmer/jede Teilnehmerin entsprechend an, um sicherzustellen, dass die entfernten Teilnehmer/Teilnehmerinnen weiterhin an ihren korrekten Positionen präsentiert werden. Demzufolge präsentiert das AR-Video im Fall der Ansicht 901, wenn der Teilnehmer/die Teilnehmerin 811 seinen/ihren Kopf mehr nach links dreht, möglicherweise den Teilnehmer/die Teilnehmerin 815 nicht mehr, da sich der Teilnehmer/die Teilnehmerin 815 aus der Ansicht wegbewegt, und präsentiert, wie der Teilnehmer/die Teilnehmerin 814 neben dem Teilnehmer/der Teilnehmerin 811 „sitzt“, wenn sich der Teilnehmer/die Teilnehmerin 814 in die Ansicht hineinbewegt.
  • Was den Teilnehmer/die Teilnehmerin 816 angeht, so umfasst das dem Teilnehmer/der Teilnehmerin 816 präsentierte VR-Video eine vom Gerät 827 aufgenommene Ansicht 903. Vom Konferenzsystem 401 wird in die Ansicht 903 das Video von dem Teilnehmer/der Teilnehmerin 814 eingeblendet, sodass es aussieht, als ob der Teilnehmer/die Teilnehmerin 814 gerade zwischen den Teilnehmern/Teilnehmerinnen 811 und 812 im Raum 402 sitzt. Wenn der Teilnehmer/die Teilnehmerin 816 seinen/ihren Kopf nach rechts bewegt, ändert sich die Ansicht 903 und der Teilnehmer/die Teilnehmerin 813 rückt in die Ansicht, wie vom Gerät 827 aufgenommen. Darüber hinaus wird weiter rechts ein Video von dem Teilnehmer/der Teilnehmerin 815 weiter in das VR-Video eingeblendet, sodass der Teilnehmer/die Teilnehmerin 816 in der Lage ist, den Teilnehmer/die Teilnehmerin 815 so zu sehen, als ob der Teilnehmer/die Teilnehmerin 815 im Raum 432sei. Das Gerät 827 muss sich möglicherweise selbst bewegen, um die Ansicht 903 in Übereinstimmung mit den Kopfbewegungen des Teilnehmers/der Teilnehmerin 816 aufzunehmen, oder das Gerät 827 nimmt möglicherweise ein Video auf, das breit genug ist, damit das Konferenzsystem 401 die Ansicht innerhalb des bereits aufgenommenen Videos lediglich bewegen muss, um das VR-Video für den Teilnehmer/die Teilnehmerin 816 zu generieren.
  • Um die Wirksamkeit des AR-Videos zu erhöhen, wird darüber hinaus ein Tonteil von jedem entfernten Teilnehmer/jeder entfernten Teilnehmerin an der Position dieses Teilnehmers/dieser Teilnehmerin vom Gerät abgespielt. Falls zum Beispiel der Teilnehmer/die Teilnehmerin 814 gerade spricht, präsentiert das Gerät 822 den Tonteil von dem Teilnehmer/der Teilnehmerin 814, sodass die Teilnehmer/Teilnehmerinnen 811-813 den Teilnehmer/die Teilnehmerin 814 so hören, als ob der Teilnehmer/die Teilnehmerin 814 wirklich an der Position in dem im AR-Video präsentierten Raum 402sei. Jedes Gerät in den Räumen 402 und 403 kann den für den Teilnehmer/die Teilnehmerin 816 aufgenommenen Tonteil präsentieren. Falls dagegen für den Teilnehmer/die Teilnehmerin 816 eine Position in einem oder beiden der Räume 401 und 403 bestimmt wird, lässt sich der Tonteil so präsentieren, als ob er von dieser bestimmten Position käme.
  • Weiter sei angemerkt, dass die Besprechungsräume 402 und 403 beide wahrscheinlich Objekte enthalten, einschließlich der physischen Teilnehmer/Teilnehmerinnen selbst, welche die Ansicht anderer Teilnehmer/Teilnehmerinnen verdecken könnten. Um einen entfernten Teilnehmer/eine entfernte Teilnehmerin, der/die sich physisch innerhalb des Raums befindet, bestmöglich zu emulieren, muss deshalb ein Video von den entfernten Teilnehmern/Teilnehmerinnen diese Objekte berücksichtigen. Zum Beispiel verdeckt das Gerät 826 möglicherweise die Ansicht des entfernten Teilnehmers/der entfernten Teilnehmerin 815 in der Ansicht 901. Das AR-Video von dem entfernten Teilnehmer/der entfernten Teilnehmerin 815 wird entsprechend generiert, sodass es in der Ansicht 901 für den Teilnehmer/die Teilnehmerin 811 so aussieht, als ob der Teilnehmer/die Teilnehmerin 815 hinter dem Gerät 826 ist, genau wie es der Fall wäre, wenn der Teilnehmer/die Teilnehmerin 815 physisch im Raum 402 wäre.
  • Bei einigen Beispielen fügt das Konferenzsystem 401 möglicherweise weiter Präsentationsinformationen in die von jedem Teilnehmer/jeder Teilnehmerin angesehenen AR- und VR-Videos ein. Zum Beispiel beinhalten die Informationen möglicherweise Präsentationsfolien, die infolge einer Einblendung in die AR- oder die VR-Videos auf eine Wand oder einen Tisch/Schreibtisch des Besprechungsraums 402 oder 403 projiziert scheinen. Alternativ könnten die Informationen in einer von jeglichen physischen Merkmalen unabhängigen Weise präsentiert werden. Desgleichen können vom Konferenzsystem 401 noch andere Informationen in die AR- und die VR-Videos aufgenommen werden, etwa Chatfenster, auf die Konferenzsitzung bezogene Kontextinformationen oder beliebige andere visuelle Informationen, die ein Teilnehmer/eine Teilnehmerin nützlich finden könnte.
  • 10 veranschaulicht ein Konferenzsystem 1000. Das Konferenzsystem 1000 ist ein Beispiel für das Konferenzsystem 101, wenngleich das System 101 alternative Konfigurationen nutzen könnte. Das Konferenzsystem 1000 umfasst eine Kommunikationsschnittstelle 1001, eine Benutzerschnittstelle 1002 und ein Verarbeitungssystem 1003. Das Verarbeitungssystem 1003 ist mit der Kommunikationsschnittstelle 1001 und der Benutzerschnittstelle 1002 verbunden. Das Verarbeitungssystem 1003 beinhaltet eine Verarbeitungsschaltung 1005 und ein Speichergerät 1006, das eine Betriebssoftware 1007 speichert. Das Konferenzsystem 1000 kann weitere wohl bekannte Komponenten wie eine Batterie und ein Gehäuse beinhalten, die der Klarheit halber nicht gezeigt werden. Das Konferenzsystem 1000 ist möglicherweise ein Personal Computer, ein Server oder irgendeine andere Computereinrichtung - einschließlich Kombinationen davon. Bei einigen Beispielen ist das Konferenzsystem 1000 möglicherweise über mehrere Orte repliziert, um die Verarbeitungslast zu verteilen, die zum Funktionieren, wie hierin beschrieben, erforderlich ist.
  • Die Kommunikationsschnittstelle 1001 umfasst Komponenten, die über Kommunikationsverbindungen wie Netzkarten, Ports, HF-Transceiver, Verarbeitungsschaltungen und -software oder beliebige andere Kommunikationsgeräte kommunizieren. Die Kommunikationsschnittstelle 1001 kann konfiguriert sein, um über metallische, drahtlose oder optische Verbindungen zu kommunizieren. Die Kommunikationsschnittstelle 1001 kann konfiguriert sein, um TDM, IP, Ethernet, optische Vernetzung, Drahtlosprotokolle, Kommunikationssignalisierung oder irgendein anderes Kommunikationsformat zu nutzen - einschließlich Kombinationen davon.
  • Die Benutzerschnittstelle 1002 umfasst Komponenten, die mit einem Benutzer/einer Benutzerin interagieren, um Benutzereingaben zu empfangen und Medien und/oder Informationen zu präsentieren. Die Benutzerschnittstelle 1002 beinhaltet möglicherweise einen Lautsprecher, ein Mikrofon, Schaltflächen, eine Beleuchtung, einen Anzeigebildschirm, einen Berührungsbildschirm, ein Berührungspad, ein Scrollrad, einen Kommunikationsport oder irgendeine andere Benutzereingabe-/ -ausgabeeinrichtung - einschließlich Kombinationen davon. Die Benutzerschnittstelle 1002 ist bei einigen Beispielen möglicherweise weggelassen.
  • Die Verarbeitungsschaltung 1005 umfasst einen Mikroprozessor und andere Schaltungen, welche die Betriebssoftware 1007 aus dem Speichergerät 1006 abrufen und ausführen. Das Speichergerät 1006 umfasst ein nicht transientes Speichermedium wie ein Plattenlaufwerk, ein Flashlaufwerk, eine Datenspeicherschaltung oder irgendeine andere Speichereinrichtung. Die Verarbeitungsschaltung 1005 ist in der Regel auf einer Leiterplatte montiert, die auch mit dem Speichergerät 1006 und Teilen der Kommunikationsschnittstelle 1001 und der Benutzerschnittstelle 1002 bestückt sein kann. Die Betriebssoftware 1007 umfasst Computerprogramme, Firmware oder beliebige andere Formen maschinenlesbarer Verarbeitungsbefehle. Die Betriebssoftware 1007 beinhaltet ein Positions- und Ansichtsbestimmungsmodul 1008 und ein Videogeneriermodul 1009. Die Betriebssoftware 1007 beinhaltet möglicherweise weiter ein Betriebssystem, Dienstprogramme, Treiber, Netzschnittstellen, Anwendungen oder Software von beliebigen anderen Typen. Wenn die Betriebssoftware 1007 von der Verarbeitungsschaltung 1005 ausgeführt wird, weist sie das Verarbeitungssystem 1003 dazu an, das Konferenzsystem 1000, wie hierin beschrieben, zu betreiben.
  • Insbesondere weist die Betriebssoftware 1007 das Verarbeitungssystem 1003 dazu an, während einer Konferenzsitzung ein erstes Video zu empfangen, das von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde. Das Positions- und Ansichtsbestimmungsmodul 1008 weist das Verarbeitungssystem 1003 dazu an, eine erste Position für den ersten Teilnehmer/die erste Teilnehmerin am physischen Besprechungsort zu bestimmen und eine Ansicht einer am Kopf angebrachten Augmented-Reality(AR)-Anzeige, die von einem zweiten Teilnehmer/einer zweiten Teilnehmerin am physischen Besprechungsort getragen wird, zu bestimmen. Das Videogeneriermodul 1009 weist das Verarbeitungssystem 1003 dazu an, aus dem ersten Video ein AR-Video zu generieren, das den ersten Teilnehmer/die erste Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin an der ersten Position erscheinen lässt, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird, und das AR-Video an die am Kopf angebrachte AR-Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer/der zweiten Teilnehmerin zu übertragen.
  • Die obige Beschreibung und die assoziierten Figuren lehren die beste Ausführungsform der Erfindung. Die folgenden Ansprüche legen den Schutzbereich der Erfindung fest. Es ist zu beachten, dass einige Aspekte der besten Ausführungsform möglicherweise nicht in den Schutzbereich der Erfindung, wie von den Ansprüchen festgelegt, fallen. Der Fachmann erkennt, dass die oben beschriebenen Merkmale auf verschiedene Weisen kombiniert werden können, um mehrere Varianten der Erfindung zu bilden. Folglich wird die Erfindung nicht auf die speziellen Ausführungsformen, die oben beschrieben werden, sondern nur durch die folgenden Ansprüche und ihre Äquivalente begrenzt.

Claims (10)

  1. Nicht transientes computerlesbares Speichermedium mit darauf gespeicherten Befehlen, das, wenn es von einer Verarbeitungsschaltung eines Konferenzsystems ausgeführt wird, das Konferenzsystem dazu anweist, ein Verfahren zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen durchzuführen, wobei das Verfahren Folgendes umfasst: Empfangen eines ersten Videos, während einer Konferenzsitzung, das von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde; Identifizieren einer oder mehrerer verfügbarer physischer Teilnehmerpositionen am Besprechungsort, wobei jede eine Position umfasst, an der sich der erste Teilnehmer physisch befinden könnte, wenn sich der physische Teilnehmer am Besprechungsort befände; Bestimmen einer ersten Position für den ersten Teilnehmer/die erste Teilnehmerin aus der einen oder den mehreren verfügbarer physischer Teilnehmerpositionen am physischen Besprechungsort; Bestimmen einer Ansicht einer am Kopf angebrachten Augmented-Reality(AR)-Anzeige, die von einem zweiten Teilnehmer/einer zweiten Teilnehmerin am physischen Besprechungsort getragen wird; Generieren, aus dem ersten Video, eines AR-Videos, das den ersten Teilnehmer/die erste Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin erscheinen lässt, als ob der erste Teilnehmer/die erste Teilnehmerin sich physisch an der ersten Position befände, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird; und Übertragen des AR-Videos an die am Kopf angebrachte AR-Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer/der zweiten Teilnehmerin.
  2. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Verfahren weiter Folgendes umfasst: Empfangen eines zweiten Videos, das vom physischen Besprechungsort aufgenommen wurde; Bestimmen einer zweiten Position am physischen Besprechungsort für einen dritten Teilnehmer/eine dritte Teilnehmerin, der/die vom physischen Besprechungsort entfernt ist; Generieren, aus dem ersten Video und dem zweiten Video, eines Virtual-Reality(VR)-Videos, das den physischen Besprechungsraum mit dem ersten Teilnehmer/der ersten Teilnehmerin an der ersten Position von einem Ansichtspunkt der zweiten Position aus präsentiert; und Übertragen des VR-Videos an eine am Kopf angebrachte VR-Anzeige, die von dem dritten Teilnehmer/der dritten Teilnehmerin getragen wird, zur Präsentation gegenüber dem dritten Teilnehmer/der dritten Teilnehmerin.
  3. Nicht transientes computerlesbares Medium nach Anspruch 2, wobei das Generieren des AR-Videos weiter eine Darstellung des dritten Teilnehmers/der dritten Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin an der zweiten Position erscheinen lässt, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird.
  4. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Verfahren weiter Folgendes umfasst: Empfangen eines ersten Tonteils, der von dem ersten Teilnehmer/der ersten Teilnehmerin zusammen mit dem ersten Video aufgenommen wurde; Übertragen des ersten Tonteils an ein Audiogerät am physischen Besprechungsort, wobei das Audiogerät den ersten Tonteil so präsentiert, dass der zweite Teilnehmer/die zweite Teilnehmerin den Tonteil als im Wesentlichen von der ersten Position kommend hört.
  5. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Bestimmen der Ansicht der am Kopf angebrachten AR-Anzeige Folgendes umfasst: Empfangen von Ausrichtungsinformationen von der am Kopf angebrachten AR-Anzeige; Empfangen von Positionsinformationen zu dem zweiten Teilnehmer/der zweiten Teilnehmerin aus Quellen, die von außerhalb der am Kopf angebrachten AR-Anzeige kommen Identifizieren der Ansicht der am Kopf angebrachten AR-Anzeige basierend auf den Ausrichtungsinformationen und den Positionsinformationen.
  6. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Generieren des AR-Videos weiter Folgendes umfasst: Einblenden zusätzlicher visueller Informationen, die mit der Konferenzsitzung assoziiert sind, sodass die zusätzlichen visuellen Informationen für den zweiten Teilnehmer/die zweite Teilnehmerin an einer Position innerhalb des physischen Besprechungsorts erscheinen, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird.
  7. Konferenzsystem zum Ermöglichen von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen, wobei das Konferenzsystem Folgendes umfasst: eine Kommunikationsschnittstelle, die konfiguriert ist, um während einer Konferenzsitzung ein erstes Video zu empfangen, das von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die von einem physischen Besprechungsort entfernt ist, aufgenommen wurde; eine Verarbeitungsschaltung, die konfiguriert ist, um eine oder mehrere verfügbare physische Teilnehmerpositionen am Besprechungsort zu identifizieren, eine erste Position für den ersten Teilnehmer/die erste Teilnehmerin von der einen oder den mehreren verfügbaren physischen Teilnehmerpositionen am physischen Besprechungsort zu bestimmen, eine Ansicht einer am Kopf angebrachten Augmented-Reality(AR)-Anzeige, die von einem zweiten Teilnehmer/einer zweiten Teilnehmerin am physischen Besprechungsort getragen wird, zu bestimmen und aus dem ersten Video ein AR-Video zu generieren, das den ersten Teilnehmer/die erste Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin erscheinen lässt, als ob der erste Teilnehmer/die erste Teilnehmerin sich physisch an der ersten Position befände, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird; und wobei die Kommunikationsschnittstelle konfiguriert ist, um das AR-Video an die am Kopf angebrachte AR-Anzeige zur Präsentation gegenüber dem zweiten Teilnehmer/der zweiten Teilnehmerin zu übertragen.
  8. Konferenzsystem nach Anspruch 7, das weiter Folgendes umfasst: dass die Kommunikationsschnittstelle konfiguriert ist, um das zweite Video zu empfangen, das vom physischen Besprechungsort aufgenommen wurde; dass die Verarbeitungsschaltung konfiguriert ist, um eine zweite Position am physischen Besprechungsort für einen dritten Teilnehmer/eine dritte Teilnehmerin, der/die vom physischen Besprechungsort entfernt ist, zu bestimmen und aus dem ersten Video und dem zweiten Video ein Virtual-Reality(VR)-Video zu generieren, das den physischen Besprechungsraum mit dem ersten Teilnehmer/der ersten Teilnehmerin an der ersten Position von einem Ansichtspunkt der zweiten Position präsentiert; und dass die Kommunikationsschnittstelle konfiguriert ist, um das VR-Video an eine am Kopf angebrachte VR-Anzeige, die von dem dritten Teilnehmer/der dritten Teilnehmerin getragen wird, zur Präsentation gegenüber dem dritten Teilnehmer/der dritten Teilnehmerin zu übertragen.
  9. Konferenzsystem nach Anspruch 8, wobei die zum Generieren des AR-Videos konfigurierte Verarbeitungsschaltung die Verarbeitungsschaltung umfasst, die konfiguriert ist, um eine Darstellung des dritten Teilnehmers/der dritten Teilnehmerin für den zweiten Teilnehmer/die zweite Teilnehmerin an der zweiten Position erscheinen zu lassen, wenn es durch die am Kopf angebrachte AR-Anzeige angesehen wird.
  10. Konferenzsystem nach Anspruch 7, das weiter Folgendes umfasst: dass die Kommunikationsschnittstelle konfiguriert ist, um einen ersten Tonteil zu empfangen, der von dem ersten Teilnehmer/der ersten Teilnehmerin zusammen mit dem ersten Video aufgenommen wurde, und den ersten Tonteil an ein Audiogerät am physischen Besprechungsort zu übertragen, wobei das Audiogerät den ersten Tonteil so präsentiert, dass der zweite Teilnehmer/die zweite Teilnehmerin den Tonteil als im Wesentlichen von der ersten Position kommend hört.
DE102015100911.0A 2014-01-24 2015-01-22 Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität Active DE102015100911B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461931234P 2014-01-24 2014-01-24
US61/931,234 2014-01-24

Publications (2)

Publication Number Publication Date
DE102015100911A1 DE102015100911A1 (de) 2015-07-30
DE102015100911B4 true DE102015100911B4 (de) 2019-04-18

Family

ID=53523084

Family Applications (3)

Application Number Title Priority Date Filing Date
DE102015100930.7A Active DE102015100930B4 (de) 2014-01-24 2015-01-22 Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102015100926.9A Active DE102015100926B4 (de) 2014-01-24 2015-01-22 Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102015100911.0A Active DE102015100911B4 (de) 2014-01-24 2015-01-22 Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE102015100930.7A Active DE102015100930B4 (de) 2014-01-24 2015-01-22 Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102015100926.9A Active DE102015100926B4 (de) 2014-01-24 2015-01-22 Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität

Country Status (3)

Country Link
US (3) US9524588B2 (de)
KR (3) KR101734635B1 (de)
DE (3) DE102015100930B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11886767B2 (en) 2022-06-17 2024-01-30 T-Mobile Usa, Inc. Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses

Families Citing this family (249)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US20120030595A1 (en) * 2010-07-29 2012-02-02 Seiko Epson Corporation Information storage medium, terminal apparatus, and image generation method
US20150355463A1 (en) * 2013-01-24 2015-12-10 Sony Corporation Image display apparatus, image display method, and image display system
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9479730B1 (en) 2014-02-13 2016-10-25 Steelcase, Inc. Inferred activity based conference enhancement method and system
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160125652A1 (en) * 2014-11-03 2016-05-05 Avaya Inc. Augmented reality supervisor display
US10495726B2 (en) * 2014-11-13 2019-12-03 WorldViz, Inc. Methods and systems for an immersive virtual reality system using multiple active markers
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
KR101659849B1 (ko) * 2015-01-09 2016-09-29 한국과학기술원 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체
AU2015382440B2 (en) * 2015-02-13 2018-08-09 Halliburton Energy Services, Inc. Using augmented reality to collect, process and share information
US9690103B2 (en) * 2015-02-16 2017-06-27 Philip Lyren Display an image during a communication
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
KR101577986B1 (ko) * 2015-03-24 2015-12-16 (주)해든브릿지 양방향 가상 현실 구현 시스템
US10721280B1 (en) * 2015-05-29 2020-07-21 Sprint Communications Company L.P. Extended mixed multimedia reality platform
KR102319432B1 (ko) 2015-07-13 2021-10-29 현대모비스 주식회사 이종 오디오 방송간 전환 방법
EP3335418A1 (de) * 2015-08-14 2018-06-20 PCMS Holdings, Inc. System und verfahren für telepräsenz mit mehreren ansichten in der erweiterten realität
US11504492B2 (en) * 2015-10-08 2022-11-22 ResMed Pty Ltd Air conduit for a respiratory device
KR101763636B1 (ko) * 2015-10-15 2017-08-02 한국과학기술원 헤드 마운트 디스플레이를 이용한 협업 방법
CA2941333A1 (en) 2015-10-30 2017-04-30 Wal-Mart Stores, Inc. Virtual conference room
CA2948761A1 (en) * 2015-11-23 2017-05-23 Wal-Mart Stores, Inc. Virtual training system
US10095928B2 (en) 2015-12-22 2018-10-09 WorldViz, Inc. Methods and systems for marker identification
US10204397B2 (en) 2016-03-15 2019-02-12 Microsoft Technology Licensing, Llc Bowtie view representing a 360-degree image
US9686510B1 (en) 2016-03-15 2017-06-20 Microsoft Technology Licensing, Llc Selectable interaction elements in a 360-degree video stream
US9924238B2 (en) * 2016-03-21 2018-03-20 Screenovate Technologies Ltd. Method and a system for using a computerized source device within the virtual environment of a head mounted device
CN105828062A (zh) * 2016-03-23 2016-08-03 常州视线电子科技有限公司 无人机3d虚拟现实拍摄系统
WO2017172528A1 (en) 2016-04-01 2017-10-05 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
CN109416842B (zh) * 2016-05-02 2023-08-29 华纳兄弟娱乐公司 在虚拟现实和增强现实中的几何匹配
US10242501B1 (en) 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
WO2018005235A1 (en) * 2016-06-30 2018-01-04 Pcms Holdings, Inc. System and method for spatial interaction using automatically positioned cameras
US9756286B1 (en) 2016-08-05 2017-09-05 Microsoft Technology Licensing, Llc Communication event
KR20180017736A (ko) * 2016-08-10 2018-02-21 (주) 씽크브릿지 Hmd 및 그 hmd의 제어 방법
WO2018039071A1 (en) * 2016-08-23 2018-03-01 Pcms Holdings, Inc. Method and system for showing remote meeting sites from user-dependent viewpoints
US20210044779A1 (en) * 2016-08-29 2021-02-11 Koninklijke Kpn N.V. Communicating in a Virtual Reality Environment
US10169919B2 (en) * 2016-09-09 2019-01-01 Oath Inc. Headset visual displacement for motion correction
KR102739633B1 (ko) * 2016-10-24 2024-12-09 엘지전자 주식회사 Hmd 디바이스
US20180123813A1 (en) * 2016-10-31 2018-05-03 Bragi GmbH Augmented Reality Conferencing System and Method
KR102044003B1 (ko) * 2016-11-23 2019-11-12 한국전자통신연구원 영상 회의를 위한 전자 장치 및 그의 동작 방법
CN108377355A (zh) * 2016-11-28 2018-08-07 中兴通讯股份有限公司 一种视频数据处理方法、装置及设备
US10645178B2 (en) * 2016-11-29 2020-05-05 Ncr Corporation Omni-channel virtual reality (VR) collaboration
US12020667B2 (en) 2016-12-05 2024-06-25 Case Western Reserve University Systems, methods, and media for displaying interactive augmented reality presentations
EP3548958A4 (de) * 2016-12-05 2020-07-29 Case Western Reserve University Systeme, verfahren und medien zur anzeige interaktiver darstellungen der erweiterten realität
US10466777B2 (en) * 2016-12-07 2019-11-05 LogMeln, Inc. Private real-time communication between meeting attendees during a meeting using one or more augmented reality headsets
US9953650B1 (en) * 2016-12-08 2018-04-24 Louise M Falevsky Systems, apparatus and methods for using biofeedback for altering speech
US10182210B1 (en) * 2016-12-15 2019-01-15 Steelcase Inc. Systems and methods for implementing augmented reality and/or virtual reality
US10701319B2 (en) * 2016-12-20 2020-06-30 Intracom Systems, Llc Enhanced virtual and/or augmented communications interface
DE102016125268A1 (de) * 2016-12-21 2018-06-21 Electronic Ventures Limited Verfahren und System zur Anzeige von omnidirektionalen Videosequenzen
CN110168630B (zh) * 2017-02-03 2021-12-28 杰创科系统有限公司 增强视频现实
KR102574874B1 (ko) * 2017-02-03 2023-09-05 베스텔 일렉트로닉 사나이 베 티카레트 에이에스 헤드 마운트 디스플레이(hmd)를 이용한 화상회의를 위한 개선된 방법 및 시스템
WO2018175335A1 (en) * 2017-03-24 2018-09-27 Pcms Holdings, Inc. Method and system for discovering and positioning content into augmented reality space
US10403050B1 (en) 2017-04-10 2019-09-03 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US11782669B2 (en) 2017-04-28 2023-10-10 Microsoft Technology Licensing, Llc Intuitive augmented reality collaboration on visual data
WO2018207046A1 (en) * 2017-05-09 2018-11-15 Within Unlimited, Inc. Methods, systems and devices supporting real-time interactions in augmented reality environments
WO2018226508A1 (en) 2017-06-09 2018-12-13 Pcms Holdings, Inc. Spatially faithful telepresence supporting varying geometries and moving users
US10304239B2 (en) 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US11288913B2 (en) * 2017-08-09 2022-03-29 Igt Augmented reality systems methods for displaying remote and virtual players and spectators
US20190057551A1 (en) * 2017-08-17 2019-02-21 Jpmorgan Chase Bank, N.A. Systems and methods for combined augmented and virtual reality
US11145125B1 (en) 2017-09-13 2021-10-12 Lucasfilm Entertainment Company Ltd. Communication protocol for streaming mixed-reality environments between multiple devices
KR102434402B1 (ko) 2017-09-19 2022-08-22 한국전자통신연구원 혼합현실 콘텐츠를 제공하는 장치 및 방법
WO2019067482A1 (en) 2017-09-29 2019-04-04 Zermatt Technologies Llc DISPLAYING APPLICATIONS IN A SIMULATED REALITY ENVIRONMENT ENVIRONMENT
US11062570B2 (en) * 2017-11-11 2021-07-13 Casinotable Group Inc. Method, system, and apparatus for administering table games to real and virtual users simultaneously
CN109842792B (zh) * 2017-11-27 2021-05-11 中兴通讯股份有限公司 视频播放方法、装置、系统及存储介质
DE102017128680A1 (de) * 2017-12-04 2019-06-06 Vitero GmbH - Gesellschaft für mediale Kommunikationslösungen Verfahren und Vorrichtung zur Durchführung von Fernbesprechungen mit mehreren Teilnehmern
KR101918262B1 (ko) 2017-12-19 2018-11-13 (주) 알큐브 혼합 현실 서비스 제공 방법 및 시스템
US10504274B2 (en) 2018-01-05 2019-12-10 Microsoft Technology Licensing, Llc Fusing, texturing, and rendering views of dynamic three-dimensional models
DE102018201336A1 (de) * 2018-01-29 2019-08-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Virtual-Reality-Konferenzsystem
GB201804383D0 (en) * 2018-03-19 2018-05-02 Microsoft Technology Licensing Llc Multi-endpoint mixed reality meetings
KR20190112407A (ko) 2018-03-26 2019-10-07 (주)씨소 홀로포테이션 컨텐츠 운용 방법
FR3080935B1 (fr) * 2018-05-02 2020-05-22 Argo Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur.
EP3788457A1 (de) 2018-05-03 2021-03-10 PCMS Holdings, Inc. Systeme und verfahren für physische nähe und/oder gestenbasierte verkettung von vr-erfahrungen
US10924566B2 (en) 2018-05-18 2021-02-16 High Fidelity, Inc. Use of corroboration to generate reputation scores within virtual reality environments
US11651555B2 (en) 2018-05-31 2023-05-16 Microsoft Technology Licensing, Llc Re-creation of virtual environment through a video call
EP3599544A1 (de) * 2018-07-25 2020-01-29 Nokia Technologies Oy Vorrichtung, verfahren, computerprogramm zur ermöglichung des zugang auf inhalt mit vermittelter realität durch einen entfernten benutzer
KR102035841B1 (ko) * 2018-08-08 2019-10-24 김보언 가상현실 이벤트 제공방법, 장치 및 프로그램
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US10554931B1 (en) 2018-10-01 2020-02-04 At&T Intellectual Property I, L.P. Method and apparatus for contextual inclusion of objects in a conference
DE102018220275A1 (de) * 2018-11-26 2020-05-28 Volkswagen Aktiengesellschaft Verfahren zur Durchführung einer Videokonferenz, Vorrichtung zur Verwendung bei dem Verfahren sowie dessen Umsetzung im Fahrzeug
US11175728B2 (en) 2019-02-06 2021-11-16 High Fidelity, Inc. Enabling negative reputation submissions in manners that reduce chances of retaliation
CN113646731B (zh) 2019-04-10 2025-09-23 苹果公司 用于参与共享布景的技术
KR20220002444A (ko) * 2019-05-31 2022-01-06 애플 인크. 환경에 기초한 통신 데이터 제시
US11812194B1 (en) * 2019-06-21 2023-11-07 Apple Inc. Private conversations in a virtual setting
CN110290211A (zh) * 2019-06-27 2019-09-27 北京大米科技有限公司 多人联机的通信方法、电子设备和可读存储介质
US11704874B2 (en) * 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
EP4014468A4 (de) 2019-08-12 2022-10-19 Magic Leap, Inc. Systeme und verfahren für virtuelle und erweiterte realität
US11159766B2 (en) 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
CN119148960A (zh) 2019-09-26 2024-12-17 苹果公司 控制显示器
DE112020001415T5 (de) 2019-09-27 2021-12-09 Apple Inc. Umgebung für Fernkommunikation
KR102314782B1 (ko) * 2019-10-28 2021-10-19 네이버랩스 주식회사 3차원 증강현실 표시 방법
US10917613B1 (en) * 2020-01-03 2021-02-09 International Business Machines Corporation Virtual object placement in augmented reality environments
WO2021175920A1 (en) 2020-03-06 2021-09-10 Telefonaktiebolaget Lm Ericsson (Publ) Methods providing video conferencing with adjusted/modified video and related video conferencing nodes
US11444988B2 (en) * 2020-03-17 2022-09-13 Qualcomm Incorporated Signaling of scene description for multimedia conferencing
US10924710B1 (en) * 2020-03-24 2021-02-16 Htc Corporation Method for managing avatars in virtual meeting, head-mounted display, and non-transitory computer readable storage medium
US20210320810A1 (en) * 2020-04-10 2021-10-14 Samsung Electronics Co., Ltd. Volumetric conversational services using network edge
US11232640B2 (en) 2020-04-28 2022-01-25 Spatial Systems Inc. Augmented reality interaction, modeling, and annotation system
CN111580658B (zh) * 2020-05-09 2024-04-26 维沃移动通信有限公司 基于ar的会议方法、装置及电子设备
US12126937B2 (en) 2020-05-12 2024-10-22 Truemeeting, Ltd. Method and system for virtual 3D communications having multiple participants per camera
US11805157B2 (en) 2020-05-12 2023-10-31 True Meeting Inc. Sharing content during a virtual 3D video conference
US11790535B2 (en) 2020-05-12 2023-10-17 True Meeting Inc. Foreground and background segmentation related to a virtual three-dimensional (3D) video conference
US20210358193A1 (en) 2020-05-12 2021-11-18 True Meeting Inc. Generating an image from a certain viewpoint of a 3d object using a compact 3d model of the 3d object
US11870939B2 (en) 2020-05-12 2024-01-09 True Meeting Inc. Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference
US11769302B2 (en) * 2020-06-05 2023-09-26 Verb Surgical Inc. Remote surgical mentoring
CN111736694B (zh) * 2020-06-11 2024-03-05 上海境腾信息科技有限公司 一种远程会议的全息呈现方法、存储介质及系统
WO2021262507A1 (en) 2020-06-22 2021-12-30 Sterling Labs Llc Displaying a virtual display
US11475652B2 (en) 2020-06-30 2022-10-18 Samsung Electronics Co., Ltd. Automatic representation toggling based on depth camera field of view
US12026901B2 (en) 2020-07-01 2024-07-02 Samsung Electronics Co., Ltd. Efficient encoding of depth data across devices
US11475634B2 (en) 2020-07-02 2022-10-18 Meta Platforms Technologies, Llc Generating an extended-reality lobby window for communication between networking system users
US11302063B2 (en) 2020-07-21 2022-04-12 Facebook Technologies, Llc 3D conversations in an artificial reality environment
US11233973B1 (en) 2020-07-23 2022-01-25 International Business Machines Corporation Mixed-reality teleconferencing across multiple locations
US11388116B2 (en) 2020-07-31 2022-07-12 International Business Machines Corporation Augmented reality enabled communication response
US11502861B2 (en) 2020-08-17 2022-11-15 T-Mobile Usa, Inc. Simulated auditory space for online meetings
US12273402B2 (en) 2020-08-28 2025-04-08 Tmrw Foundation Ip S.Àr.L. Ad hoc virtual communication between approaching user graphical representations
US12273400B2 (en) 2020-08-28 2025-04-08 Tmrw Foundation Ip S.Àr.L. Graphical representation-based user authentication system and method
US12107907B2 (en) * 2020-08-28 2024-10-01 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US12034785B2 (en) * 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US12200032B2 (en) 2020-08-28 2025-01-14 Tmrw Foundation Ip S.Àr.L. System and method for the delivery of applications within a virtual environment
US12432265B2 (en) 2020-08-28 2025-09-30 Tmrw Group Ip System and method for virtually broadcasting from within a virtual environment
US12273401B2 (en) 2020-08-28 2025-04-08 Tmrw Foundation Ip S.Àr.L. System and method to provision cloud computing-based virtual computing resources within a virtual environment
CN111800599B (zh) * 2020-09-09 2020-12-01 芋头科技(杭州)有限公司 基于智能眼镜进行数据流获取和显示的方法及智能眼镜
US11756225B2 (en) 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
IL298268B2 (en) * 2020-10-20 2024-05-01 Katmai Tech Inc A web-based virtual video conferencing environment with navigable presenters and their applications
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11750745B2 (en) 2020-11-18 2023-09-05 Kelly Properties, Llc Processing and distribution of audio signals in a multi-party conferencing environment
US11461067B2 (en) * 2020-12-17 2022-10-04 International Business Machines Corporation Shared information fields with head mounted displays
US11463499B1 (en) 2020-12-18 2022-10-04 Vr Edu Llc Storage and retrieval of virtual reality sessions state based upon participants
US11556172B1 (en) 2020-12-22 2023-01-17 Meta Platforms Technologies, Llc Viewpoint coordination on artificial reality models
US11330021B1 (en) 2020-12-31 2022-05-10 Benjamin Slotznick System and method of mirroring a display of multiple video feeds in videoconferencing systems
US11546385B1 (en) 2020-12-31 2023-01-03 Benjamin Slotznick Method and apparatus for self-selection by participant to display a mirrored or unmirrored video feed of the participant in a videoconferencing platform
US11621979B1 (en) * 2020-12-31 2023-04-04 Benjamin Slotznick Method and apparatus for repositioning meeting participants within a virtual space view in an online meeting user interface based on gestures made by the meeting participants
US11907521B2 (en) 2021-01-28 2024-02-20 Samsung Electronics Co., Ltd. Augmented reality calling interface
US11470162B2 (en) 2021-01-30 2022-10-11 Zoom Video Communications, Inc. Intelligent configuration of personal endpoint devices
KR102472115B1 (ko) * 2021-02-04 2022-11-29 (주)스마트큐브 다자간 온라인 업무 협업을 위한 증강현실 기반의 화상회의를 제공하기 위한 장치 및 이를 위한 방법
EP4295314A4 (de) 2021-02-08 2025-04-16 Sightful Computers Ltd Gemeinsame inhaltsnutzung in erweiterter realität
JP7665161B2 (ja) 2021-02-08 2025-04-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるユーザ相互作用
KR20250103813A (ko) 2021-02-08 2025-07-07 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
US12323739B2 (en) * 2021-02-12 2025-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video conference apparatus, video conference method and computer program using a spatial virtual reality environment
US20220264055A1 (en) * 2021-02-12 2022-08-18 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V Video Conference Apparatus, Video Conference Method and Computer Program Using a Spatial Virtual Reality Environment
US11765332B2 (en) 2021-03-02 2023-09-19 True Meeting Inc. Virtual 3D communications with participant viewpoint adjustment
US11943072B2 (en) 2021-03-30 2024-03-26 Snap Inc. Providing a room preview within a virtual conferencing system
US11689696B2 (en) * 2021-03-30 2023-06-27 Snap Inc. Configuring participant video feeds within a virtual conferencing system
US12081899B2 (en) * 2021-04-16 2024-09-03 Zoom Video Communications, Inc. Immersive scenes
EP4309374A1 (de) * 2021-04-19 2024-01-24 Meta Platforms Technologies, Llc Am handgelenk tragbare vorrichtung zum automatischen umschalten zwischen video und anderen rufmodi auf basis von sensordaten
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
WO2022233434A1 (en) * 2021-05-07 2022-11-10 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangements for graphically visualizing data transfer in a 3d virtual environment
US12266067B2 (en) 2021-05-25 2025-04-01 Samsung Electronics Co., Ltd. Virtual avatars and physical object interaction based on proximity in augmented reality applications
US11663750B2 (en) * 2021-06-25 2023-05-30 Hewlett-Packard Development Company, L.P. Image data bars
US11461962B1 (en) 2021-06-28 2022-10-04 Meta Platforms Technologies, Llc Holographic calling for artificial reality
US12099327B2 (en) 2021-06-28 2024-09-24 Meta Platforms Technologies, Llc Holographic calling for artificial reality
WO2023284958A1 (en) * 2021-07-15 2023-01-19 Telefonaktiebolaget Lm Ericsson (Publ) Adjusting pose of video object in 3d video stream from user device based on augmented reality context information from augmented reality display device
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
KR102673264B1 (ko) 2021-08-10 2024-06-05 서울시립대학교 산학협력단 실시간으로 테이블 단위의 매장 정보를 제공하기 위한 장치 및 이를 위한 방법
US11831814B2 (en) 2021-09-03 2023-11-28 Meta Platforms Technologies, Llc Parallel video call and artificial reality spaces
US11838340B2 (en) * 2021-09-20 2023-12-05 International Business Machines Corporation Dynamic mute control for web conferencing
US11979244B2 (en) 2021-09-30 2024-05-07 Snap Inc. Configuring 360-degree video within a virtual conferencing system
US11921970B1 (en) 2021-10-11 2024-03-05 Meta Platforms Technologies, Llc Coordinating virtual interactions with a mini-map
US20250007985A1 (en) * 2021-11-12 2025-01-02 Case Western Reserve University Systems, methods, and media for controlling shared extended reality presentations
US11770422B2 (en) 2021-12-18 2023-09-26 Zoom Video Communications, Inc. Real-time engagement analytics for communication sessions
US11676329B1 (en) 2022-01-07 2023-06-13 Meta Platforms Technologies, Llc Mobile device holographic calling with front and back camera capture
CN114390241B (zh) * 2022-01-14 2024-07-23 西安万像电子科技有限公司 一种vr远程会议方法及装置
US12380238B2 (en) 2022-01-25 2025-08-05 Sightful Computers Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US12175614B2 (en) 2022-01-25 2024-12-24 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US12321468B2 (en) 2022-02-02 2025-06-03 Meta Platforms Technologies, Llc Obscuring objects in data streams using machine learning
US20230252734A1 (en) 2022-02-07 2023-08-10 Tencent Americal Llc Apparatus for creating shared virtual ar conversational space on the network for multiple participants
US11798204B2 (en) * 2022-03-02 2023-10-24 Qualcomm Incorporated Systems and methods of image processing based on gaze detection
USD1029076S1 (en) 2022-03-10 2024-05-28 Campfire 3D, Inc. Augmented reality pack
US11949527B2 (en) * 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat
WO2023239708A1 (en) * 2022-06-07 2023-12-14 Canon U.S.A., Inc. System and method for authenticating presence in a room
US12212705B2 (en) 2022-06-15 2025-01-28 Meta Platforms Technologies, Llc Controlling an augmented call based on user gaze
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US12022235B2 (en) 2022-07-20 2024-06-25 Katmai Tech Inc. Using zones in a three-dimensional virtual environment for limiting audio and video
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US12009938B2 (en) 2022-07-20 2024-06-11 Katmai Tech Inc. Access control in zones
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US12368821B2 (en) 2022-07-28 2025-07-22 Katmai Tech Inc. Optimizing physics for static objects in a three-dimensional virtual environment
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US20240062457A1 (en) * 2022-08-18 2024-02-22 Microsoft Technology Licensing, Llc Adaptive adjustments of perspective views for improving detail awareness for users associated with target entities of a virtual environment
US12200409B2 (en) 2022-08-26 2025-01-14 Meta Platforms Technologies, Llc Authentic eye region capture through artificial reality headset
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment
EP4595015A1 (de) 2022-09-30 2025-08-06 Sightful Computers Ltd Adaptive inhaltsdarstellung mit erweiterter realität in mehreren physikalischen umgebungen
US11893162B1 (en) * 2023-01-26 2024-02-06 Zoom Video Communications, Inc. Using wearable devices to capture actions of participants in a meeting
JP2024120350A (ja) * 2023-02-24 2024-09-05 Kddiアジャイル開発センター株式会社 データ処理装置、データ処理方法及びデータ処理システム
JP2024120348A (ja) * 2023-02-24 2024-09-05 Kddiアジャイル開発センター株式会社 データ処理装置、データ処理方法及びデータ処理システム
JP2024120349A (ja) * 2023-02-24 2024-09-05 Kddiアジャイル開発センター株式会社 データ処理装置、データ処理方法及びデータ処理システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545700B1 (en) 1997-06-25 2003-04-08 David A. Monroe Virtual video teleconferencing system
US20030067536A1 (en) 2001-10-04 2003-04-10 National Research Council Of Canada Method and system for stereo videoconferencing
US20040104935A1 (en) 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US20120249591A1 (en) 2011-03-29 2012-10-04 Giuliano Maciocci System for the rendering of shared digital interfaces relative to each user's point of view

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4400724A (en) * 1981-06-08 1983-08-23 The United States Of America As Represented By The Secretary Of The Army Virtual space teleconference system
JPH0433490A (ja) * 1990-05-30 1992-02-04 Sony Corp テレビ会議システム
WO1994030017A1 (en) * 1993-06-03 1994-12-22 Target Technologies, Inc. Videoconferencing system
US5745161A (en) * 1993-08-30 1998-04-28 Canon Kabushiki Kaisha Video conference system
US5572248A (en) * 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6330022B1 (en) * 1998-11-05 2001-12-11 Lucent Technologies Inc. Digital processing apparatus and method to support video conferencing in variable contexts
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
GB2349055B (en) * 1999-04-16 2004-03-24 Mitel Corp Virtual meeting rooms with spatial audio
US6409599B1 (en) 1999-07-19 2002-06-25 Ham On Rye Technologies, Inc. Interactive virtual reality performance theater entertainment system
ES2231448T3 (es) * 2000-01-27 2005-05-16 Siemens Aktiengesellschaft Sistema y procedimiento para el procesamiento de voz enfocado a la vision.
US7057582B2 (en) * 2000-03-15 2006-06-06 Information Decision Technologies, Llc Ruggedized instrumented firefighter's self contained breathing apparatus
DE10041104C1 (de) * 2000-08-22 2002-03-07 Siemens Ag Einrichtung und Verfahren zur Kommunikation zwischen einer mobilen Datenverarbeitungsvorrichtung und einer stationären Datenverarbeitungsvorrichtung
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7764247B2 (en) * 2006-02-17 2010-07-27 Microsoft Corporation Adaptive heads-up user interface for automobiles
US8223186B2 (en) * 2006-05-31 2012-07-17 Hewlett-Packard Development Company, L.P. User interface for a video teleconference
ATE512517T1 (de) * 2007-10-01 2011-06-15 Hewlett Packard Development Co Systeme und verfahren zur verwaltung über mehrere netzwerke verteilter virtueller kollaborationssysteme
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
DE102008027832A1 (de) * 2008-06-11 2009-12-17 Vrmagic Gmbh Ophthalmoskop-Simulator
US20110085018A1 (en) * 2009-10-09 2011-04-14 Culbertson W Bruce Multi-User Video Conference Using Head Position Information
KR20110066298A (ko) 2009-12-11 2011-06-17 한국전자통신연구원 협력형 혼합현실 서버, 단말기 및 시스템과 이를 이용한 협력형 혼합 현실 서비스방법
US8503539B2 (en) * 2010-02-26 2013-08-06 Bao Tran High definition personal computer (PC) cam
US9767481B2 (en) 2010-04-30 2017-09-19 American Teleconferencing Services, Ltd. Systems, methods, and computer programs for providing advertisements in a conference user interface
JP2012032931A (ja) 2010-07-29 2012-02-16 Hitachi Ltd Rfidタグ及びrfidタグの製造方法
US8395655B2 (en) * 2010-08-15 2013-03-12 Hewlett-Packard Development Company, L.P. System and method for enabling collaboration in a video conferencing system
KR101299910B1 (ko) 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
WO2012022361A1 (en) 2010-08-19 2012-02-23 Sony Ericsson Mobile Communications Ab Method for providing multimedia data to a user
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US8780014B2 (en) * 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US20120170800A1 (en) * 2010-12-30 2012-07-05 Ydreams - Informatica, S.A. Systems and methods for continuous physics simulation from discrete video acquisition
US20120197991A1 (en) * 2011-01-28 2012-08-02 Hewlett-Packard Development Company, L.P. Method and system for intuitive interaction over a network
US20120204120A1 (en) * 2011-02-08 2012-08-09 Lefar Marc P Systems and methods for conducting and replaying virtual meetings
US8581958B2 (en) * 2011-04-18 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for establishing video conferences using portable electronic devices
US8581956B2 (en) * 2011-04-29 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for communicating focus of attention in a video conference
US8675067B2 (en) * 2011-05-04 2014-03-18 Microsoft Corporation Immersive remote conferencing
WO2013006170A1 (en) * 2011-07-06 2013-01-10 Hewlett-Packard Development Company, L.P. Telepresence portal system
US8912979B1 (en) * 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
US9311742B1 (en) 2011-07-18 2016-04-12 Motion Reality, Inc. Navigating an avatar through a virtual world in a motion capture simulation environment
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US9886552B2 (en) * 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US8767306B1 (en) * 2011-09-22 2014-07-01 Google Inc. Display system
US9538133B2 (en) * 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
US9008487B2 (en) * 2011-12-06 2015-04-14 Alcatel Lucent Spatial bookmarking
US20130194389A1 (en) * 2012-01-31 2013-08-01 Ben Vaught Head-mounted display device to measure attentiveness
US20130194304A1 (en) 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US9153043B1 (en) * 2012-02-16 2015-10-06 Google, Inc. Systems and methods for providing a user interface in a field of view of a media item
US9035878B1 (en) * 2012-02-29 2015-05-19 Google Inc. Input system
US8643951B1 (en) * 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
GB2502063A (en) * 2012-05-14 2013-11-20 Sony Corp Video cueing system and method for sporting event
US9152226B2 (en) * 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
US9088688B2 (en) * 2012-09-05 2015-07-21 Cisco Technology, Inc. System and method for collaboration revelation and participant stacking in a network environment
US9111258B2 (en) * 2012-10-25 2015-08-18 Microsoft Technology Licensing, Llc Connecting to meetings with barcodes or other watermarks on meeting content
US10200654B2 (en) * 2013-02-27 2019-02-05 Szymczyk Matthew Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space
US20140300758A1 (en) * 2013-04-04 2014-10-09 Bao Tran Video processing systems and methods
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
WO2015164461A1 (en) * 2014-04-23 2015-10-29 President And Fellows Of Harvard College Telepresence apparatus and method enabling a case-study approach to lecturing and teaching

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545700B1 (en) 1997-06-25 2003-04-08 David A. Monroe Virtual video teleconferencing system
US20040104935A1 (en) 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US20030067536A1 (en) 2001-10-04 2003-04-10 National Research Council Of Canada Method and system for stereo videoconferencing
US20120249591A1 (en) 2011-03-29 2012-10-04 Giuliano Maciocci System for the rendering of shared digital interfaces relative to each user's point of view

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11886767B2 (en) 2022-06-17 2024-01-30 T-Mobile Usa, Inc. Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses
US12314626B2 (en) 2022-06-17 2025-05-27 T-Mobile Usa, Inc. Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses

Also Published As

Publication number Publication date
DE102015100926B4 (de) 2019-06-13
US9524588B2 (en) 2016-12-20
US9959676B2 (en) 2018-05-01
US10013805B2 (en) 2018-07-03
KR101665229B1 (ko) 2016-10-11
KR20150099402A (ko) 2015-08-31
US20150215351A1 (en) 2015-07-30
US20150213650A1 (en) 2015-07-30
US20150215581A1 (en) 2015-07-30
KR101734635B1 (ko) 2017-05-15
KR101656172B1 (ko) 2016-09-08
DE102015100911A1 (de) 2015-07-30
KR20150099401A (ko) 2015-08-31
DE102015100930A1 (de) 2015-08-13
DE102015100930B4 (de) 2019-06-13
KR20150099403A (ko) 2015-08-31
DE102015100926A1 (de) 2015-08-13

Similar Documents

Publication Publication Date Title
DE102015100911B4 (de) Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
EP2893700B1 (de) Erzeugung und darstellung synthetisierter ansichten mit mehreren videoströmen in videokonferenzsitzungen mit telepräsenz
US8471889B1 (en) Adjusting an image for video conference display
EP2348671B1 (de) Konferenzendgerät, konferenzserver, konferenzsystem und datenverarbeitungsverfahren
US20250039347A1 (en) Telepresence system and method
US20200186753A1 (en) Video conference realization method, system, and computer storage medium
DE102020124815A1 (de) System und vorrichtung für benutzergesteuerte virtuelle kamera für volumetrisches video
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102004063577A1 (de) Verfahren und System zur Anzeige von Gesichtsmerkmalen auf nichtplanaren Oberflächen
CN104349111A (zh) 视频会议会场创建方法及系统
US11405587B1 (en) System and method for interactive video conferencing
DE102014004069A1 (de) Verfahren, Softwareprodukt und Vorrichtung zur Steuerung einer Konferenz
CN105933637A (zh) 一种视频通信的方法及系统
CN117616748A (zh) 具有多种空间交互模式的视频会议系统
DE112021001105T5 (de) Remote-videozusammenarbeit in echtzeit
KR20220126660A (ko) Ar 안면인식을 활용한 메타버스 화상 교육 플랫폼 제공 방법 및 네트워크 시스템
US11792355B1 (en) Using synchronous recording by front and back smartphone cameras for creating immersive video content and for video conferencing
DE102021213661A1 (de) Systeme und verfahren zur anzeidge von benutzern, die an einer kommunikationssitzung teilnehmen
DE112018006602T5 (de) Virtuelles fenster für telefonkonferenzen
DE102012007441B4 (de) Virtuelle Transportmaschine: Task-Ins-Cubicle
KR102619761B1 (ko) 텔레프리젠테이션 화상 회의 시스템을 위한 서버
DE102024108614A1 (de) Datenverarbeitungsvorrichtung, datenverarbeitungssystem und verfahren
Sermon Telematic Dreaming, Extimacy Exhibition

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final