DE102015100926A1 - Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität - Google Patents

Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität Download PDF

Info

Publication number
DE102015100926A1
DE102015100926A1 DE102015100926.9A DE102015100926A DE102015100926A1 DE 102015100926 A1 DE102015100926 A1 DE 102015100926A1 DE 102015100926 A DE102015100926 A DE 102015100926A DE 102015100926 A1 DE102015100926 A1 DE 102015100926A1
Authority
DE
Germany
Prior art keywords
participant
video
view
hmd
meeting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015100926.9A
Other languages
English (en)
Other versions
DE102015100926B4 (de
Inventor
Tamar Baruza
Ori Modai
Yair Wiener
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avaya Inc
Original Assignee
Avaya Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avaya Inc filed Critical Avaya Inc
Publication of DE102015100926A1 publication Critical patent/DE102015100926A1/de
Application granted granted Critical
Publication of DE102015100926B4 publication Critical patent/DE102015100926B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • H04L65/4038Arrangements for multi-party communication, e.g. for conferences with floor control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Abstract

Hierin offenbarte Ausführungsformen sehen Verfahren, Systeme und computerlesbare Speichermedien zum Präsentieren einer Besprechung zwischen entfernten Teilnehmern/Teilnehmerinnen vor. In einer konkreten Ausführungsform sieht ein Verfahren vor, dass während einer Konferenzsitzung Ansichtsinformationen kompiliert werden, die zum Bestimmen einer von dem ersten Teilnehmer/der ersten Teilnehmerin gesehenen ersten Ansicht genutzt werden. Das Verfahren sieht weiter vor, dass ein Konferenzvideo empfangen wird, das mindestens ein Video umfasst, das von einem zweiten Teilnehmer/einer zweiten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde. Zudem sieht das Verfahren vor, dass das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video so präsentiert wird, dass der zweite Teilnehmer/die zweite Teilnehmerin an einer ersten Position eines Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.

Description

  • VERWANDTE ANMELDUNGEN
  • Diese Anmeldung ist verwandt mit und beansprucht Priorität über die vorläufige US-Patentanmeldung Nr. 61/931,234, mit dem Titel „Visual communication in augmented reality“, eingereicht am 24. Januar 2014, die durch Bezugnahme hiermit vollumfänglich aufgenommen wird.
  • STAND DER TECHNIK
  • Konferenzschaltungssysteme ermöglichen seit langem Audiokommunikationen zwischen Teilnehmern/Teilnehmerinnen an unterschiedlichen Orten. Neuerdings erlauben einige Konferenzsysteme Echtzeitvideokommunikationen zwischen Teilnehmern/Teilnehmerinnen. Mithin kann ein Teilnehmer/eine Teilnehmerin an einem Ort Live-Videos und -Tonteile von anderen sprechenden Teilnehmern/Teilnehmerinnen ansehen, obgleich diese anderen Teilnehmer/Teilnehmerinnen möglicherweise sehr weit weg sind. Die Fähigkeit, die anderen Teilnehmer/Teilnehmerinnen anzusehen, gewährleistet eine produktivere Konferenz, denn die Teilnehmer/Teilnehmerinnen können gegenseitig ihre Gesichtsausdrücke, ihre Gesten oder andere visuelle Informationen ansehen, die während eines Audioanrufs nicht gesehen werden können.
  • Wenngleich Videokonferenzen die Erfahrung von einander entfernt befindlichen Teilnehmern/Teilnehmerinnen sicherlich verbessert haben, können Videokonferenzen entfernten Teilnehmern/Teilnehmerinnen bisher noch nicht das Gefühl vermitteln, sie befänden sich alle im selben Raum. Das heißt, wenn Teilnehmer/Teilnehmerinnen in einem Konferenzraum sitzen und andere Teilnehmer/Teilnehmerinnen auf einem Anzeigebildschirm beobachten, wird dadurch nicht hinlänglich simuliert, dass diese anderen Teilnehmer/Teilnehmerinnen innerhalb des Konferenzraums sind. Jedoch sind nun Virtual-Reality-Headsets erhältlich, die eine visuelle Immersion von Benutzern/Benutzerinnen in visuelle Erfahrungen, etwa Videospiele, bewirken. Ähnlich können Augmented-Reality-Headsets einem Benutzer/einer Benutzerin Informationen anzeigen, während dieser Benutzer/diese Benutzerin das Geschehen um sich herum weiter ansehen kann.
  • ÜBERBLICK
  • Hierin offenbarte Ausführungsformen sehen Verfahren, Systeme und computerlesbare Speichermedien zum Präsentieren einer Besprechung zwischen entfernten Teilnehmern/Teilnehmerinnen vor. In einer konkreten Ausführungsform sieht ein Verfahren vor, dass während einer Konferenzsitzung Ansichtsinformationen kompiliert werden, die zum Bestimmen einer von dem ersten Teilnehmer/der ersten Teilnehmerin gesehenen ersten Ansicht genutzt werden. Das Verfahren sieht weiter vor, dass ein Konferenzvideo empfangen wird, das mindestens ein Video umfasst, das von einem zweiten Teilnehmer/einer zweiten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde. Zudem sieht das Verfahren vor, dass das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video so präsentiert wird, dass der zweite Teilnehmer/die zweite Teilnehmerin an einer ersten Position eines Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.
  • In einigen Ausführungsformen umfasst das Konferenzvideo weiter ein Video vom Besprechungsort und das Verfahren sieht weiter vor, dass das Video vom Besprechungsort präsentiert wird.
  • In einigen Ausführungsformen sieht das Verfahren weiter vor, dass die Ansichtsinformationen an einen Konferenzserver übertragen werden. In diesen Ausführungsformen nutzt der Konferenzserver die Ansichtsinformationen, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video zu verarbeiten, um einen Ansichtswinkel der ersten Ansicht relativ zur ersten Position des Besprechungsorts zu berücksichtigen.
  • In einigen Ausführungsformen sieht das Verfahren weiter vor, dass die Ansichtsinformationen genutzt werden, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video zu verarbeiten, um einen Ansichtswinkel der ersten Ansicht relativ zur ersten Position des Besprechungsorts zu berücksichtigen.
  • In einigen Ausführungsformen umfasst der Besprechungsort den physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin.
  • In einigen Ausführungsformen sieht das Verfahren weiter vor, dass bestimmt wird, wo sich die erste Position innerhalb des physischen Orts befindet.
  • In einigen Ausführungsformen umfasst das Konferenzvideo weiter ein Video, das von einem dritten Teilnehmer/einer dritten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde, und das Verfahren sieht weiter vor, dass das von dem dritten Teilnehmer/der dritten Teilnehmerin aufgenommene Video so präsentiert wird, dass der dritte Teilnehmer/die dritte Teilnehmerin an einer zweiten Position des Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.
  • In einigen Ausführungsformen beinhaltet das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video einen von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommenen Tonteil und das Verfahren sieht weiter vor, dass der von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Tonteil präsentiert wird, sodass der von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Tonteil von der ersten Position des Besprechungsorts zu kommen scheint.
  • In einigen Ausführungsformen umfasst das Kompilieren der Ansichtsinformationen, dass ein Video von einem physischen Geschehen außerhalb vor der HMD aufgenommen wird.
  • In einigen Ausführungsformen sieht das Verfahren weiter vor, dass Informationen von einem Konferenzserver, welche die erste Position des Besprechungsorts angeben, empfangen werden.
  • In einer anderen Ausführungsform ist eine am Kopf angebrachte Anzeige (Head Mounted Display, HMD) zum Präsentieren einer Besprechung zwischen entfernten Teilnehmern/Teilnehmerinnen vorgesehen. Die HMD beinhaltet ein Verarbeitungssystem, das konfiguriert ist, um während einer Konferenzsitzung Ansichtsinformationen zu kompilieren, die zum Bestimmen einer ersten Ansicht genutzt werden, die von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die die HMD trägt, gesehen wird. Die HMD beinhaltet weiter eine Kommunikationsschnittstelle, die konfiguriert ist, um ein Konferenzvideo zu empfangen, das mindestens ein Video umfasst, das von einem zweiten Teilnehmer/einer zweiten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde. Zudem beinhaltet die HMD ein Anzeigesystem, das konfiguriert ist, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video so zu präsentieren, dass der zweite Teilnehmer/die zweite Teilnehmerin an einer ersten Position eines Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht eine Konferenzumgebung zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • 2 veranschaulicht ein Verfahren zum Betreiben einer am Kopf angebrachten Anzeige zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • 3 veranschaulicht ein Betriebsszenario einer Konferenzumgebung zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • 4 veranschaulicht ein Betriebsszenario einer Konferenzumgebung zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • 5 veranschaulicht eine Konferenzumgebung zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • 6 veranschaulicht beispielhafte Raumausrichtungen, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen präsentiert wird.
  • 7 veranschaulicht beispielhafte Raumausrichtungen, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen präsentiert wird.
  • 8 veranschaulicht eine beispielhafte Teilnehmeransicht, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen präsentiert wird.
  • 9 veranschaulicht eine beispielhafte Teilnehmeransicht, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen präsentiert wird.
  • 10 veranschaulicht eine beispielhafte Teilnehmeransicht, wenn verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen präsentiert wird.
  • 11 veranschaulicht ein am Kopf angebrachtes Gerät zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • 12 veranschaulicht einen beispielhaften Formfaktor für ein am Kopf angebrachtes Gerät zum Präsentieren von verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung und die assoziierten Figuren lehren die beste Ausführungsform der Erfindung. Zum Zweck des Lehrens der Erfindungsprinzipien werden einige herkömmliche Aspekte der besten Ausführungsform möglicherweise vereinfacht oder weggelassen. Die folgenden Ansprüche legen den Schutzbereich der Erfindung fest. Es ist zu beachten, dass einige Aspekte der besten Ausführungsform möglicherweise nicht in den Schutzbereich der Erfindung, wie von den Ansprüchen festgelegt, fallen. Mithin erkennt der Fachmann Varianten der besten Ausführungsform, die in den Schutzbereich der Erfindung fallen. Der Fachmann erkennt, dass die unten beschriebenen Merkmale auf verschiedene Weisen kombiniert werden können, um mehrere Varianten der Erfindung zu bilden. Folglich wird die Erfindung nicht auf die unten beschriebenen speziellen Beispiele, sondern nur von den Ansprüchen und ihren Äquivalenten begrenzt.
  • 1 veranschaulicht eine Konferenzumgebung 100. Die Konferenzumgebung 100 beinhaltet ein Konferenzsystem 101, ein Teilnehmeraufnahmesystem 102 und eine am Kopf angebrachte Anzeige (Head Mounted Display, HMD) 103. Das Konferenzsystem 101 und das Teilnehmeraufnahmesystem 102 kommunizieren über eine Kommunikationsverbindung 112. Das Konferenzsystem 101 und die AR-HMD 103 kommunizieren über eine Kommunikationsverbindung 111. Der Teilnehmer/die Teilnehmerin 122 trägt die HMD 103 und beide sind an einem Ort 131.
  • Im Betrieb ist das Konferenzsystem 101 konfiguriert, um Konferenzteilnehmern/Konferenzteilnehmerinnen an unterschiedlichen Orten eine Konferenzerfahrung derart zu vermitteln, als seien die Teilnehmer/Teilnehmerinnen am selben Ort. Hierzu nutzt das Konferenzsystem 101 AR oder VR abhängig davon, ob die HMD 103 konfiguriert ist, um ein Augmented-Reality(AR)- oder ein Virtual-Reality(VR)-Video zu präsentieren. Dank AR kann der Teilnehmer/die Teilnehmerin 122 die Welt um sich herum sehen, während die HMD 103 zusätzliche Informationen einblendet. In einigen AR-Geräten, etwa einem Smartphone, nimmt das Gerät Videobilder auf und zeigt diese Bilder auf einem Bildschirm so ähnlich an, wie wenn der Bildschirm als Sucher für eine Kamera genutzt wird. AR-Informationen werden auf den angezeigten Bildschirmbildern im Verhältnis zu dem eingeblendet, was im Bild angezeigt wird. Die AR-Informationen können von der HMD 103 bestimmt oder lokal gespeichert werden, etwa ein Indikator, der die Aufmerksamkeit des Teilnehmers/der Teilnehmerin 122 auf einen konkreten Punkt lenkt, während andere Informationen vom Konferenzsystem 101 (oder einem anderen System außerhalb der HMD 103) bestimmt oder gespeichert werden können, etwa Nachrichten für eine Chatsitzung. Zum Beispiel werden Informationen zu einem Geschäft mit einer Schaufensterfront, die im Bild aufgenommen wurde, möglicherweise auf dem Bildschirm neben der Schaufensterfront angezeigt. Bei einem anderen Beispiel verfügt eine Person in der AR-Ansicht möglicherweise über Informationen, die in der Nähe der Person angezeigt werden, etwa visitenkartenartige Informationen, sodass sie einfacher referenziert werdenkönnen. Alternativ werden die AR-Informationen möglicherweise auf einem durchsichtigen Medium angezeigt, etwa transparenten Linsen, aufgrund deren sich das Anzeigen der Bilder erübrigt, die durch die Linsen gesehen werden können.
  • Im Gegensatz dazu erlaubt VR in der Regel nicht, dass der Teilnehmer/die Teilnehmerin 122 die Welt um sich herum sehen kann. Deshalb erfolgt eine Immersion des Teilnehmers/der Teilnehmerin 122 in visuelle Elemente, die von der HMD 103 bereitgestellt werden. VR kann ein für die VR-Präsentation aufgenommenes Geschehen der realen Welt anzeigen oder kann ein von einem Computersystem generiertes virtuelles Geschehen anzeigen. Ungeachtet dessen, ob das Geschehen real oder virtuell ist, kann das VR-Video ähnlich wie AR Informationen einblenden, die nicht zu diesem Geschehen gehören. In einigen Ausführungsformen ist die HMD 103 möglicherweise konfiguriert, um sowohl AR- als auch VR-Videos zu präsentieren. In solchen Fällen kann eine Konferenzsitzung von AR zu VR oder umgekehrt wechseln, wenn sie dem Teilnehmer/der Teilnehmerin 122 durch die HMD 103 präsentiert wird. Während zum Beispiel ein AR-Video präsentiert wird, können andere Teilnehmer/Teilnehmerinnen als der Teilnehmer/die Teilnehmerin 122, die sich physisch am Ort 131 befinden, den Ort 131 verlassen. Sobald dies passiert, kann die HMD 103 von der Präsentation des AR-Videos zur Präsentation des VR-Videos wechseln, da der Teilnehmer/die Teilnehmerin 122 die anderen Teilnehmer/Teilnehmerinnen am Ort 131 nicht mehr ansehen muss.
  • Für die Zwecke des Ermöglichens einer Konferenz nutzt die mit dem Konferenzsystem 101 zusammenarbeitende HMD 103 AR- oder VR-Videos, um aufgenommene Videos von Konferenzteilnehmern/Konferenzteilnehmerinnen, die sich nicht am selben Ort befinden wie der Teilnehmer/die Teilnehmerin 122, zu präsentieren. Zum Beispiel ist der Teilnehmer/die Teilnehmerin 122 am Ort 131, während der Teilnehmer/die Teilnehmerin 123 nicht dort ist. Der Teilnehmer/die Teilnehmerin 123 kann in einem Raum auf demselben Korridor wie der Ort 131 sein oder auf der anderen Seite der Welt. Ungeachtet dessen, wo sich der Teilnehmer/die Teilnehmerin 123 befindet, erlaubt die HMD 103, die von dem Teilnehmer/der Teilnehmerin 122 getragen wird, dem Teilnehmer/der Teilnehmerin 122 das Ansehen des Teilnehmers/der Teilnehmerin 123 an einer Position am Ort 131. Daher kann der Teilnehmer/die Teilnehmerin 122, statt dass er/sie lediglich ein von dem Teilnehmer/der Teilnehmerin 123 aufgenommenes Video auf einer Anzeige ansieht, den Teilnehmer/die Teilnehmerin 123 am Ort 131 „sehen“, wodurch die Erfahrung emuliert wird, dass sich der Teilnehmer/die Teilnehmerin 123 wirklich am selben Ort befindet wie der Teilnehmer/die Teilnehmerin 122.
  • 2 veranschaulicht ein Verfahren zum Betreiben der HMD 103 anhand eines Beispiels für das Präsentieren verbesserter visueller Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen. Während einer vom Konferenzsystem 101 ermöglichten Konferenzsitzung kompiliert die HMD 103 Ansichtsinformationen, die zum Bestimmen einer von dem Teilnehmer/der Teilnehmerin 122 gesehenen Ansicht genutzt werden (Schritt 201). Die Ansichtsinformationen können aus diversen in der HMD 103 beinhalteten oder durch diese in anderer Weise zugänglichen Sensoren kompiliert werden, etwa 3D-Gyrosensoren, Beschleunigungsmessern, einem Kompass, einer Blickregistrierung, einer nach vorn gerichteten Kamera oder Sensoren von beliebigen anderen Typen, die Informationen liefern, die zum Bestimmen der von dem Teilnehmer/der Teilnehmerin 122 aus gesehenen Ansicht genutzt werden können. Bei einigen Beispielen verarbeitet die HMD 103 die Ansichtsinformationen zum Bestimmen der Ansicht des Teilnehmers/der Teilnehmerin 122, während bei anderen Beispielen mindestens ein Teil der Verarbeitung der Ansichtsinformationen auch vom Konferenzsystem 101 vorgenommen wird.
  • Die HMD 103 empfängt das Konferenzvideo, das mindestens ein Video umfasst, das von dem Teilnehmer/der Teilnehmerin 123, der/die vom Ort 131 entfernt ist, aufgenommen wurde (Schritt 202). Im Fall eines VR-Videos wird auch durch die HMD 103 ein Video von einem Besprechungsortsgeschehen empfangen. Wie oben angemerkt, kann es sich beim Besprechungsort um einen realen aufgenommenen Ort handeln (z. B. den Ort des Teilnehmers/der Teilnehmerin 123 oder eines anderen Teilnehmers/einer anderen Teilnehmerin) oder um einen virtuellen Ort, der vom Konferenzsystem 101, von der HMD 103 oder einem anderen System gerendert wird. Im Gegensatz dazu erweitert ein AR-Video visuell die Welt um den Teilnehmer/die Teilnehmerin 122 herum. Daher muss die HMD 122 keine Videos vom Besprechungsort empfangen, da der Besprechungsort der Ort 131 ist.
  • Die HMD 103 präsentiert dann das von dem Teilnehmer/der Teilnehmerin 123 aufgenommene Video so, dass der Teilnehmer/die Teilnehmerin 123 an einer Position des Besprechungsorts in der ersten Ansicht für den Teilnehmer/die Teilnehmerin 122 erscheint (Schritt 203). Vorzugsweise ist die Position des Besprechungsorts eine Position, an der sich ein Teilnehmer/eine Teilnehmerin befände, falls der Besprechungsort ein physischer Ort wäre. Bei einem AR-Video-Beispiel ist der Ort 131 ein Besprechungsraum mit einem Konferenztisch. Der Teilnehmer/die Teilnehmerin 123 wird deshalb durch die HMD 103 visuell an einer Position um den Konferenztisch platziert, die sonst von einem Teilnehmer/einer Teilnehmerin, der/die sich wie der Teilnehmer/die Teilnehmerin 122 am Ort 131 befindet, hätte eingenommen werden können. Alternativ wird bei einem VR-Beispiel ein Video von dem Teilnehmer/der Teilnehmerin 123 möglicherweise auf das Video vom Besprechungsraumgeschehen eingeblendet, oder es können, falls der Besprechungsraum der Ort des Teilnehmers/der Teilnehmerin 123 ist, das Besprechungsraumvideo und das Video von dem Teilnehmer/der Teilnehmerin 123 dasselbe Video sein.
  • 3 veranschaulicht einen Betrieb 300 der Konferenzumgebung 100, um verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen zu präsentieren. Beim Betrieb 300 wird ein Video vom Konferenzsystem 101 verarbeitet, bevor es an die HMD 103 übertragen wird. Beim Betrieb 200 werden vom Aufnahmesystem 102 bei Schritt 1 Videobilder von dem Teilnehmer/der Teilnehmerin 123 aufgenommen. Die Videobilder können abhängig von den Fähigkeiten des Aufnahmesystems 102, der HMD 103, des Konferenzsystems 101 oder anderweitig in zwei oder drei Dimensionen aufgenommen werden. Zudem können Videos von dem Teilnehmer/der Teilnehmerin 123 aus unterschiedlichen Kamerawinkeln aufgenommen werden, sodass Videos von dem Teilnehmer/der Teilnehmerin 123 abhängig vom Ansichtspunkt des Teilnehmers/der Teilnehmerin 122 aus verschiedenen Winkeln präsentiert werden können. Nach der Aufnahme wird bei Schritt 2 ein Video von den aufgenommenen Videobildern in Echtzeit an das Konferenzsystem 101 übertragen. Das Video kann in einem beliebigen Format, das vom Aufnahmesystem 102 und vom Konferenzsystem 101 unterstützt wird, übertragen werden. Das Video kann abhängig davon, wie weit das Aufnahmesystem 102 vom Konferenzsystem 101 entfernt ist, über ein oder mehrere verschiedene Kabel- oder Drahtlosnetze (Local Area, Wide Area, das Internet, zellulares Datennetz und dergleichen) oder direkte Verbindungen übertragen werden.
  • Bei Schritt 3 werden durch die HMD 103 kompilierte Ansichtsinformationen an das Konferenzsystem 101 übertragen. Diese Ansichtsinformationen werden ebenfalls in Echtzeit übertragen, sodass das Konferenzsystem 101 die aktuellen Informationen zur Verarbeitung des im Rahmen von Schritt 2 empfangenen Echtzeitvideos von dem Teilnehmer/der Teilnehmerin 123 nutzen kann. Die Ansichtsinformationen beinhalten Informationen, die von Sensoren der HMD 103 erfasst werden, und werden vom Konferenzsystem 101 zum Bestimmen einer Ansicht vom Besprechungsraum genutzt. Falls die HMD 103 für AR konfiguriert ist, können die Ansichtsinformationen Videos beinhalten, die außerhalb vor der HMD 103 am Ort 131 aufgenommen wurden, da der Ort 131 der Besprechungsraum für die Zwecke des Präsentierens eines Videos von dem Teilnehmer/der Teilnehmerin 123 ist. Das Konferenzsystem 101 kann dann visuelle Markierungen (z. B. Gemälde, Fliesen, Pflanzen, LED-Markierungen, Infrarotmarkierungen etc.) nutzen, die möglicherweise bewusst innerhalb des Orts 131 zur Nutzung durch das Konferenzsystem 101 innerhalb des Videos von der HMD 103 platziert wurden oder auch nicht, um zu bestimmen, wo der Teilnehmer/die Teilnehmerin 122 innerhalb des Orts 131 positioniert ist und wohin der Teilnehmer/die Teilnehmerin 122 von dieser Position aus gerade blickt. Das Konferenzsystem 101 nutzt möglicherweise auch Informationen, die durch andere Kameras am Ort 131 aufgenommen wurden, um den relativen Ort der visuellen Markierungen zu identifizieren. Darüber hinaus beinhalten die Ansichtsinformationen sowohl in AR- als auch in VR-Konfigurationen Informationen, die durch Sensoren aufgenommen wurden, etwa ein 3D-Gyroskop, welches das Konferenzsystem 101 nutzt, um die Ausrichtung der HMD 103 zu bestimmen, die angäbe, ob der Teilnehmer/die Teilnehmerin 122 seinen/ihren Kopf oder Körper gerade neigt, dreht oder in anderer Weise bewegt.
  • Bei Schritt 4 bestimmt das Konferenzsystem 101 eine Position für die Darstellung des Teilnehmers/der Teilnehmerin 123 am Besprechungsort, der/die von dem Teilnehmer/der Teilnehmerin 122 angesehen wird. Schritt 4 lässt sich zu einer beliebigen Zeit durchführen, bevor die Darstellung des Teilnehmers/der Teilnehmerin 123 dem Teilnehmer/der Teilnehmerin 122 durch die HMD 103 präsentiert wird, und muss nicht zwingend nach den Schritten 1, 2 und 3 durchgeführt werden. Das Konferenzsystem 101 kann die Position basierend auf Informationen bestimmen, die von der HMD 103 her, insbesondere den Ansichtsinformationen von Schritt 3, von anderen Geräten oder Sensoren am Besprechungsort, von dem Teilnehmer/der Teilnehmerin 123, von einem Besprechungsadministrator/einer Besprechungsadministratorin oder einer beliebigen anderen Quelle potenzieller Positionsinformationen her empfangen werden. Mittels der ihm zur Verfügung stehenden Informationen bestimmt das Konferenzsystem 101 deshalb eine Position innerhalb des Besprechungsorts, an dem sich der Teilnehmer/die Teilnehmerin 123 befinden könnte, falls der Teilnehmer/die Teilnehmerin 123 am Besprechungsort wäre, wobei unerheblich ist, ob der Besprechungsort der Ort 131 oder ein virtueller Ort ist.
  • Falls der Besprechungsort zum Beispiel einen Konferenztisch beinhaltet, kann das Konferenzsystem 101 bestimmen, dass die Position des Teilnehmers/der Teilnehmerin 123 ein leerer Sitzplatz am Konferenztisch ist. Das Vorhandensein des leeren Sitzplatzes ist bestimmbar basierend auf einem von der HMD 103 her aufgenommenen Video (z. B. Analysieren des Videos, um die Anwesenheit einer Person an jeder Position zu bestimmen), basierend auf Informationen, die von einem Teilnehmer/einer Teilnehmerin oder einem Administrator/einer Administratorin manuell eingegeben wurden, wenn das System für eine Konferenzsitzung eingesetzt wird (z. B. manuelle Abbildung des Besprechungsraums für Orte von Teilnehmern/Teilnehmerinnen, Stühlen etc.), basierend auf Drucksensoren in Stühlen am Tisch oder durch beliebige andere Mittel.
  • Bei Schritt 5 verarbeitet das Konferenzsystem 101 das empfangene Video von dem Teilnehmer/der Teilnehmerin 123 basierend auf der mittels der Ansichtsinformationen bestimmten Ansicht des Teilnehmers/der Teilnehmerin 122 vom Besprechungsort und der für den Teilnehmer/die Teilnehmerin 123 bestimmten Position. Das heißt, der Teilnehmer/die Teilnehmerin 123 sollte den Teilnehmer/die Teilnehmerin 122 so anblicken, wie er/sie es täte, falls die zwei Teilnehmer/Teilnehmerinnen im selben Raum an ihren gegebenen Positionen wären. Daher kann der Teilnehmer/die Teilnehmerin 123 in der Normalsicht, im Profil oder in irgendeinem Winkel dazwischen betrachtet werden. Wie oben angemerkt, muss das Aufnahmesystem 102 den Teilnehmer/die Teilnehmerin 123 möglicherweise aus unterschiedlichen Winkeln aufnehmen, um die Ansichten aus der Position des Teilnehmers/der Teilnehmerin 122 oder anderer entfernter Teilnehmer/Teilnehmerinnen zu berücksichtigen. In einigen Fällen, wenn mehrere Winkel nicht verfügbar sind, kann das Konferenzsystem 101 schätzen, wie der Teilnehmer/die Teilnehmerin 123 aus einem nicht aufgenommenen Winkel aussieht. Alternativ, obwohl dies nicht ideal ist, kann der Teilnehmer/die Teilnehmerin 123 aus einem Winkel präsentiert werden, der aufgenommen wird, obgleich dieser Winkel nicht korrekt ist. Ähnlich ist der Teilnehmer/die Teilnehmerin 123 möglicherweise kleiner, falls bestimmt wird, dass die Position des Teilnehmers/der Teilnehmerin 123 von dem Teilnehmer/der Teilnehmerin 122 am Besprechungsort weiter entfernt ist. Darüber hinaus muss das Konferenzsystem 101 möglicherweise Okklusionen wie andere Personen, Pflanzen oder andere Objekte in der Ansicht von dem Teilnehmer/der Teilnehmerin 123 hin zu dem Teilnehmer/der Teilnehmerin 122 berücksichtigen.
  • Während des Verarbeitungsschritts 5 kann das Konferenzsystem 101 eine Bildsegmentierung am von dem Teilnehmer/der Teilnehmerin 123 aufgenommenen Video durchführen, um den Umriss des Teilnehmers/der Teilnehmerin 123 zu identifizieren (z. B. mittels 3D-Bilderzeugungstechniken, falls der Teilnehmer/die Teilnehmerin 123 in 3D aufgenommen wird). Indem das Konferenzsystem 101 den Umriss des Teilnehmers/der Teilnehmerin 123 identifiziert, kann es den Hintergrund entfernen, sodass nur das Video von dem Teilnehmer/der Teilnehmerin 123 übrig bleibt. Sobald der Hintergrund entfernt ist, kann das Konferenzsystem 101 das resultierende Bild von dem Teilnehmer/der Teilnehmerin 123 bearbeiten, um den relativen Ort des Teilnehmers/der Teilnehmerin 123 und den Abstand des Teilnehmers/der Teilnehmerin 123 von dem Teilnehmer/der Teilnehmerin 122 im Besprechungsraum aufrechtzuerhalten. Ferner werden in einigen Fällen andere Objekte möglicherweise ebenfalls vom Hintergrund getrennt. Falls der Teilnehmer/die Teilnehmerin 123 zum Beispiel gerade einen Stift oder ein Schriftstück hält, kann der Stift oder das Schriftstück im Video von dem Teilnehmer/der Teilnehmerin 123 bleiben.
  • Nachdem das Konferenzsystem 101 das Video verarbeitet hat, wird das Video bei Schritt 6 an die HMD 103 übertragen. Das Video kann abhängig davon, wie weit die HMD 103 vom Konferenzsystem 101 entfernt ist, über ein oder mehrere verschiedene Kabel- oder Drahtlosnetze (Local Area, Wide Area, das Internet, zellulares Datennetz und dergleichen) oder direkte Verbindungen übertragen werden. Bei einigen Beispielen befindet sich das Konferenzsystem 101 möglicherweise am Ort 131. Nach dem Empfangen des Videos zeigt die HMD 103 das Video bei Schritt 7 dem Teilnehmer/der Teilnehmerin 122 an. Falls die HMD 103 gerade ein AR-Video präsentiert, umfasst das präsentierte Video ein Video von dem Teilnehmer/der Teilnehmerin 123 am bestimmten Positionsort 131, wie auf den transparenten Linsen angezeigt. Falls die HMD 103 alternativ gerade ein VR-Video präsentiert, beinhaltet das präsentierte Video weiter ein Video vom Besprechungsort, wobei unerheblich ist, ob es sich um einen aufgenommenen Besprechungsort oder einen virtuell generierten Besprechungsort handelt. Das Video von dem Teilnehmer/der Teilnehmerin 123 wird auf dem Besprechungsortvideo eingeblendet.
  • Die Schritte 1–3 und 5–7 erfolgen fortlaufend während einer Besprechung, um den Teilnehmer/die Teilnehmerin 123 dem Teilnehmer/der Teilnehmerin 122 nach bestem Bemühen so zu präsentieren, dass emuliert wird, dass der Teilnehmer/die Teilnehmerin 123 am selben Besprechungsort anwesend ist wie der Teilnehmer/die Teilnehmerin 122. Schritt 3 erfolgt möglicherweise nur einmal, es sei denn, das Konferenzsystem 101 bestimmt, dass der Teilnehmer/die Teilnehmerin 123 während der Besprechung andere Positionen einnimmt. Wenn sich zum Beispiel ein aktiver Sprecher/eine aktive Sprecherin während eines Konferenzsystems ändert, kann der Teilnehmer/die Teilnehmerin 123 verschoben werden, falls der aktive Sprecher/die aktive Sprecherin nicht schon eine Position im Besprechungsraum hat. Falls desgleichen noch ein weiterer Teilnehmer/eine weitere Teilnehmerin in den Besprechungsraum gebracht wird, lässt sich die Position des Teilnehmers/der Teilnehmerin 123 so ändern, dass für den neuen Teilnehmer/die neue Teilnehmerin Raum geschaffen wird. Wenn der Teilnehmer/die Teilnehmerin 122 seine/ihre Ausrichtung zur HMD 103 ändert (z. B. seinen/ihren Kopf dreht, andere Positionen am Besprechungsort einnimmt etc.), werden diese Ausrichtungsänderungen bei Schritt 5 berücksichtigt, wenn das Video verarbeitet wird (d. h. die Ansicht des Teilnehmers/der Teilnehmerin 122 während der Verarbeitung bei Schritt 5 wäre aufgrund der Ausrichtungsänderung anders). Dies bedeutet in einigen Fällen auch, dass, falls der Teilnehmer/die Teilnehmerin 122 die Position des Teilnehmers/der Teilnehmerin 123 gerade nicht ansieht, der Teilnehmer/die Teilnehmerin 123 im AR-Video nicht gezeigt wird. Desgleichen zeigt, falls die Position des Teilnehmers/der Teilnehmerin 123 nur teilweise sichtbar ist, das AR-Video den Teilnehmer/die Teilnehmerin 123 demgemäß nur zum Teil.
  • In einigen Konfigurationen lassen sich Tonwiedergabegeräte am Ort 131 nutzen, um die Ausgangsposition eines zusammen mit dem Video von dem Teilnehmer/der Teilnehmerin 123 vom Aufnahmesystem 102 aufgenommenen Tonteils zu emulieren. Das heißt, das Konferenzsystem 101 wird ein Audiogerät auswählen, welches den aufgenommenen Tonteil abspielen und den Anschein erwecken kann, dass der Tonteil von der bestimmten Position des Teilnehmers/der Teilnehmerin 123 am Besprechungsort kommt. Daher lässt es die HMD 103 gegenüber dem Teilnehmer/der Teilnehmerin 122 nicht nur so aussehen, als ob sich der Teilnehmer/die Teilnehmerin 123 an einem konkreten Ort befindet, sondern das Audiogerät lässt es auch so klingen, als ob der Teilnehmer/die Teilnehmerin 123 von diesem Ort aus spricht. Bei einigen Beispielen befindet sich das Audiogerät nahe bei der bestimmten Position des Teilnehmers/der Teilnehmerin 123, während bei anderen Beispielen Audiogeräte, die nicht nahe bei den bestimmten Positionen sind, etwa in die HMD 103 eingebaute Geräte, genutzt werden, um den von der Position des Teilnehmers/der Teilnehmerin 123 kommenden Tonteil in der für sie bestmöglichen Weise zu simulieren.
  • In einigen Ausführungsformen nimmt ein anderes Aufnahmesystem den Teilnehmer/die Teilnehmerin 122 auf und der Teilnehmer/die Teilnehmerin 122 wird dem Teilnehmer/der Teilnehmerin 123 unter Widerspiegelung des Betriebs 300 durch eine von dem Teilnehmer/der Teilnehmerin 123 getragene HMD präsentiert. Des Weiteren können sich an jedem Ort 131 (oder zusätzlichen Orten, die nicht erwähnt werden) zusätzliche Teilnehmer/Teilnehmerinnen befinden und diese zusätzlichen Teilnehmer/Teilnehmerinnen werden weiter auf den HMDs anderer Teilnehmer/Teilnehmerinnen emuliert, die sich nicht am selben Ort befinden.
  • 4 veranschaulicht einen Betrieb 400 der Konferenzumgebung 100, um verbesserte visuelle Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen zu präsentieren. Beim Betrieb 400 erfordert ein durch das Konferenzsystem 101 übertragenes Video eine zusätzliche Verarbeitung vor der Präsentation durch die HMD 103. Die Schritte 1 und 2 erfolgen genauso wie oben beim Betrieb 300. Desgleichen wird bei Schritt 3 eine Position des Teilnehmers/der Teilnehmerin 123 genauso wie bei Schritt 4 des Betriebs 300 bestimmt.
  • Dagegen bestimmt das Konferenzsystem 101 bei Schritt 4 des Betriebs 400 Verarbeitungsinformationen für das Video von dem Teilnehmer/der Teilnehmerin 123, statt dass das Konferenzsystem 101 das Video selbst verarbeitet. Um die Verarbeitungsinformationen zu bestimmen, nutzt das Konferenzsystem 101 Informationen von demselben Typ, den es auch bei Schritt 5 des Betriebs 300 nutzt, um das Video zu verarbeiten. Das heißt, das Konferenzsystem 101 kann von der HMD 103 her empfangene Ansichtsparameter oder andere Informationen von der HMD 103 oder dem Ort 131 her nutzen, um zu bestimmen, wie der Teilnehmer/die Teilnehmerin 123 dem Teilnehmer/der Teilnehmerin 122 präsentiert werden soll. Dann werden Verarbeitungsparameter generiert, die mindestens genug Informationen beinhalten, damit die HMD 103 die vom Konferenzsystem 101 bei Schritt 5 des Betriebs 300 durchgeführte Verarbeitung durchführen kann.
  • Bei Schritt 5 beim Betrieb 400 werden die Verarbeitungsinformationen und mindestens das Video von dem Teilnehmer/der Teilnehmerin 123 an die HMD 103 übertragen. Das Video von dem Teilnehmer/der Teilnehmerin 123 kann mehrere Streams beinhalten, falls mehr als ein Winkel des Teilnehmers/der Teilnehmerin aufgenommen wird, um entweder unterschiedliche Ansichtswinkel des Teilnehmers/der Teilnehmerin 123 zu liefern oder um eine dreidimensionale Ansicht des Teilnehmers/der Teilnehmerin 123 zu generieren. Des Weiteren kann auch ein Video vom Besprechungsort, das entweder real oder virtuell ist, an die HMD 103 übertragen werden, falls die HMD 103 in einer VR-Konfiguration betrieben wird.
  • Nach dem Empfang der Verarbeitungsinformationen und des Videos verarbeitet die HMD 103 das Video und zeigt das verarbeitete Video bei Schritt 6 an. Wenngleich die Videoverarbeitungspflichten vom Konferenzsystem 101 beim Betrieb 300 auf die HMD 103 beim Betrieb 400 übergehen, ist die Erfahrung des Teilnehmers/der Teilnehmerin 122 während der Präsentation des Videos durch die HMD 103 zwischen den zwei Betriebsabläufen im Wesentlichen gleich. Zudem können beim Betrieb 400, wie beim Betrieb 300, weiter Tonteile, die von dem Teilnehmer/der Teilnehmerin 123 zusammen mit dem Video aufgenommen werden, verarbeitet und zur Präsentation an die HMD 103 übertragen so werden, als ob die Tonteile von der Position kommen, an welcher der Teilnehmer/die Teilnehmerin 123 im Video gezeigt würden.
  • Wenngleich die obigen Betriebsabläufe nur für einen entfernten Teilnehmer/eine entfernte Teilnehmerin gelten, können die Betriebsabläufe auch für mehrere entfernte Teilnehmer/Teilnehmerinnen durchgeführt und diese entfernten Teilnehmer/Teilnehmerinnen dabei so präsentiert werden, als ob sie im selben Besprechungsraum sind wie der Teilnehmer/die Teilnehmerin 122, der/die die HMD 103 trägt.
  • Unter erneuter Bezugnahme auf 1 umfasst das Konferenzsystem 101 ein Computerverarbeitungssystem und eine Kommunikationsschnittstelle. Das Konferenzsystem 101 kann auch noch andere Komponenten beinhalten, etwa einen Router, einen Server, ein Datenspeichersystem und eine Stromversorgung. Das Konferenzsystem 101 kann in einem einzelnen Gerät liegen oder kann über mehrere Geräte verteilt sein. Das Konferenzsystem 101 könnte ein Anwendungsserver, eine Personal Workstation oder ein Computersystem von einem beliebigen anderen Typ sein, das zum Ermöglichen einer Konferenz mit mehreren beteiligten Personen fähig ist – einschließlich Kombinationen davon.
  • Das Teilnehmeraufnahmesystem 102 umfasst eine oder mehrere Kameras zum Aufnehmen des Teilnehmers/der Teilnehmerin 123 und eine Kommunikationsschaltung zum Kommunizieren mit dem Konferenzsystem 101. Das Aufnahmesystem 102 kann auch ein oder mehrere Mikrofone zum Aufnehmen von Ton, eine Stromversorgung, eine Verarbeitungsschaltung oder andere Komponenten beinhalten. Das Aufnahmesystem 102 kann in einem einzelnen Gerät liegen oder kann über mehrere Geräte verteilt sein. Zum Beispiel umfasst das Aufnahmesystem 102 möglicherweise getrennte Kamera- und Mikrofonkomponenten zum Aufnehmen des Teilnehmers/der Teilnehmerin 123. Bei einigen Beispielen beinhaltet das Aufnahmesystem 102 möglicherweise Motoren, die ein Drehen, Schwenken oder Neigen des Systems 102 erlauben. Das Aufnahmesystem 102 kann auch 3D-Aufnahme- und -Registrierfähigkeiten wie Tiefen- oder Stereoabtastung beinhalten.
  • Die HMD 103 umfasst ein Gestell, damit der Teilnehmer/die Teilnehmerin 122 die HMD 103 an seinem/ihrem Kopf tragen kann. In der Regel hat die AR-HMD 103 allgemein die Form einer Brille. Die HMD 103 umfasst weiter eine persönliche Anzeige zum Anzeigen von Videobildern für den Teilnehmer/die Teilnehmerin 122. Die Anzeige kann einen Bildprojektor umfassen, der Bilder auf Linsen der HMD 103 projiziert, oder kann eine Anzeige wie eine LCD sein, die in die Linsen eingebaut oder an ihrer Stelle vorhanden ist. Die HMD 103 beinhaltet weiter eine Verarbeitungs- und Kommunikationsschaltung und kann Tonwiedergabekomponenten wie Lautsprecher oder Kopfhörer beinhalten. Darüber hinaus kann die HMD 103 Video- und Tonaufnahmekomponenten wie eine Kamera und ein Mikrofon beinhalten.
  • Die Kommunikationsverbindungen 111 und 112 nutzen Metall, Glas, Luft, den Raum oder irgendein anderes Material als Transportmedium. Die Kommunikationsverbindungen 111 und 112 könnten verschiedene Kommunikationsprotokolle nutzen, etwa Time Division Multiplex (TDM), Internet Protocol (IP), Ethernet, Kommunikationssignalisierung, Code Division Multiple Access (CDMA), Evolution Data Only (EVDO), Worldwide Interoperability for Microwave Access (WIMAX), Global System for Mobile Communication (GSM), Long Term Evolution (LTE), Wireless Fidelity (WIFI), High Speed Packet Access (HSPA) oder irgendein anderes Kommunikationsformat – einschließlich Kombinationen davon. Die Kommunikationsverbindungen 111 und 112 könnten direkte Verbindungen sein oder können dazwischenliegende Netze, Systeme oder Geräte beinhalten.
  • 5 veranschaulicht eine Konferenzumgebung 500. Die Konferenzumgebung 500 beinhaltet ein Konferenzsystem 501, einen Besprechungsraum 502, einen Besprechungsraum 503, einen individuellen Raum 504 und ein Kommunikationsnetz 505. Der Besprechungsraum 502 beinhaltet AR-HMDs 521523, Audio-Video-Aufnahmegeräte 524 und Raumsensoren 525. Der Besprechungsraum 503 beinhaltet AR-HMDs 531532, Audio-Video-Aufnahmegeräte 534 und Raumsensoren 535. Der individuelle Raum 504 beinhaltet eine Virtual-Reality(VR)-HMD 541 und eine Tonaufnahme 544. Das Kommunikationsnetz 505 kommuniziert mit dem Konferenzsystem 501, dem Besprechungsraum 502, dem Besprechungsraum 503 und dem individuellen Raum 504 jeweils über Kommunikationsverbindungen 511514.
  • Das Kommunikationsnetz 505 umfasst Netzelemente, die Kommunikationsdienste für die Räume 502504 und das Konferenzsystem 501 bereitstellen. Das Kommunikationsnetz 505 umfasst möglicherweise Switches, Funkzugangsknoten, Internetrouter, Netzgateways, Anwendungsserver, Computersysteme, Kommunikationsverbindungen oder eine Kommunikationsausstattung von irgendeinem anderen Typ – einschließlich Kombinationen davon. Wenngleich das Kommunikationsnetz 505 als einzelnes Netz gezeigt ist, kann es auch eine Menge von Netzen umfassen, die Local Area Networks, Wide Area Networks, das Internet oder Computernetze von beliebigen anderen Typen beinhalten – einschließlich Kombinationen davon.
  • Die Audio-Video-Aufnahmegeräte 524 und 534 umfassen Komponenten wie 2D- oder 3D-Kameras und Mikrofone, die für Video- und Tonaufnahmen von den Besprechungsräumen 502 und 503 und den darin befindlichen Teilnehmern genutzt werden. Die A/V-Aufnahmegeräte 524 und 534 können weiter Schaltungselemente für Kabel- oder Drahtlosvernetzung beinhalten, etwa eine Ethernet-Schnittstelle, eine Wi-Fi-Schnittstelle, ein Bluetooth-Modul oder eine Kommunikationsschnittstelle von einem anderen Typ. Bei einigen Beispielen können manche Komponenten der A/V-Aufnahmegeräte 524 und 534 in den AR-HMDs 521523 und 531532 beinhaltet sein.
  • Die Raumsensoren 525 und 535 beinhalten Komponenten, die Informationen aufnehmen, welche zum Bestimmen der Position und der Ansicht eines Teilnehmers/einer Teilnehmerin genutzt werden. Die Sensoren 525 und 535 beinhalten möglicherweise Näherungssensoren, RFID-Tags, Infrarot-Tags, Kompasse, Schallsensoren, Beschleunigungsmesser, Gyrosensoren oder beliebige andere Komponenten, die maßgebliche Informationen liefern können. Mindestens einige der Komponenten der Sensoren 525 und 535 können in die HMDs 521523 und 531532 und die A/V-Aufnahmegeräte 524 und 534 integriert sein.
  • Bei einigen Beispielen beinhaltet jeder der Räume 502504 möglicherweise weiter ein Zwischencomputersystem, das mit den HMDs, den A/V-Aufnahmegeräten und den Raumsensoren jedes Raums kommuniziert. Die Zwischencomputersysteme kommunizieren dann mit dem Konferenzsystem 501. In einigen Konfigurationen können einige der vom Konferenzsystem 501 durchgeführten Funktionen im Auftrag des Konferenzsystems 501 von diesen Zwischencomputersystemen erfüllt werden.
  • Mittels der oben beschriebenen Verfahren und Betriebsabläufe ermöglicht das Konferenzsystem 501 eine Besprechung zwischen Teilnehmern/Teilnehmerinnen, die die HMDs tragen, in der Umgebung 500. Insbesondere zeigen die AR-HMDs entfernte Teilnehmer/Teilnehmerinnen innerhalb des Besprechungsraums an, in dem sich die jeweiligen AR-HMDs befinden. Die VR-HMD präsentiert entweder einen virtuellen Besprechungsraum, in dem die AR-HMD-Teilnehmer/AR-HMD-Teilnehmerinnen platziert sind, oder der dem VR-Teilnehmer/der VR-Teilnehmerin präsentierte Besprechungsraum ist einer der Besprechungsräume 502 und 503, in dem der VR-Teilnehmer/die VR-Teilnehmerin „positioniert“ ist.
  • 6 veranschaulicht eine beispielhafte Ausrichtung von Teilnehmern/Teilnehmerinnen innerhalb der Räume 502504. Insbesondere beinhaltet der Besprechungsraum 502 Teilnehmer/Teilnehmerinnen 611613, die gerade jeweils die AR-HMDs 521523 tragen. Der Besprechungsraum 503 beinhaltet Teilnehmer/Teilnehmerinnen 614 und 615, die gerade jeweils die AR-HMDs 521523 tragen. Der unabhängige Raum 504 beinhaltet einen Teilnehmer/eine Teilnehmerin 616, der/die eine VR-HMD 441 trägt. Bei diesem Beispiel beinhaltet der Besprechungsraum 502 einen Konferenztisch mit sechs Sitzpositionen mit einem Gerät 621626 an jeder Position. Jedes Gerät 621626 beinhaltet Komponenten von A/V-Aufnahmegeräten 524 und Raumsensoren 525. Der Besprechungsraum 503 beinhaltet einen Konferenztisch, ebenfalls mit sechs Sitzpositionen, mit einem Gerät 631636 an jeder Position. Jedes Gerät 631636 beinhaltet Komponenten von A/V-Aufnahmegeräten 534 und Raumsensoren 535. Des Weiteren ist das Tonaufnahmegerät 544 bei diesem Beispiel in die VR-HMD 541 integriert.
  • Im Betrieb haben alle der Geräte 621, 623, 624, 633 und 635 Teilnehmer/Teilnehmerinnen an ihren jeweiligen Orten. Demgemäß beginnen diese Geräte, sobald die Konferenzsitzung angefangen hat, mit Ton- und Videoaufnahmen von ihren jeweiligen Teilnehmern/Teilnehmerinnen und mit der Übertragung dieser Ton- und Videoaufnahmen an das Konferenzsystem 501. Die Geräte 622, 625, 626, 631, 632, 634 und 636 haben keine Teilnehmer/Teilnehmerinnen an ihren Positionen, nehmen aber trotzdem Ton und Videos auf, um zusätzliche Winkel von den Teilnehmern/Teilnehmerinnen zu liefern, die möglicherweise für die Präsentation gegenüber entfernten Teilnehmern/Teilnehmerinnen benötigt werden. Darüber hinaus beinhaltet jede der AR-HMDs 521523 und 531532 nach außen gerichtete Videokameras, die Videos aufnehmen und an das Konferenzsystem 501 übertragen, das die Videos zum Bestimmen einer Ansicht jedes Teilnehmers/jeder Teilnehmerin nutzt, und die auch genutzt werden könnten, um zusätzliche Winkel von anderen Teilnehmern/Teilnehmerinnen im Raum zu generieren. Ferner nimmt das Aufnahmegerät 627 ein Video vom Besprechungsraum 502 zur Nutzung im VR-Video auf und stellt die visuelle Perspektive der Konferenz für den Teilnehmer/die Teilnehmerin 616 durch die VR-HMD 541 bereit. Weiter versteht es sich, dass das Gerät 627 genutzt werden kann, um zusätzlich zum bei diesem Beispiel erörterten VR-Video ein AR-Video aufzunehmen.
  • Nach dem Empfangen der Audio-, Video- und anderen Sensorinformationen führt das Konferenzsystem 401 die für die Betriebsabläufe 300 oder 400 oben beschriebenen Schritte durch. Dank dieser Betriebsabläufe kann das Konferenzsystem 401 zusammen mit den AR- und den VR-HMDs AR- und VR-Videos bereitstellen, die nötig sind, damit die Teilnehmer/Teilnehmerinnen 611616 alle die Konferenzsitzung so erfahren, als wenn sie alle im selben Raum seien.
  • 7 veranschaulicht eine beispielhafte Ausrichtung von Teilnehmern/Teilnehmerinnen innerhalb der Räume 502504, sobald die Teilnehmer/Teilnehmerinnen die Konferenzsitzung durch vom Konferenzsystem 501 bereitgestellte Videos ansehen. Insbesondere hat das Konferenzsystem 501 wie gezeigt Positionen innerhalb jedes Raums 502 und 503 für die von jedem Raum entfernten Teilnehmer/Teilnehmerinnen bestimmt. Keine Position wurde bei diesem Beispiel für den Teilnehmer/die Teilnehmerin 616 bestimmt, weil kein Video von dem Teilnehmer/der Teilnehmerin 616 aufgenommen wurde, obwohl Tonteile von dem Teilnehmer/der Teilnehmerin 616 von einer konkreten Position präsentiert werden können. Jedoch wird bei einigen Beispielen möglicherweise ein Video von dem Teilnehmer/der Teilnehmerin 616 aufgenommen und deshalb kann die freie Stelle in jedem der Räume 502 und 503 von dem Teilnehmer/der Teilnehmerin 616 eingenommen werden. Alternativ kann der Teilnehmer/die Teilnehmerin 616 statt durch ein Echtzeitvideo von dem Teilnehmer/der Teilnehmerin 616 durch einen Avatar oder eine andere grafische Darstellung dargestellt werden.
  • Wenn die Teilnehmer/Teilnehmerinnen 611613 im Raum 502 durch ihre AR-HMDs angesehen werden, können sie ein Video von den Teilnehmern/Teilnehmerinnen 614615 an Positionen im Raum 502 so sehen, als ob sich die Teilnehmer/Teilnehmerinnen 614615 im Raum 502 befänden. Desgleichen können die Teilnehmer/Teilnehmerinnen 614615 im Raum 503 ein Video von den Teilnehmern/Teilnehmerinnen 611613 an Positionen im Raum 503 so sehen, als ob sich die Teilnehmer/Teilnehmerinnen 611613 im Raum 503 befänden. Dank Bildsegmentierungstechniken, die oben erörtert wurden, lässt sich das Videobild jedes entfernten Teilnehmers/jeder entfernten Teilnehmerin vom Hintergrundbild trennen. Daher sehen lokale Teilnehmer/Teilnehmerinnen kein Video von dem Raum, in dem sich die entfernten Teilnehmer/Teilnehmerinnen physisch befinden. Bei einem konkreten Beispiel ist die Ansicht 701 das, was der Teilnehmer/die Teilnehmerin 611 durch seine/ihre AR-HMD 521 sieht. Obgleich die Position des Teilnehmers/der Teilnehmerin 615 physisch leer ist, erweckt das dem Teilnehmer/der Teilnehmerin 611 präsentierte AR-Video den Anschein, dass der Teilnehmer/die Teilnehmerin 615 an dieser Position ist. Ähnlich ist die Ansicht 702 das, was der Teilnehmer/die Teilnehmerin 615 durch seine/ihre AR-HMD 532 sieht. Obgleich die Positionen der Teilnehmer/Teilnehmerinnen 611 und 612 physisch leer sind, erweckt das dem Teilnehmer/der Teilnehmerin 615 präsentierte Video den Anschein, dass die Teilnehmer/Teilnehmerinnen 611 und 612 an diesen Positionen sind.
  • Wenn sich die Ansichten 701 und 702 ändern (z. B. wenn die Teilnehmer/Teilnehmerinnen 611 und 612 ihre Köpfe neigen oder schwenken), verfolgt das Konferenzsystem 501 diese Ansichtsänderungen und gleicht das Video oder die Verarbeitungsinformationen, die eine AR-HMD zum Ändern und Angleichen des Videos nutzen würde, für jeden Teilnehmer/jede Teilnehmerin entsprechend an, um sicherzustellen, dass die entfernten Teilnehmer/Teilnehmerinnen weiterhin in ihren korrekten Positionen präsentiert werden. Demzufolge präsentiert das AR-Video im Fall der Ansicht 701, wenn der Teilnehmer/die Teilnehmerin 611 seinen/ihren Kopf mehr nach links dreht, möglicherweise den Teilnehmer/die Teilnehmerin 612 nicht mehr, da sich der Teilnehmer/die Teilnehmerin 612 aus der Ansicht wegbewegt, und präsentiert, wie der Teilnehmer/die Teilnehmerin 614 neben dem Teilnehmer/der Teilnehmerin 611 „sitzt“, wenn sich der Teilnehmer/die Teilnehmerin 614 in die Ansicht hineinbewegt.
  • Was den Teilnehmer/die Teilnehmerin 616 angeht, so umfasst das dem Teilnehmer/der Teilnehmerin 616 präsentierte VR-Video eine vom Gerät 627 aufgenommene Ansicht 703. Die VR-HMD 541 präsentiert ein Video sowohl vom Besprechungsraum 502 als auch von dem Teilnehmer/der Teilnehmerin 614, wobei das Video von dem Teilnehmer/der Teilnehmerin 614 auf dem Video vom Besprechungsraum 502 in der Sitzposition zwischen den Teilnehmern/Teilnehmerinnen 611 und 612 eingeblendet wird. Da das Besprechungsraumgeschehen die Teilnehmer/Teilnehmerinnen 611 und 612, die sich physisch im Besprechungsraum 502 befinden, beinhaltet, ist kein getrenntes Video von den Teilnehmern/Teilnehmerinnen 611 und 612 nötig. Wenn der Teilnehmer/die Teilnehmerin 616 seinen/ihren Kopf nach rechts bewegt, ändert sich die Ansicht 703 und der Teilnehmer/die Teilnehmerin 613 rückt in die Ansicht, wie vom Gerät 627 aufgenommen. Darüber hinaus wird weiter rechts ein Video von dem Teilnehmer/der Teilnehmerin 615 weiter in das VR-Video eingeblendet, sodass der Teilnehmer/die Teilnehmerin 616 in der Lage ist, den Teilnehmer/die Teilnehmerin 615 so zu sehen, als ob der Teilnehmer/die Teilnehmerin 615 im Raum 502 sei. Das Gerät 627 muss sich möglicherweise selbst bewegen, um die Ansicht 703 in Übereinstimmung mit den Kopfbewegungen des Teilnehmers/der Teilnehmerin 616 aufzunehmen, oder das Gerät 627 nimmt möglicherweise ein Video auf, das breit genug ist, sodass sich nur der Teil dieser durch die VR-HMD 441 angezeigten Weitwinkelansicht ändert.
  • Um die Wirksamkeit des AR-Videos zu erhöhen, wird darüber hinaus ein Tonteil von jedem entfernten Teilnehmer/jeder entfernten Teilnehmerin an der Position dieses Teilnehmers/dieser Teilnehmerin vom Gerät abgespielt. Falls zum Beispiel der Teilnehmer/die Teilnehmerin 614 gerade spricht, präsentiert das Gerät 622 den Tonteil von dem Teilnehmer/der Teilnehmerin 614, sodass die Teilnehmer/Teilnehmerinnen 611613 den Teilnehmer/die Teilnehmerin 614 so hören, als ob der Teilnehmer/die Teilnehmerin 614 wirklich an der Position in dem im AR-Video präsentierten Raum 502sei. Alternativ kann jede der AR-HMDs 521523 Audiolautsprecher beinhalten, die derart angeordnet sind, dass sie den von der Position des Teilnehmers/der Teilnehmerin 614 im Raum 502 kommenden Tonteil simulieren. Des Weiteren kann jedes Gerät in den Räumen 502 und 503 den für den Teilnehmer/die Teilnehmerin 616 aufgenommenen Tonteil präsentieren. Falls dagegen für den Teilnehmer/die Teilnehmerin 616 eine Position in einem oder beiden der Räume 502 und 503 bestimmt wird, lässt sich der Tonteil so präsentieren, als ob er von dieser bestimmten Position käme.
  • 8 veranschaulicht eine Ansicht 702 aus der Perspektive des Teilnehmers/der Teilnehmerin 615 im Besprechungsraum 503. Insbesondere stellt die Ansicht 702 in 8 die Ansicht dar, bevor die AR-HMD 532 das Video präsentiert. Daher sieht der Teilnehmer/die Teilnehmerin 615 den Besprechungsraum 503 im Grunde so an, als ob dies durch eine normale transparente Brille geschieht, und er/sie kann nur den Teilnehmer/die Teilnehmerin 613, die Geräte 631633 und den Konferenztisch sehen, die sich alle physisch im Besprechungsraum 403 befinden. Ferner stellt die Ansicht 702 ein Video dar, das als Ansichtsinformation genutzt werden kann, um die Ansicht und die Position des Teilnehmers/der Teilnehmerin 615 innerhalb des Besprechungsraums 503 zu bestimmen.
  • 9 veranschaulicht dann eine Ansicht 702 aus derselben Perspektive des Teilnehmers/der Teilnehmerin 615, sobald eine Besprechung angefangen hat. Wie bereits in 7 gezeigt, sind die entfernten Teilnehmer/Teilnehmerinnen 611 und 612 an den zwei Positionen neben dem lokalen Teilnehmer/der lokalen Teilnehmerin 614 positioniert. Deshalb zeigt die AR-HMD 532 ein Video von den Teilnehmern/Teilnehmerinnen 611 und 612 an ihren bestimmten Positionen an. Wenn das Video von den Teilnehmern/Teilnehmerinnen 611 und 612 angezeigt wird, werden des Weiteren Objekte, die sich zwischen den Positionen der Teilnehmer/Teilnehmerinnen 611 und 612 befinden (d. h. die Geräte 631 und 632), insofern berücksichtigt, als die Teilnehmer/Teilnehmerinnen 611 und 612 im Video als von den Geräten 631 und 632 verdeckt angezeigt werden. Falls zudem der Teilnehmer/die Teilnehmerin 615 seinen/ihren Kopf drehen sollte, bei diesem Beispiel nach rechts, bewegt sich das Video von dem Teilnehmer/der Teilnehmerin 611 möglicherweise aus der Ansicht heraus und wird nicht mehr angezeigt, während das Video von dem Teilnehmer/der Teilnehmerin 613 in die Ansicht rückt. Bei diesem Beispiel wird der Teilnehmer/die Teilnehmerin 613 möglicherweise in einer Profilansicht gezeigt, es sei denn, der Teilnehmer/die Teilnehmerin 615 wird von dem Teilnehmer/der Teilnehmerin 613 gerade „angeblickt“, um den Teilnehmer/die Teilnehmerin 613 bestmöglich so anzuzeigen, als ob er/sie physisch neben dem Teilnehmer/der Teilnehmerin 615 säße. Indem entfernte Teilnehmer/Teilnehmerinnen aus dem richtigen Winkel angezeigt werden, Objekte berücksichtigt werden, welche die Ansicht von Teilnehmern/Teilnehmerinnen an ihren ausgewiesenen Positionen möglicherweise verdecken, und Bewegungen des Teilnehmers/der Teilnehmerin 615 angeglichen werden, wie von der AR-HMD 532 in dieser Ausführungsform vorgenommen, ist der Teilnehmer/die Teilnehmerin 615 demgemäß in der Lage, die entfernten Besprechungsteilnehmer/Besprechungsteilnehmerinnen so anzusehen, als ob diese sich mit dem Teilnehmer/der Teilnehmerin 615 im Raum 503 befänden.
  • Bei einigen Beispielen fügt die AR-HMD 532 Präsentationsinformationen in die von dem Teilnehmer/der Teilnehmerin 615 angesehenen Videos ein. Zum Beispiel beinhalten die Informationen möglicherweise Präsentationsfolien, die auf eine Wand hinter den Teilnehmern/Teilnehmerinnen 611613 oder auf den Tisch des Besprechungsraums 503 projiziert scheinen. Alternativ könnten die Informationen in einer von jeglichen physischen Merkmalen im Raum 503 unabhängigen Weise präsentiert werden. Desgleichen können noch andere Informationen präsentiert werden, etwa Chatfenster, auf die Konferenzsitzung bezogene Kontextinformationen oder beliebige andere visuelle Informationen, die ein Teilnehmer/eine Teilnehmerin nützlich finden könnte. Des Weiteren können die Präsentationsinformationen Objekte beinhalten, die so ähnlich wie entfernte Teilnehmer/Teilnehmerinnen präsentiert werden. Zum Beispiel wird ein Objekt möglicherweise auf dem Tisch im Raum 503 platziert. Das Objekt kann durch die Geräte 631636 aus mehreren Winkeln aufgenommen und den Teilnehmern/Teilnehmerinnen 611613 durch ihre jeweiligen HMDs 521523 präsentiert werden. Insbesondere kann das Objekt in der Mitte des Tisches im Raum 502 präsentiert werden, wobei die Vorderseite des Objekts dem Gerät 625 zugewandt ist. Demgemäß sind die Teilnehmer/Teilnehmerinnen 611 und 612 in der Lage, die Rückseite des Objekts aus einem Winkel anzusehen, und der Teilnehmer/die Teilnehmerin 613 ist in der Lage, die Vorderseite des Objekts aus einem Winkel anzusehen.
  • 10 veranschaulicht dann eine Ansicht 703 aus derselben Perspektive des Teilnehmers/der Teilnehmerin 616, sobald eine Besprechung angefangen hat. Da der Teilnehmer/die Teilnehmerin 616 ein Teilnehmer/eine Teilnehmerin der virtuellen Realität ist, ist die Ansicht des Raums 504 irrelevant und ist nicht in das durch die VR-HMD 541 angezeigte Video integriert. Der dem Teilnehmer/der Teilnehmerin 616 präsentierte Besprechungsraum ist eine Videoaufnahme vom Besprechungsraum 502, statt dass ein virtueller Besprechungsraum für die Präsentation gerendert würde. Da das Video ein wirkliches Video vom Besprechungsraum 502 ist, sind Teilnehmer/Teilnehmerinnen, die sich physisch innerhalb des Raums 502 befinden, bereits in diesem Video beinhaltet. Dagegen ist der Teilnehmer/die Teilnehmerin 614 vom Raum 502 entfernt und deshalb wird ein Video von dem Teilnehmer/der Teilnehmerin 614 auf das Video vom Raum 502 eingeblendet. Ferner wird der Teilnehmer/die Teilnehmerin 614 in einer Profilansicht gezeigt, um die Position des Teilnehmers/der Teilnehmerin 614 relativ zur Ansicht 703 zu berücksichtigen. Falls der Teilnehmer/die Teilnehmerin 614 sich zu dem Teilnehmer/der Teilnehmerin 616 hin wenden sollte, würde sich natürlich die Ausrichtung des Videos von dem Teilnehmer/der Teilnehmerin 614 so ändern, dass der Teilnehmer/die Teilnehmerin 614 als dem Teilnehmer/der Teilnehmerin 616 zugewandt gezeigt würde.
  • Da die Position des Teilnehmers/der Teilnehmerin 614 von dem Teilnehmer/der Teilnehmerin 611 etwas verdeckt wird, wird darüber hinaus das Video von dem Teilnehmer/der Teilnehmerin 614 so präsentiert, dass der Teilnehmer/die Teilnehmerin 614 so aussieht, als ob er/sie teilweise hinter dem Teilnehmer/der Teilnehmerin 611 ist, wie es der Fall wäre, falls der Teilnehmer/die Teilnehmerin 614 physisch im Raum 502 wäre. Falls der Teilnehmer/die Teilnehmerin 616 seinen/ihren Kopf nach rechts bewegen sollte, kann das Video vom Besprechungsraum 502 nach rechts schwenken und die Einblendung des Teilnehmers/der Teilnehmerin 614 kann sich aus der Ansicht herausbewegen, während eine Einblendung des Teilnehmers/der Teilnehmerin 615 sich in die Ansicht hineinbewegt. Des Weiteren können wie beim AR-Beispiel oben zusätzliche visuelle Informationen wie Konferenzfolien, Chatfenster etc. dem Teilnehmer/der Teilnehmerin 616 ebenfalls im VR-Video präsentiert werden.
  • 11 veranschaulicht eine am Kopf angebrachte Anzeige 1100. Die am Kopf angebrachte Anzeige 1100 ist ein Beispiel für eine am Kopf angebrachte Anzeige 103, wenngleich die am Kopf angebrachte Anzeige 103 alternative Konfigurationen nutzen könnte. Die am Kopf angebrachte Anzeige 1100 umfasst eine Kommunikationsschnittstelle 1101, eine Benutzerschnittstelle 1102, ein Verarbeitungssystem 1103 und Sensoren 1104. Das Verarbeitungssystem 1103 ist mit der Kommunikationsschnittstelle 1101 und der Benutzerschnittstelle 1102 verbunden. Das Verarbeitungssystem 1103 beinhaltet eine Verarbeitungsschaltung 1105 und ein Speichergerät 1106, das eine Betriebssoftware 1107 speichert. Die am Kopf angebrachte Anzeige 1100 kann weitere wohl bekannte Komponenten wie eine Batterie und ein Gehäuse beinhalten, die der Klarheit halber nicht gezeigt werden. Die am Kopf angebrachte Anzeige 1100 ist möglicherweise ein Personal Computer, ein Server oder irgendeine andere Computereinrichtung – einschließlich Kombinationen davon. Bei einigen Beispielen ist die am Kopf angebrachte Anzeige 1100 möglicherweise über mehrere Orte repliziert, um die Verarbeitungslast zu verteilen, die zum Funktionieren, wie hierin beschrieben, erforderlich ist.
  • Die Kommunikationsschnittstelle 1101 umfasst Komponenten, die über Kommunikationsverbindungen wie Netzkarten, Ports, HF-Transceiver, Verarbeitungsschaltungen und -software oder beliebige andere Kommunikationsgeräte kommunizieren. Die Kommunikationsschnittstelle 1101 kann konfiguriert sein, um über metallische, drahtlose oder optische Verbindungen zu kommunizieren. Die Kommunikationsschnittstelle 1101 kann konfiguriert sein, um TDM, IP, Ethernet, optische Vernetzung, Drahtlosprotokolle, Kommunikationssignalisierung oder irgendein anderes Kommunikationsformat zu nutzen – einschließlich Kombinationen davon.
  • Die Benutzerschnittstelle 1102 umfasst Komponenten, die mit einem Benutzer/einer Benutzerin interagieren, um Benutzereingaben zu empfangen und Medien und/oder Informationen zu präsentieren. Speziell beinhaltet die Benutzerschnittstelle 1102 eine Anzeige zum Präsentieren von Videos in der oben beschriebenen Weise. Die Benutzerschnittstelle 1102 beinhaltet möglicherweise einen Lautsprecher, ein Mikrofon, Schaltflächen, eine Beleuchtung, einen Anzeigebildschirm, einen Berührungsbildschirm, ein Berührungspad, ein Mausrad, einen Kommunikationsport oder irgendeine andere Benutzereingabe-/-ausgabeeinrichtung – einschließlich Kombinationen davon.
  • Die Sensoren 1104 umfassen Komponenten, die Informationen aufnehmen, welche für die Bestimmung der Ansicht aus oder der Ausrichtung der am Kopf angebrachten Anzeige 1100 relevant sind. Die Sensoren 1104 beinhalten möglicherweise eine nach vorn gerichtete Kamera, ein 3D-Gyroskop, einen Beschleunigungsmesser, einen Blickregistrierungssensor oder einen Sensor von einem beliebigen anderen Typ – einschließlich Kombinationen davon.
  • Die Verarbeitungsschaltung 1105 umfasst einen Mikroprozessor und andere Schaltungen, welche die Betriebssoftware 1107 aus dem Speichergerät 1106 abrufen und ausführen. Das Speichergerät 1106 umfasst ein nicht transientes Speichermedium wie ein Plattenlaufwerk, ein Flashlaufwerk, eine Datenspeicherschaltung oder irgendeine andere Speichereinrichtung. Die Verarbeitungsschaltung 1105 ist in der Regel auf einer Leiterplatte montiert, die auch mit dem Speichergerät 1106 und Teilen der Kommunikationsschnittstelle 1101 und der Benutzerschnittstelle 1102 bestückt sein kann. Die Betriebssoftware 1107 umfasst Computerprogramme, Firmware oder beliebige andere Formen maschinenlesbarer Verarbeitungsbefehle. Die Betriebssoftware 1107 beinhaltet ein Ansichtsinformationsmodul 1108 und ein Videopräsentationsmodul 1109. Die Betriebssoftware 1107 beinhaltet möglicherweise weiter ein Betriebssystem, Dienstprogramme, Treiber, Netzschnittstellen, Anwendungen oder Software von beliebigen anderen Typen. Wenn die Betriebssoftware 1107 von der Verarbeitungsschaltung 1105 ausgeführt wird, weist sie das Verarbeitungssystem 1103 dazu an, die am Kopf angebrachte Anzeige 1100, wie hierin beschrieben, zu betreiben.
  • Insbesondere weist das Ansichtsinformationsmodul 1108 das Verarbeitungssystem 1103 dazu an, während einer Konferenzsitzung Ansichtsinformationen von den Sensoren 1104 zu kompilieren, die zum Bestimmen einer ersten Ansicht genutzt werden, die von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die die am Kopf angebrachte Anzeige 1100 trägt, gesehen wird. Das Videopräsentationsmodul 1109 weist das Verarbeitungssystem 1103 dazu an, über die Kommunikationsschnittstelle 1101 ein Konferenzvideo zu empfangen, das mindestens ein Video umfasst, das von einem zweiten Teilnehmer/einer zweiten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde. Das Videopräsentationsmodul 1109 weist das Verarbeitungssystem 1103 weiter dazu an, über die Benutzerschnittstelle 1102 das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video so zu präsentieren, dass der zweite Teilnehmer/die zweite Teilnehmerin an einer ersten Position eines Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.
  • 12 veranschaulicht einen beispielhaften Formfaktor der am Kopf angebrachten Anzeige 1100. Speziell sieht 12 eine Brille 1200 vor, die ein Gestell 1201 und Linsen 12111212 beinhaltet. Ohne dass im Wesentlichen vom Formfaktor der Brille 1200 (z. B. Korbbrille, Visier etc.) abgewichen wird, kann die Verarbeitungsschaltung in das Gestell 1201 integriert oder in anderer Weise am Gestell 1201 befestigt sein. Ferner kann in die Linsen 12111212 ein transparentes oder undurchsichtiges Anzeigesystem integriert sein, abhängig davon, ob die Brille 1200 jeweils für AR- oder VR-Videos konfiguriert ist. Alternativ kann das Gestell 1201 eine Anzeige in Projektorart zum Projizieren von Videobildern auf die Linsen 12111212 beinhalten. Für VR-Videos kann die Brille mehr Umrissanpassungselemente beinhalten, um äußeres Licht, das die Augen des Teilnehmers/der Teilnehmerin beim Ansehen des VR-Videos erreicht, auszublenden. Desgleichen können die Linsen 12111212 bei einigen VR-Beispielen weggelassen und durch einen oder mehrere Anzeigebildschirme ersetzt werden.
  • Bei einigen Beispielen ist mindestens ein Teil der Verarbeitungs- und Kommunikationsschaltung von der Brille 1200 getrennt, wird jedoch trotzdem als Bestandteil der am Kopf angebrachten Anzeige 1100 betrachtet. Beispielsweise kommuniziert möglicherweise eine Wearable-Computereinheit (oder eine Computereinheit, die sich sonst nahe bei der Brille 1200 befindet) über eine drahtgebundene oder drahtlose (z. B. Bluetooth-, Wi-Fi- etc.) Verbindung mit der Brille 1200. Die Wearable-Computereinheit kann den Großteil der Verarbeitungs- und Netzkommunikationen durchführen, die für die Arbeitsweise der Brille 1200, wie hierin beschrieben, nötig sind.
  • Die obige Beschreibung und die assoziierten Figuren lehren die beste Ausführungsform der Erfindung. Die folgenden Ansprüche legen den Schutzbereich der Erfindung fest. Es ist zu beachten, dass einige Aspekte der besten Ausführungsform möglicherweise nicht in den Schutzbereich der Erfindung, wie von den Ansprüchen festgelegt, fallen. Der Fachmann erkennt, dass die oben beschriebenen Merkmale auf verschiedene Weisen kombiniert werden können, um mehrere Varianten der Erfindung zu bilden. Folglich wird die Erfindung nicht auf die speziellen Ausführungsformen, die oben beschrieben werden, sondern nur durch die folgenden Ansprüche und ihre Äquivalente begrenzt.

Claims (10)

  1. Nicht transientes computerlesbares Speichermedium mit darauf gespeicherten Befehlen, die, wenn sie von einer am Kopf angebrachten Anzeige (HMD), die von einem ersten Teilnehmer/einer ersten Teilnehmerin getragen wird, ausgeführtwerden, die HMD dazu anweisen, ein Verfahren zum Präsentieren einer Besprechung zwischen entfernten Augmented-Reality(AR)- und Virtual-Reality(VR)-Teilnehmern/-Teilnehmerinnen durchzuführen, wobei das Verfahren Folgendes umfasst: Kompilieren, während einer Konferenzsitzung, von Ansichtsinformationen, die zum Bestimmen einer von dem ersten Teilnehmer/der ersten Teilnehmerin gesehenen ersten Ansicht genutzt werden; Empfangen eines Konferenzvideos, das mindestens ein Video umfasst, das von einem zweiten Teilnehmer/einer zweiten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde; und Präsentieren des von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommenen Videos so, dass der zweite Teilnehmer/die zweite Teilnehmerin an einer ersten Position eines Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.
  2. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Konferenzvideo weiter ein Video vom Besprechungsort umfasst und das Verfahren weiter Folgendes umfasst: Präsentieren des Videos vom Besprechungsort.
  3. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Verfahren weiter Folgendes umfasst: Übertragen der Ansichtsinformationen an einen Konferenzserver; und wobei der Konferenzserver die Ansichtsinformationen nutzt, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video zu verarbeiten, um einen Ansichtswinkel der ersten Ansicht relativ zur ersten Position des Besprechungsorts zu berücksichtigen.
  4. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das Verfahren weiter Folgendes umfasst: Nutzen der Ansichtsinformationen, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video zu verarbeiten, um einen Ansichtswinkel der ersten Ansicht relativ zur ersten Position des Besprechungsorts zu berücksichtigen.
  5. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei der Besprechungsort den physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin umfasst.
  6. Nicht transientes computerlesbares Medium nach Anspruch 1, wobei das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video einen von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommenen Tonteil beinhaltet und das Verfahren weiter Folgendes umfasst: Präsentieren des von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommenen Tonteils, sodass der von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Tonteil von der ersten Position des Besprechungsorts zu kommen scheint.
  7. Am Kopf angebrachte Anzeige (HMD) zum Präsentieren einer Besprechung zwischen entfernten Augmented-Reality(AR)- und Virtual-Reality(VR)-Teilnehmern/-Teilnehmerinnen, wobei die HMD Folgendes umfasst: ein Verarbeitungssystem, das konfiguriert ist, um während einer Konferenzsitzung Ansichtsinformationen zu kompilieren, die zum Bestimmen einer ersten Ansicht genutzt werden, die von einem ersten Teilnehmer/einer ersten Teilnehmerin, der/die die HMD trägt, gesehen wird; eine Kommunikationsschnittstelle, die konfiguriert ist, um ein Konferenzvideo zu empfangen, das mindestens ein Video umfasst, das von einem zweiten Teilnehmer/einer zweiten Teilnehmerin, der/die vom physischen Ort des ersten Teilnehmers/der ersten Teilnehmerin entfernt ist, aufgenommen wurde; und ein Anzeigesystem, das konfiguriert ist, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video so zu präsentieren, dass der zweite Teilnehmer/die zweite Teilnehmerin an einer ersten Position eines Besprechungsorts in der ersten Ansicht für den ersten Teilnehmer/die erste Teilnehmerin erscheint.
  8. HMD nach Anspruch 7, wobei das Konferenzvideo weiter ein Video vom Besprechungsort umfasst, und wobei die HMD weiter Folgendes umfasst: dass das Anzeigesystem konfiguriert ist, um das Video vom Besprechungsort zu präsentieren.
  9. HMD nach Anspruch 7, die weiter Folgendes umfasst: dass die Kommunikationsschnittstelle konfiguriert ist, um die Ansichtsinformationen an einen Konferenzserver zu übertragen; und wobei der Konferenzserver die Ansichtsinformationen nutzt, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video zu verarbeiten, um einen Ansichtswinkel der ersten Ansicht relativ zur ersten Position des Besprechungsorts zu berücksichtigen.
  10. HMD nach Anspruch 7, die weiter Folgendes umfasst: dass das Verarbeitungssystem konfiguriert ist, um die Ansichtsinformationen zu nutzen, um das von dem zweiten Teilnehmer/der zweiten Teilnehmerin aufgenommene Video zu verarbeiten, um einen Ansichtswinkel der ersten Ansicht relativ zur ersten Position des Besprechungsorts zu berücksichtigen.
DE102015100926.9A 2014-01-24 2015-01-22 Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität Active DE102015100926B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461931234P 2014-01-24 2014-01-24
US61/931,234 2014-01-24

Publications (2)

Publication Number Publication Date
DE102015100926A1 true DE102015100926A1 (de) 2015-08-13
DE102015100926B4 DE102015100926B4 (de) 2019-06-13

Family

ID=53523084

Family Applications (3)

Application Number Title Priority Date Filing Date
DE102015100926.9A Active DE102015100926B4 (de) 2014-01-24 2015-01-22 Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102015100930.7A Active DE102015100930B4 (de) 2014-01-24 2015-01-22 Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102015100911.0A Active DE102015100911B4 (de) 2014-01-24 2015-01-22 Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE102015100930.7A Active DE102015100930B4 (de) 2014-01-24 2015-01-22 Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102015100911.0A Active DE102015100911B4 (de) 2014-01-24 2015-01-22 Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität

Country Status (3)

Country Link
US (3) US9524588B2 (de)
KR (3) KR101656172B1 (de)
DE (3) DE102015100926B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109952759A (zh) * 2017-02-03 2019-06-28 伟视达电子工贸有限公司 用于具有hmd的视频会议的改进的方法和系统
CN111800599A (zh) * 2020-09-09 2020-10-20 芋头科技(杭州)有限公司 基于智能眼镜进行数据流获取和显示的方法及智能眼镜

Families Citing this family (210)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US20120030595A1 (en) * 2010-07-29 2012-02-02 Seiko Epson Corporation Information storage medium, terminal apparatus, and image generation method
US20150355463A1 (en) * 2013-01-24 2015-12-10 Sony Corporation Image display apparatus, image display method, and image display system
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9479730B1 (en) 2014-02-13 2016-10-25 Steelcase, Inc. Inferred activity based conference enhancement method and system
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160125652A1 (en) * 2014-11-03 2016-05-05 Avaya Inc. Augmented reality supervisor display
US10495726B2 (en) * 2014-11-13 2019-12-03 WorldViz, Inc. Methods and systems for an immersive virtual reality system using multiple active markers
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
KR101659849B1 (ko) * 2015-01-09 2016-09-29 한국과학기술원 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체
CA2973065C (en) * 2015-02-13 2019-07-23 Halliburton Energy Services, Inc. Using augmented reality to collect, process and share information
US9690103B2 (en) * 2015-02-16 2017-06-27 Philip Lyren Display an image during a communication
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
KR101577986B1 (ko) * 2015-03-24 2015-12-16 (주)해든브릿지 양방향 가상 현실 구현 시스템
US10721280B1 (en) * 2015-05-29 2020-07-21 Sprint Communications Company L.P. Extended mixed multimedia reality platform
KR102319432B1 (ko) 2015-07-13 2021-10-29 현대모비스 주식회사 이종 오디오 방송간 전환 방법
US10701318B2 (en) * 2015-08-14 2020-06-30 Pcms Holdings, Inc. System and method for augmented reality multi-view telepresence
US11504492B2 (en) * 2015-10-08 2022-11-22 ResMed Pty Ltd Air conduit for a respiratory device
KR101763636B1 (ko) * 2015-10-15 2017-08-02 한국과학기술원 헤드 마운트 디스플레이를 이용한 협업 방법
GB2543913B (en) * 2015-10-30 2019-05-08 Walmart Apollo Llc Virtual conference room
CA2948761A1 (en) * 2015-11-23 2017-05-23 Wal-Mart Stores, Inc. Virtual training system
US10095928B2 (en) 2015-12-22 2018-10-09 WorldViz, Inc. Methods and systems for marker identification
US10204397B2 (en) 2016-03-15 2019-02-12 Microsoft Technology Licensing, Llc Bowtie view representing a 360-degree image
US9686510B1 (en) 2016-03-15 2017-06-20 Microsoft Technology Licensing, Llc Selectable interaction elements in a 360-degree video stream
US9924238B2 (en) * 2016-03-21 2018-03-20 Screenovate Technologies Ltd. Method and a system for using a computerized source device within the virtual environment of a head mounted device
CN105828062A (zh) * 2016-03-23 2016-08-03 常州视线电子科技有限公司 无人机3d虚拟现实拍摄系统
WO2017172528A1 (en) 2016-04-01 2017-10-05 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
CN109416842B (zh) * 2016-05-02 2023-08-29 华纳兄弟娱乐公司 在虚拟现实和增强现实中的几何匹配
US10242501B1 (en) 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
WO2018005235A1 (en) * 2016-06-30 2018-01-04 Pcms Holdings, Inc. System and method for spatial interaction using automatically positioned cameras
US9756286B1 (en) 2016-08-05 2017-09-05 Microsoft Technology Licensing, Llc Communication event
KR20180017736A (ko) * 2016-08-10 2018-02-21 (주) 씽크브릿지 Hmd 및 그 hmd의 제어 방법
WO2018039071A1 (en) * 2016-08-23 2018-03-01 Pcms Holdings, Inc. Method and system for showing remote meeting sites from user-dependent viewpoints
WO2018041780A1 (en) * 2016-08-29 2018-03-08 Koninklijke Kpn N.V. Communicating in a virtual reality environment
US10169919B2 (en) * 2016-09-09 2019-01-01 Oath Inc. Headset visual displacement for motion correction
US20180123813A1 (en) * 2016-10-31 2018-05-03 Bragi GmbH Augmented Reality Conferencing System and Method
KR102044003B1 (ko) * 2016-11-23 2019-11-12 한국전자통신연구원 영상 회의를 위한 전자 장치 및 그의 동작 방법
CN108377355A (zh) * 2016-11-28 2018-08-07 中兴通讯股份有限公司 一种视频数据处理方法、装置及设备
US10645178B2 (en) * 2016-11-29 2020-05-05 Ncr Corporation Omni-channel virtual reality (VR) collaboration
EP3548958A4 (de) * 2016-12-05 2020-07-29 Case Western Reserve University Systeme, verfahren und medien zur anzeige interaktiver darstellungen der erweiterten realität
US10466777B2 (en) * 2016-12-07 2019-11-05 LogMeln, Inc. Private real-time communication between meeting attendees during a meeting using one or more augmented reality headsets
US9953650B1 (en) * 2016-12-08 2018-04-24 Louise M Falevsky Systems, apparatus and methods for using biofeedback for altering speech
US10701319B2 (en) * 2016-12-20 2020-06-30 Intracom Systems, Llc Enhanced virtual and/or augmented communications interface
DE102016125268A1 (de) * 2016-12-21 2018-06-21 Electronic Ventures Limited Verfahren und System zur Anzeige von omnidirektionalen Videosequenzen
CN110168630B (zh) * 2017-02-03 2021-12-28 杰创科系统有限公司 增强视频现实
WO2018175335A1 (en) * 2017-03-24 2018-09-27 Pcms Holdings, Inc. Method and system for discovering and positioning content into augmented reality space
US10403050B1 (en) 2017-04-10 2019-09-03 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US11782669B2 (en) 2017-04-28 2023-10-10 Microsoft Technology Licensing, Llc Intuitive augmented reality collaboration on visual data
WO2018207046A1 (en) * 2017-05-09 2018-11-15 Within Unlimited, Inc. Methods, systems and devices supporting real-time interactions in augmented reality environments
US10841537B2 (en) 2017-06-09 2020-11-17 Pcms Holdings, Inc. Spatially faithful telepresence supporting varying geometries and moving users
US10304239B2 (en) 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US11288913B2 (en) * 2017-08-09 2022-03-29 Igt Augmented reality systems methods for displaying remote and virtual players and spectators
US20190057551A1 (en) * 2017-08-17 2019-02-21 Jpmorgan Chase Bank, N.A. Systems and methods for combined augmented and virtual reality
US10796489B1 (en) 2017-09-13 2020-10-06 Lucasfilm Entertainment Company Ltd. Game engine responsive to motion-capture data for mixed-reality environments
KR102434402B1 (ko) 2017-09-19 2022-08-22 한국전자통신연구원 혼합현실 콘텐츠를 제공하는 장치 및 방법
US10983663B2 (en) 2017-09-29 2021-04-20 Apple Inc. Displaying applications
US11062570B2 (en) * 2017-11-11 2021-07-13 Casinotable Group Inc. Method, system, and apparatus for administering table games to real and virtual users simultaneously
CN109842792B (zh) * 2017-11-27 2021-05-11 中兴通讯股份有限公司 视频播放方法、装置、系统及存储介质
DE102017128680A1 (de) * 2017-12-04 2019-06-06 Vitero GmbH - Gesellschaft für mediale Kommunikationslösungen Verfahren und Vorrichtung zur Durchführung von Fernbesprechungen mit mehreren Teilnehmern
KR101918262B1 (ko) * 2017-12-19 2018-11-13 (주) 알큐브 혼합 현실 서비스 제공 방법 및 시스템
US10504274B2 (en) 2018-01-05 2019-12-10 Microsoft Technology Licensing, Llc Fusing, texturing, and rendering views of dynamic three-dimensional models
DE102018201336A1 (de) * 2018-01-29 2019-08-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Virtual-Reality-Konferenzsystem
GB201804383D0 (en) * 2018-03-19 2018-05-02 Microsoft Technology Licensing Llc Multi-endpoint mixed reality meetings
KR20190112407A (ko) 2018-03-26 2019-10-07 (주)씨소 홀로포테이션 컨텐츠 운용 방법
FR3080935B1 (fr) * 2018-05-02 2020-05-22 Argo Procede et systeme de generation a la volee d'un contenu de realite augmentee sur un appareil utilisateur.
WO2019212902A1 (en) * 2018-05-03 2019-11-07 Pcms Holdings, Inc. Systems and methods for physical proximity and/or gesture-based chaining of vr experiences
US10924566B2 (en) 2018-05-18 2021-02-16 High Fidelity, Inc. Use of corroboration to generate reputation scores within virtual reality environments
US11651555B2 (en) 2018-05-31 2023-05-16 Microsoft Technology Licensing, Llc Re-creation of virtual environment through a video call
EP3599544A1 (de) * 2018-07-25 2020-01-29 Nokia Technologies Oy Vorrichtung, verfahren, computerprogramm zur ermöglichung des zugang auf inhalt mit vermittelter realität durch einen entfernten benutzer
KR102035841B1 (ko) * 2018-08-08 2019-10-24 김보언 가상현실 이벤트 제공방법, 장치 및 프로그램
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US10554931B1 (en) 2018-10-01 2020-02-04 At&T Intellectual Property I, L.P. Method and apparatus for contextual inclusion of objects in a conference
DE102018220275A1 (de) * 2018-11-26 2020-05-28 Volkswagen Aktiengesellschaft Verfahren zur Durchführung einer Videokonferenz, Vorrichtung zur Verwendung bei dem Verfahren sowie dessen Umsetzung im Fahrzeug
US11175728B2 (en) 2019-02-06 2021-11-16 High Fidelity, Inc. Enabling negative reputation submissions in manners that reduce chances of retaliation
CN113646731A (zh) 2019-04-10 2021-11-12 苹果公司 用于参与共享布景的技术
US11812194B1 (en) * 2019-06-21 2023-11-07 Apple Inc. Private conversations in a virtual setting
CN110290211A (zh) * 2019-06-27 2019-09-27 北京大米科技有限公司 多人联机的通信方法、电子设备和可读存储介质
US11704874B2 (en) * 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
US11537351B2 (en) * 2019-08-12 2022-12-27 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11159766B2 (en) 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
CN113711175A (zh) 2019-09-26 2021-11-26 苹果公司 呈现计算机生成现实环境的可穿戴电子设备
CN116360601A (zh) 2019-09-27 2023-06-30 苹果公司 用于提供扩展现实环境的电子设备、存储介质和方法
KR102314782B1 (ko) * 2019-10-28 2021-10-19 네이버랩스 주식회사 3차원 증강현실 표시 방법
US10917613B1 (en) * 2020-01-03 2021-02-09 International Business Machines Corporation Virtual object placement in augmented reality environments
JP2023516045A (ja) * 2020-03-06 2023-04-17 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 調節/修正されたビデオを伴うビデオ会議を提供する方法および関係するビデオ会議ノード
US11444988B2 (en) * 2020-03-17 2022-09-13 Qualcomm Incorporated Signaling of scene description for multimedia conferencing
US10924710B1 (en) * 2020-03-24 2021-02-16 Htc Corporation Method for managing avatars in virtual meeting, head-mounted display, and non-transitory computer readable storage medium
US20210320810A1 (en) * 2020-04-10 2021-10-14 Samsung Electronics Co., Ltd. Volumetric conversational services using network edge
US11232640B2 (en) 2020-04-28 2022-01-25 Spatial Systems Inc. Augmented reality interaction, modeling, and annotation system
US11509865B2 (en) 2020-05-12 2022-11-22 True Meeting Inc Touchups, denoising and makeup related to a 3D virtual conference
US11792367B2 (en) 2020-05-12 2023-10-17 True Meeting Inc. Method and system for virtual 3D communications
US11790535B2 (en) 2020-05-12 2023-10-17 True Meeting Inc. Foreground and background segmentation related to a virtual three-dimensional (3D) video conference
US11870939B2 (en) 2020-05-12 2024-01-09 True Meeting Inc. Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference
US11805157B2 (en) 2020-05-12 2023-10-31 True Meeting Inc. Sharing content during a virtual 3D video conference
CN111736694B (zh) * 2020-06-11 2024-03-05 上海境腾信息科技有限公司 一种远程会议的全息呈现方法、存储介质及系统
US11475652B2 (en) * 2020-06-30 2022-10-18 Samsung Electronics Co., Ltd. Automatic representation toggling based on depth camera field of view
US11302063B2 (en) 2020-07-21 2022-04-12 Facebook Technologies, Llc 3D conversations in an artificial reality environment
US11233973B1 (en) 2020-07-23 2022-01-25 International Business Machines Corporation Mixed-reality teleconferencing across multiple locations
US11388116B2 (en) 2020-07-31 2022-07-12 International Business Machines Corporation Augmented reality enabled communication response
US11502861B2 (en) 2020-08-17 2022-11-15 T-Mobile Usa, Inc. Simulated auditory space for online meetings
US11756225B2 (en) * 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
CN116018803A (zh) * 2020-10-20 2023-04-25 卡特迈科技公司 具有可导航虚拟形象的基于网页的视频会议虚拟环境和其应用
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11750745B2 (en) 2020-11-18 2023-09-05 Kelly Properties, Llc Processing and distribution of audio signals in a multi-party conferencing environment
US11461067B2 (en) * 2020-12-17 2022-10-04 International Business Machines Corporation Shared information fields with head mounted displays
US11463499B1 (en) 2020-12-18 2022-10-04 Vr Edu Llc Storage and retrieval of virtual reality sessions state based upon participants
US11556172B1 (en) 2020-12-22 2023-01-17 Meta Platforms Technologies, Llc Viewpoint coordination on artificial reality models
US11330021B1 (en) 2020-12-31 2022-05-10 Benjamin Slotznick System and method of mirroring a display of multiple video feeds in videoconferencing systems
US11546385B1 (en) 2020-12-31 2023-01-03 Benjamin Slotznick Method and apparatus for self-selection by participant to display a mirrored or unmirrored video feed of the participant in a videoconferencing platform
US11621979B1 (en) * 2020-12-31 2023-04-04 Benjamin Slotznick Method and apparatus for repositioning meeting participants within a virtual space view in an online meeting user interface based on gestures made by the meeting participants
US11907521B2 (en) 2021-01-28 2024-02-20 Samsung Electronics Co., Ltd. Augmented reality calling interface
US11470162B2 (en) 2021-01-30 2022-10-11 Zoom Video Communications, Inc. Intelligent configuration of personal endpoint devices
KR102472115B1 (ko) * 2021-02-04 2022-11-29 (주)스마트큐브 다자간 온라인 업무 협업을 위한 증강현실 기반의 화상회의를 제공하기 위한 장치 및 이를 위한 방법
EP4295314A1 (de) 2021-02-08 2023-12-27 Sightful Computers Ltd Gemeinsame inhaltsnutzung in erweiterter realität
US11765332B2 (en) 2021-03-02 2023-09-19 True Meeting Inc. Virtual 3D communications with participant viewpoint adjustment
US11943072B2 (en) 2021-03-30 2024-03-26 Snap Inc. Providing a room preview within a virtual conferencing system
US11689696B2 (en) * 2021-03-30 2023-06-27 Snap Inc. Configuring participant video feeds within a virtual conferencing system
US20220353437A1 (en) * 2021-04-16 2022-11-03 Zoom Video Communications, Inc. Systems and methods for immersive scenes
EP4309374A1 (de) * 2021-04-19 2024-01-24 Meta Platforms Technologies, Llc Am handgelenk tragbare vorrichtung zum automatischen umschalten zwischen video und anderen rufmodi auf basis von sensordaten
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
WO2022233434A1 (en) * 2021-05-07 2022-11-10 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangements for graphically visualizing data transfer in a 3d virtual environment
US11663750B2 (en) * 2021-06-25 2023-05-30 Hewlett-Packard Development Company, L.P. Image data bars
US11461962B1 (en) 2021-06-28 2022-10-04 Meta Platforms Technologies, Llc Holographic calling for artificial reality
WO2023284958A1 (en) * 2021-07-15 2023-01-19 Telefonaktiebolaget Lm Ericsson (Publ) Adjusting pose of video object in 3d video stream from user device based on augmented reality context information from augmented reality display device
KR20230023431A (ko) 2021-08-10 2023-02-17 서울시립대학교 산학협력단 실시간으로 테이블 단위의 매장 정보를 제공하기 위한 장치 및 이를 위한 방법
US11831814B2 (en) * 2021-09-03 2023-11-28 Meta Platforms Technologies, Llc Parallel video call and artificial reality spaces
US11838340B2 (en) * 2021-09-20 2023-12-05 International Business Machines Corporation Dynamic mute control for web conferencing
US11921970B1 (en) 2021-10-11 2024-03-05 Meta Platforms Technologies, Llc Coordinating virtual interactions with a mini-map
WO2023087005A1 (en) * 2021-11-12 2023-05-19 Case Western Reserve University Systems, methods, and media for controlling shared extended reality presentations
US11770422B2 (en) * 2021-12-18 2023-09-26 Zoom Video Communications, Inc. Real-time engagement analytics for communication sessions
US11676329B1 (en) 2022-01-07 2023-06-13 Meta Platforms Technologies, Llc Mobile device holographic calling with front and back camera capture
CN114390241A (zh) * 2022-01-14 2022-04-22 西安万像电子科技有限公司 一种vr远程会议方法及装置
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) * 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11798204B2 (en) * 2022-03-02 2023-10-24 Qualcomm Incorporated Systems and methods of image processing based on gaze detection
US11949527B2 (en) * 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat
WO2023239708A1 (en) * 2022-06-07 2023-12-14 Canon U.S.A., Inc. System and method for authenticating presence in a room
US11886767B2 (en) 2022-06-17 2024-01-30 T-Mobile Usa, Inc. Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US20240062457A1 (en) * 2022-08-18 2024-02-22 Microsoft Technology Licensing, Llc Adaptive adjustments of perspective views for improving detail awareness for users associated with target entities of a virtual environment
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment
US11893162B1 (en) * 2023-01-26 2024-02-06 Zoom Video Communications, Inc. Using wearable devices to capture actions of participants in a meeting

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4400724A (en) * 1981-06-08 1983-08-23 The United States Of America As Represented By The Secretary Of The Army Virtual space teleconference system
JPH0433490A (ja) * 1990-05-30 1992-02-04 Sony Corp テレビ会議システム
AU6814694A (en) * 1993-06-03 1995-01-03 Target Technologies, Inc. Videoconferencing system
US5745161A (en) * 1993-08-30 1998-04-28 Canon Kabushiki Kaisha Video conference system
US5572248A (en) * 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6545700B1 (en) * 1997-06-25 2003-04-08 David A. Monroe Virtual video teleconferencing system
US6330022B1 (en) * 1998-11-05 2001-12-11 Lucent Technologies Inc. Digital processing apparatus and method to support video conferencing in variable contexts
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
GB2349055B (en) * 1999-04-16 2004-03-24 Mitel Corp Virtual meeting rooms with spatial audio
US6409599B1 (en) 1999-07-19 2002-06-25 Ham On Rye Technologies, Inc. Interactive virtual reality performance theater entertainment system
EP1250701B1 (de) * 2000-01-27 2004-11-17 Siemens Aktiengesellschaft System und verfahren zur blickfokussierten sprachverarbeitung
US7057582B2 (en) * 2000-03-15 2006-06-06 Information Decision Technologies, Llc Ruggedized instrumented firefighter's self contained breathing apparatus
DE10041104C1 (de) * 2000-08-22 2002-03-07 Siemens Ag Einrichtung und Verfahren zur Kommunikation zwischen einer mobilen Datenverarbeitungsvorrichtung und einer stationären Datenverarbeitungsvorrichtung
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
US6583808B2 (en) 2001-10-04 2003-06-24 National Research Council Of Canada Method and system for stereo videoconferencing
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7764247B2 (en) * 2006-02-17 2010-07-27 Microsoft Corporation Adaptive heads-up user interface for automobiles
US8223186B2 (en) * 2006-05-31 2012-07-17 Hewlett-Packard Development Company, L.P. User interface for a video teleconference
ATE512517T1 (de) * 2007-10-01 2011-06-15 Hewlett Packard Development Co Systeme und verfahren zur verwaltung über mehrere netzwerke verteilter virtueller kollaborationssysteme
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
DE102008027832A1 (de) * 2008-06-11 2009-12-17 Vrmagic Gmbh Ophthalmoskop-Simulator
US20110085018A1 (en) * 2009-10-09 2011-04-14 Culbertson W Bruce Multi-User Video Conference Using Head Position Information
KR20110066298A (ko) 2009-12-11 2011-06-17 한국전자통신연구원 협력형 혼합현실 서버, 단말기 및 시스템과 이를 이용한 협력형 혼합 현실 서비스방법
US8503539B2 (en) * 2010-02-26 2013-08-06 Bao Tran High definition personal computer (PC) cam
US9767481B2 (en) * 2010-04-30 2017-09-19 American Teleconferencing Services, Ltd. Systems, methods, and computer programs for providing advertisements in a conference user interface
JP2012032931A (ja) 2010-07-29 2012-02-16 Hitachi Ltd Rfidタグ及びrfidタグの製造方法
US8395655B2 (en) * 2010-08-15 2013-03-12 Hewlett-Packard Development Company, L.P. System and method for enabling collaboration in a video conferencing system
KR101299910B1 (ko) 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
US20120046768A1 (en) 2010-08-19 2012-02-23 Sony Ericsson Mobile Communications Ab Method for providing multimedia data to a user
US8780014B2 (en) * 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US20120170800A1 (en) * 2010-12-30 2012-07-05 Ydreams - Informatica, S.A. Systems and methods for continuous physics simulation from discrete video acquisition
US20120197991A1 (en) * 2011-01-28 2012-08-02 Hewlett-Packard Development Company, L.P. Method and system for intuitive interaction over a network
US20120204120A1 (en) * 2011-02-08 2012-08-09 Lefar Marc P Systems and methods for conducting and replaying virtual meetings
EP3654147A1 (de) * 2011-03-29 2020-05-20 QUALCOMM Incorporated System zur darstellung von gemeinsam genutzten digitalen schnittstellen in bezug auf die perspektive eines jeden benutzers
US8581958B2 (en) * 2011-04-18 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for establishing video conferences using portable electronic devices
US8581956B2 (en) * 2011-04-29 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for communicating focus of attention in a video conference
US8675067B2 (en) * 2011-05-04 2014-03-18 Microsoft Corporation Immersive remote conferencing
WO2013006170A1 (en) * 2011-07-06 2013-01-10 Hewlett-Packard Development Company, L.P. Telepresence portal system
US8912979B1 (en) * 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
US9311742B1 (en) 2011-07-18 2016-04-12 Motion Reality, Inc. Navigating an avatar through a virtual world in a motion capture simulation environment
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US8767306B1 (en) * 2011-09-22 2014-07-01 Google Inc. Display system
US9538133B2 (en) * 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
US9008487B2 (en) * 2011-12-06 2015-04-14 Alcatel Lucent Spatial bookmarking
US20130194389A1 (en) * 2012-01-31 2013-08-01 Ben Vaught Head-mounted display device to measure attentiveness
US20130194304A1 (en) 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US9153043B1 (en) * 2012-02-16 2015-10-06 Google, Inc. Systems and methods for providing a user interface in a field of view of a media item
US9035878B1 (en) * 2012-02-29 2015-05-19 Google Inc. Input system
US8643951B1 (en) * 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
GB2502063A (en) * 2012-05-14 2013-11-20 Sony Corp Video cueing system and method for sporting event
US9152226B2 (en) * 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
US9088688B2 (en) * 2012-09-05 2015-07-21 Cisco Technology, Inc. System and method for collaboration revelation and participant stacking in a network environment
US9111258B2 (en) * 2012-10-25 2015-08-18 Microsoft Technology Licensing, Llc Connecting to meetings with barcodes or other watermarks on meeting content
US10200654B2 (en) * 2013-02-27 2019-02-05 Szymczyk Matthew Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space
US20140300758A1 (en) * 2013-04-04 2014-10-09 Bao Tran Video processing systems and methods
US9940750B2 (en) * 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
CA2946727A1 (en) * 2014-04-23 2015-10-29 President And Fellows Of Harvard College Telepresence apparatus and method enabling a case-study approach to lecturing and teaching

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109952759A (zh) * 2017-02-03 2019-06-28 伟视达电子工贸有限公司 用于具有hmd的视频会议的改进的方法和系统
CN109952759B (zh) * 2017-02-03 2021-06-15 伟视达电子工贸有限公司 用于具有hmd的视频会议的改进的方法和系统
CN111800599A (zh) * 2020-09-09 2020-10-20 芋头科技(杭州)有限公司 基于智能眼镜进行数据流获取和显示的方法及智能眼镜
CN111800599B (zh) * 2020-09-09 2020-12-01 芋头科技(杭州)有限公司 基于智能眼镜进行数据流获取和显示的方法及智能眼镜

Also Published As

Publication number Publication date
KR101665229B1 (ko) 2016-10-11
US20150215581A1 (en) 2015-07-30
US20150213650A1 (en) 2015-07-30
DE102015100911A1 (de) 2015-07-30
KR20150099403A (ko) 2015-08-31
DE102015100911B4 (de) 2019-04-18
DE102015100930A1 (de) 2015-08-13
KR101656172B1 (ko) 2016-09-08
KR20150099402A (ko) 2015-08-31
DE102015100926B4 (de) 2019-06-13
DE102015100930B4 (de) 2019-06-13
KR20150099401A (ko) 2015-08-31
US10013805B2 (en) 2018-07-03
KR101734635B1 (ko) 2017-05-15
US9959676B2 (en) 2018-05-01
US9524588B2 (en) 2016-12-20
US20150215351A1 (en) 2015-07-30

Similar Documents

Publication Publication Date Title
DE102015100926B4 (de) Präsentation von verbesserter Kommunikation zwischen entfernten Telnehmern /Teilnehmerinnen mittels erweiterter und virtueller Realität
EP3358835B1 (de) Verbessertes verfahren und system für videokonferenzen mit hmds
US11455032B2 (en) Immersive displays
US20220006973A1 (en) Placement of virtual content in environments with a plurality of physical participants
US20220264068A1 (en) Telepresence system and method
DE112016004640T5 (de) Filmische bearbeitung für virtuelle realität und erweiterte realität
DE112020001415T5 (de) Umgebung für Fernkommunikation
CA2924156A1 (en) Method, system and apparatus for capture-based immersive telepresence in virtual environment
US11184362B1 (en) Securing private audio in a virtual conference, and applications thereof
US11743430B2 (en) Providing awareness of who can hear audio in a virtual conference, and applications thereof
CH709251A2 (de) Verfahren und Vorrichtung für Telepräsenz.
CN207051853U (zh) 一种沉浸式虚拟现实体验系统
DE102014004069A1 (de) Verfahren, Softwareprodukt und Vorrichtung zur Steuerung einer Konferenz
KR20220126660A (ko) Ar 안면인식을 활용한 메타버스 화상 교육 플랫폼 제공 방법 및 네트워크 시스템
DE102012007441B4 (de) Virtuelle Transportmaschine: Task-Ins-Cubicle
DE102008056917A1 (de) Kooperationsfenster/wand
DE102018201336A1 (de) Virtual-Reality-Konferenzsystem
DE102015100680B4 (de) Verfahren und Vorrichtungen zur Umgebungsdarstellung
US20240037886A1 (en) Environment sharing
EP4309361A1 (de) Sicherung von privatem audio in einer virtuellen konferenz und anwendungen davon
DE102023005306A1 (de) Verfahren und Fahrzeug zum Teilnehmen an Gesprächsrunden
WO2016170025A1 (de) System und verfahren zur herstellung und abgabe stereoskopischer videofilme
DE10026489A1 (de) Verfahren zum Betrieb einer Videokonferenz und Vorrichtung zur Durchführung einer Videokonferenz
DE10300379A1 (de) Anzeige- und Eingabevorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final