DE102007023640A1 - Virtueller Arbeitsplatz - Google Patents

Virtueller Arbeitsplatz Download PDF

Info

Publication number
DE102007023640A1
DE102007023640A1 DE102007023640A DE102007023640A DE102007023640A1 DE 102007023640 A1 DE102007023640 A1 DE 102007023640A1 DE 102007023640 A DE102007023640 A DE 102007023640A DE 102007023640 A DE102007023640 A DE 102007023640A DE 102007023640 A1 DE102007023640 A1 DE 102007023640A1
Authority
DE
Germany
Prior art keywords
virtual
computer
user
input device
interactive input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007023640A
Other languages
English (en)
Inventor
Charlotte Skourup
John Pretlove
Trond Loekstad
Torbjorn Engedal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Technology AG
Original Assignee
ABB Technology AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Technology AG filed Critical ABB Technology AG
Publication of DE102007023640A1 publication Critical patent/DE102007023640A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und ein auf Computer basierendes System zum Konfigurieren, Überwachen und/oder Betreiben eines graphischen Benutzer-Interfaces in zwei oder drei Dimensionen. Insbesondere betrifft sie ein graphisches Benutzer-Interface, das zum Steuern, Überwachen und/oder Betreiben von Einrichtung in einem Steuerungssystem eines Industrieprozesses oder einer Einrichtung für Öl und Gas oder für eine Einrichtung zur Erzeugung, Weiterleitung und/oder Verteilung von elektrischer Energie...

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren und ein auf Computer basierendes System zum Konfigurieren, Überwachen und/oder Betreiben mehrerer graphischer Benutzeroberflächen beziehungsweise -Interfaces in zwei oder drei Dimensionen. Insbesondere betrifft sie eine graphische Benutzeroberfläche, die zum Steuern, Überwachen und/oder Betreiben einer Anlage in einem Steuersystem eines industriellen Prozesses oder einer Einrichtung für Öl und Gas oder für eine Einrichtung für elektrische Energie-Erzeugung, -Weiterleitung und/oder Verteilung verwendet wird.
  • Stand der Technik
  • Das Arbeiten vor einem Computerbildschirm für 8 Stunden täglich, für 5 Tage die Woche ist sowohl körperlich als auch geistig anspruchsvoll. Es ist körperlich unbequem und anstrengend den ganzen Tag in nahezu der gleichen Position still zu sitzen und auf einen Computerbildschirm zu starren. Folglich leiden zahlreiche Leute unter Belastung und Muskelproblemen an Nacken, Schultern und Armen. Wenn die gesamte Arbeit auf einem relativ kleinen Computerbildschirm, beispielsweise in Kontrollräumen statt finden muss, dann ist der beschränkte Platz beziehungsweise Raum fordernd, falls mit relativ zahlreichen Anwendungen auf dem/der Computerbildschirm/-anzeige gearbeitet wird, die durch funktionelle Oberflächen beziehungsweise Interfaces dargestellt werden. Bei Anwendungen benötigen die Bediener Information, beispielsweise sowohl eine Übersicht über den Prozess als auch ausführliche Information über den gegenwärtigen Zustand spezifischer Teilprozesse. Beispiele einer zusätzlichen Information, die durch funktionelle Interfaces, wie beispielsweise Microsoft Word Windows oder Ansichten dargestellt werden, sind Datentabellen und Information, Trends, Instandhaltungs- und Reparatur-Information, Berichte, Bestellungssysteme und Arbeitsgenehmigungen. Diese funktionellen Interfaces werden grundsätzlich durch zweidimensionale (2D) Informationsdarstellungen bereitgestellt. Alle funktionellen Interfaces werden in einem beschränkten Bereich auf der Desktop- beziehungsweise Arbeitsplatz-Anzeige übereinander gelegt und der Benutzer muss ein zusätzliches Einrichtung, beispielsweise eine Maus oder ähnliches verwenden, um die funktionellen Interfaces umher zu bewegen. Dann ist es einfach sich in den zahlreichen Zusammenstellungen der funktionellen Interfaces zu verlieren, wobei Zeit aufgebracht wird, um das richtige Interface aufzufinden.
  • Ein weiterer Nachteil besteht darin, dass jeder Benutzer, beispielsweise in Kontrollräumen, häufig mindestens einen Desktop-Bildschirm zusätzlich zu möglichen Projektoren als auch großen Bildschirmen benötigt. Dies ist sowohl teuer als auch raumfordernd. Werden mehr Desktop-Bildschirme bereitgestellt, dann wird der Arbeitsplatzraum immer noch durch die körperlichen Abmessungen der Bildschirme beschränkt. Die Tatsache, dass jeder Benutzer mindestens einen Desktop-Bildschirm zusätzlich zu einem oder mehreren großen Bildschirmen benötigt, ist kostspielig und uneffizient.
  • Erweiterte beziehungsweise gesteigerte Realität (AR) ist ein Verfahren, bei dem reale Weltdarstellungen mit durch den Computer erzeugten Graphiken überlagert werden. Idealerweise wird bei auf Sicht beziehungsweise Sehvermögen basierender erweitetr Realität der Benutzer den Unterschied zwischen den realen und den durch Computer erzeugten Graphiken nicht erkennen können, wobei dadurch der Benutzer eine verbesserte Vorstellung beziehungsweise Wahrnehmung der realen Weltumgebung erhält. Heutzutage werden in zahlreichen Anwendungen erweiterte Realitäts-Techniken verwendet. Beispiele einer Verwendung bestehen innerhalb von Medien, beispielsweise dem Wetterbericht, der Medizin, beispielsweise der Sichtbarmachung von Innenorganen, bei gemeinschaftlicher Umgebung, beispielsweise virtuellen Versammlungsräumen, und der Verarbeitungsindustrie zur Instandhaltung, Betriebseinsatz und Reparatur.
  • Es gibt bereits in der Hand gehaltene und tragbare Steuerpulte mit Interaktionsmöglichkeiten und das Interesse an derartigen Einrichtungen nimmt zu.
  • Die Verwendung von Mobiltelefonen und persönlichen digitalen Assistenten beziehungsweise Minicomputer (PDAs) als das Interface in Richtung auf Systeme und Vorrichtungen ist bekannt. Ebenfalls werden Tablett-PCs beispielsweise in Krankenhäusern verwendet, die dem Benutzer ein Interface bereitstellen, das einfach umher getragen und mit dem durch Berühren des Bildschirms kommuniziert werden kann.
  • US-6,826,532 B1 offenbart eine Steuerung für ein selbstbewegtes beziehungsweise Fahrzeug-Servicesystem einschließlich einer Schutzbrille, die eine projizierte Frontscheibenanzeige beziehungsweise ein Headup Display umfasst, die dem Techniker in dessen vorwärts gerichteten Blickfeld durch virtuelle Anzeige die Daten von dem Systemcontroller anzeigt ohne dessen allgemeines vorwärts gerichtetes Gesichtsfeld zu blockieren.
  • WO 2005/066744 A1 offenbart ein System, durch das ein Benutzer mit einem virtuellen Steuerpult unter Verwendung eines von einem Benutzer gesteuerten Zeigegegenstandes interagieren kann. Das System umfasst ein tragbares Identifikationselement, eine Trackingeinheit, um Daten einzufangen, die die Position des Zeigegegenstandes und die Position des Identifikationselements darstellt, eine Speichereinheit, die mindestens ein vorher festgelegtes graphisches Interface speichert, das ein Steuerpult einer Vorrichtung darstellt, eine Graphik-Einheit, die eine graphische Darstellung des Steuerpults erzeugt, eine Registrier- beziehungsweise Verzeichnende-Einheit, die die graphische Darstellung des Steuerpults in einer festen Relation zu dem tragbaren Identifikationselement anzeigt, um ein virtuelles Steuerpult und eine Anzeigeeinheit zu erzeugen, die dem Benutzer eine Ansicht zeigt, die die Realwelt und das virtuelle Steuerpult umfasst.
  • Es besteht ein Bedarf ein Verfahren aufzufinden, um die Zugänglichkeit und die Umschaltung zwischen mehreren möglichen technischen Informations-/Steuerungsanwendungen auf einem Desktop zu verbessern und eine kompaktere leichtgewichtige Einrichtung aufzufinden, um sowohl einen ergonomischeren Arbeitsplatz zu ermöglichen als auch dem Arbeitspersonal Zugang zu schwierigen Orten zu ermöglichen, an die in einer Fabrik lediglich eine Person gehen kann, während sie zu technischer Information Zugang hat und Steuerungsanwendungen ausführt.
  • Zusammenfassung der Erfindung
  • Die Aufgabe der Erfindung besteht darin einen Arbeitsplatz, wie vorstehend spezifiziert zu verbessern.
  • In einer ersten Ausführungsform der Erfindung wird die Aufgabe durch ein wie in Anspruch 1 festgelegtes System gelöst.
  • Ein System umfasst eine Logikeinheit, um in mehreren Anwendungen Daten zu verwalten beziehungsweise handhaben, eine tragbare Anzeigeeinrichtung, um die von der Logikeinheit erhaltenen Daten sichtbar anzuzeigen, einschließlich Mittel zum Abbilden der Daten in einem Gesichtsfeld des Benutzers, wodurch der Benutzer Daten von der tragbaren Anzeige empfangen kann. Das System umfasst weiterhin eine erweiterte Realitätsdarstellung von durch Computer erzeugter graphischer Information, die der Realwelt überlagert wird, eine interaktive Eingabeeinrichtung, ein Tracking- beziehungsweise Verfolgungssystem, um Daten einzufangen, die die Position der tragbaren Anzeigeeinrichtung relativ zu der interaktiven Eingabeeinrichtung darstellen, und Mittel zum Anzeigen einer erweiterten Realitätsdarstellung eines virtuellen Desktops auf der tragbaren Anzeigeeinrichtung, umfassend mehrere funktionelle Interfaces, die die Anwendungen darstellen, die unter Verwendung der interaktiven Eingabeeinrichtung zugänglich sind, und dass das Desktop im Raum so erweitert wird, dass das Desktop als eine virtuelle Sphäre beziehungsweise Kugel geformt vorliegt und wobei die funktionellen Interfaces bei optionaler Tiefe in der Sphäre angezeigt werden.
  • Diese Erfindung erweitert grundsätzlich den Arbeitsbereich für einen oder mehrere Benutzer von gewöhnlich zwei-dimensionalen (2D) Anzeigen auf Bildschirmen zu einem drei-dimensional (3D) erweiterten Welt-virtuellen Desktop. Virtuelle Desktops und virtuelle funktionelle Interfaces werden dadurch zugänglich gemacht und um den Benutzer in 3D in der realen Welt schwebend angeordnet. Dieses System erfordert keine körperlichen Computerbildschirme. Die funktionellen Interfaces werden, beispielsweise, auf an dem Kopf angebrachten Anzeigen (HMD) sichtbar gemacht. Dies ist vorteilhaft, da der Benutzer mit dessen Händen die funktionellen Interfaces im Raum bewegen und andererseits unter Verwendung einer Tastatur, einer Maus und eines Joysticks mit den funktionellen Interfaces interagieren kann.
  • Vorteile der vorliegenden Erfindung:
    • – Es ist ein/e gesteigerte/r Zugang zu mehr Datenquellen/Steuerung funktioneller Anzeigen über 3D virtuelle Desktops, die im 3D Raum angeordnet sind, möglich als durch mehrere 2D körperliche Bildschirme.
    • – Es wird ein schneller und ergonomischer Zugang zu zahlreichen Quellen technischer oder Steuerungsinformation möglich gemacht, da das virtuelle Desktop im 3D-Raum um den Benutzer in der Realwelt angeordnet ist.
    • – Der Arbeitsraum wird unter Verwendung eines größeren Desktops erweitert.
    • – Die Arbeitsumgebungen und Modi sind vollständig individuell anpassbar und folglich einfacher zugänglich und ergonomischer als ein mehr stationärer beziehungsweise fester Arbeitsplatz unter Verwendung von körperlichen 2D Bildschirmen.
    • – Eine bessere Übersicht über die Prozesse, was eine Entscheidungsbildung vereinfacht, was weiterhin zu besserer Effizienz führt und dadurch die Kosten senkt.
    • – Eine gesteigerte Flexibilität und Mobilität, da die Einrichtung kompakter und daher leichtgewichtiger ist.
  • Ein wie vorstehend beschriebenes erweitertes Realitäts-(AR) System umfasst mindestens:
    Eine tragbare Anzeigeeinrichtung, eine interaktive Eingabeeinrichtung, einen Computer, um die virtuellen funktionellen Interfaces im 3D-Raum zu steuern und anzuzeigen, ein Trackingsystem, um Position und Orientierung der tragbaren Anzeigeeinrichtung relativ zu der interaktiven Eingabeeinrichtung zu bestimmen, und graphische Software, um Graphiken der virtuellen funktionellen Interfaces und die eingefangene Videoabbildungen und/oder die Realwelt-Ansicht zu kombinieren.
  • Dieses System kann ebenfalls auf andere Anwendungen als Steuerräume und Büros angewendet werden.
  • Die interagierende Eingabeeinrichtung kann ebenfalls eine Ausgabeeinrichtung zum Interagieren mit den funktionellen Interfaces umfassen.
  • Gemäß einer erfindungsgemäßen Ausführungsform beträgt die Erweiterung des virtuellen Desktops 360 Grad in drei Freiheitsgraden. Da der Benutzer funktionelle Interfaces um sich herum in 360 Grad in drei Freiheitsgraden anordnen kann, ist der Desktop-Raum nahezu unbegrenzt. Dies stellt einen Vorteil dar, da das Desktopsystem dadurch flexibel und ergonomisch bequem beziehungsweise komfortabel ist.
  • Gemäß einer erfindungsgemäßen Ausführungsform ist das System dazu angepasst die Erscheinungsform des virtuellen Desktops als Antwort auf die Interaktionen zwischen der interaktiven Eingabeeinrichtung und dem virtuellen Desktop zu modifizieren. Dies ist vorteilhaft, da das Desktopsystem dadurch flexibel ist. Weiterhin ist dies vorteilhaft, da die Bediener die Position und Größe der unterschiedlichen Information in den unterschiedlichen funktionellen Interfaces anordnen können, wodurch Information gefiltert, hervorgehoben und individuell beziehungsweise Kundenwünschen angepasst werden kann, wobei dadurch die funktionellen Interfaces und der Arbeitsplatz an eine gegenwärtige Anwendung individuell angepasst wird. Der Bediener kann ebenfalls zwischen mehreren möglichen technischen Informationen/Steuerungsfunktionsanzeigen einfacher umschalten.
  • Gemäß einer erfindungsgemäßen Ausführungsform wird die interaktive Eingabeeinrichtung dazu verwendet, um funktionelle Interfaces in dem 3D-Raum zu bewegen, zu drehen, zu staffeln beziehungsweise skalieren, und zu sperren. Die Arbeitsbedingungen werden dadurch verbessert, da der Benutzer ein funktionelles Interface genau zu der Position bewegen kann, die zu dem gegenwärtigen Zeitpunkt am besten geeignet ist. Beispielsweise wird das funktionelle Interface im Raum angeordnet oder das funktionelle Interface wird an einem Tisch horizontal angeordnet. Da der Arbeitsraum unter Verwendung eines größeren Desktops erweitert wird, wird der Zugang auf unterschiedliche Anwendungen, die als funktionelle Interfaces auf der Anzeige dargestellt sind, erhöht. Der Bediener kann zwischen mehreren möglichen technischen Informationen/Steuerungsfunktionsanzeigen einfacher umschalten. In einer bevorzugten erfindungsgemäßen Ausführungsform beträgt die Erweiterung des virtuellen Desktops 360 Grad in drei Freiheitsgraden, wobei die funktionellen Interfaces in dem 3D-Raum, der unter Verwendung von Polar- oder kartesischen Koordinaten koordiniert beziehungsweiseangeordnet wurde, bewegt, gedreht, skaliert und gesperrt werden.
  • Gemäß einer erfindungsgemäßen Ausführungsform wird die interaktive Eingabeeinrichtung verwendet, um mit einer über ein funktionelles Interface zugänglichen Anwendung zu interagieren. Dies ist vorteilhaft, da die Bediener Informationen und Daten innerhalb der Anwendung selbst auswählen, eingeben, kopieren, einfügen, löschen, ändern, etc. können. Beispiele einer Interaktion mit der über ein funktionelles Interface zugänglichen Anwendung sind Abmelden (sign off) eines eingehenden Alarms, Anordnen des Cursors innerhalb eines Dokuments, um zusätzlichen Text eingeben zu können, Auswählen einer Einrichtung, beispielsweise einer Pumpe, Betrachten ausführlicher Information, wie beispielsweise eines Instandhaltungsberichts oder von Trends, Einstellen eines Sollwerts, beispielsweise einer Systemgrenze für Temperatur oder Druck, etc..
  • Gemäß einer erfindungsgemäßen Ausführungsform ist das System an zwei oder mehrere Benutzer angepasst, die gleichzeitig an einer Anwendung gemeinsam arbeiten. Da bei dem System lediglich ein/e körperlicher/körperliche Computerbildschirm/Anzeige pro Benutzer anstelle von einem oder mehreren Desktopbildschirmen, Projektoren und großen Bildschirmen pro Benutzer verwendet wird, werden die Kosten gesenkt. Weiterhin wird dadurch die Zugänglichkeit von technischer Information/Steuerungsanwendungen auf dem Desktop verbessert.
  • Gemäß einer erfindungsgemäßen Ausführungsform umfasst das System eine Kamera, um einen Live-Video-Datenstrom der Umgebung einzufangen, die der Benutzeransicht der Realwelt entspricht und wobei die virtuellen Graphiken dem Video der Realwelt überlagert werden, wobei die erweiterte Realitätsdarstellung eines virtuellen Desktops gebildet wird. In einer dunklen Umgebung ist dies vorteilhaft, wenn Infrarotlicht verwendet wird und die Kamera angepasst ist Infrarot-Verfahren zu verwenden, wobei dadurch der Bediener in der Dunkelheit virtuell sehen kann.
  • Gemäß einer erfindungsgemäßen Ausführungsform ist die Anzeigeneinrichtung angepasst optisch transparent zu sein, wobei die durch Computer erzeugten Graphiken unmittelbar auf der Anzeigeneinrichtung verzeichnet werden und der Benutzersicht der Realwelt so folgen, dass die durch Computer erzeugten Graphiken der Realwelt überlagert werden, wodurch die erweiterte Realitätsdarstellung des virtuellen Desktops gebildet wird. Dies ist vorteilhaft, da dies eine einfache und Benutzer freundliche Lösung ist.
  • Gemäß einer erfindungsgemäßen Ausführungsform ist die tragbare Anzeigeneinrichtung ein beliebiges aus einer Liste von: beispielsweise einer Brille, einer an dem Kopf angebrachten Anzeige, einem Headup-Display, einem virtuellen Retina- beziehungsweise Netzhaut-Display. In einer anderen erfindungsgemäßen Ausführungsform liegt die interaktive Eingabeeinrichtung als ein beliebiges aus der Liste von vor: Tastatur, 2D-Maus, 3D-Maus, Joystick, Trackball beziehungsweise Rollkugel, auf Gestik basierender Dateneingabe, wie beispielsweise Datenhandschuh, oder Mittel, um mit einem/r Stift/Fingerspitze unmittelbar mit den funktionellen Interfaces zu interagieren, die als ein virtueller Berührungsbildschirm funktionieren. Dies führt ein kleines leichtes kompaktes Ausrüstungs- beziehungsweise Einrichtungsstück für Arbeitsplätze ein. Dies ist vorteilhaft, da dadurch Zugang zu schwierigen Orten ermöglicht wird, an die in einer Fabrik lediglich eine Person gehen kann. Dies ermöglicht die Verwendung neuer Wege einer Interaktion mit funktionellen Interfaces. Dies führt weiterhin ein flexibles und bequemes beziehungsweise komfortables Desktopsystem ein. Die Interaktion mit dem in den funktionellen Interfaces dargestellten Inhalt wird mit einem beliebigen von den vorstehen erwähnten Anzeigeeinrichtungen oder interaktiven Eingabeeinrichtungen ausgeführt. Der virtuelle Berührungsbildschirm ist für den Benutzer flexibler und bequemer. Eine stetige Entwicklung von HMD wird möglicherweise in ein paar Jahren zu mehr kostengünstigen HMD führen. In diesem Zusammenhang bedeuten Datenhandschuhe interaktive Eingabeeinrichtungen in der Form von Handschuhen, die mit Eingabemitteln, wie beispielsweise Sensoren, bereitgestellt werden, die vorgesehen sind mit einem virtuellen Realitätssystem zu interagieren.
  • In einer zweiten Ausführungsform der Erfindung wird die Aufgabe durch eine graphische Benutzeroberfläche gelöst, die in Anspruch 12 festgelegt ist.
  • In einer dritten Ausführungsform der Erfindung wird die Aufgabe durch ein Verfahren gelöst, das in Anspruch 13 festgelegt ist.
  • Ein Verfahren durch welches ein Benutzer mit einem System interagieren kann, das eine Logikeinheit zum Verwalten von Daten in mehreren Anwendung unter Verwendung einer tragbaren Anzeigeneinrichtung umfasst, um die von der Logikeinheit empfangenen Daten sichtbar anzuzeigen, einschließlich Mittel zum Anzeigen von Daten in einem Gesichtsfeld des Benutzers, und Mittel zum Empfangen von Daten von der tragbaren Anzeige, wobei das Verfahren umfasst:
    • – Anzeigen einer erweiterten Realitätsdarstellung von durch Computer erzeugter graphischer Information, die der Realwelt überlagert wird,
    • – Verwenden einer interaktiven Eingabeeinrichtung als ein Trackingsystem, um Daten einzufangen, die die Position der tragbaren Anzeigeeinrichtung relativ zu der interaktiven Eingabeeinrichtung darstellen,
    • – Anzeigen einer erweiterten Realitätsdarstellung von einem virtuellen Desktop auf der tragbaren Anzeigeneinrichtung, wobei das virtuelle Desktop Anwendungen umfasst, die durch mehrere funktionelle Interfaces dargestellt werden,
    • – Ausführen von Einwirkungen, dass die interaktive Eingabeeinrichtung die funktionellen Interfaces zugänglich macht,
    • – Ausführen von Einwirkungen, dass das Desktop in einem Raum erweitert wird, so dass das Desktop als eine virtuelle Sphäre geformt wird und bei einer optionalen Tiefe in der Kugel mit den funktionellen Interfaces angezeigt wird.
  • Das erfindungsgemäße Verfabren und System werden verwendet, um mehrere funktionelle Interfaces im 3D-Raum zu konfigurieren und mit diesen effizient zu arbeiten. Gewöhnlich betrifft ein Hauptteil von in Kontrollräumen, Büros und ähnlichem ausgeführter Arbeit eine Interaktion mit 2D-Desktopbildschirmen. Diese Erfindung verwendet erweiterte Realität (AR), um die gewöhnlichen 2D funktionellen Interfaces entweder als 2D oder 3D virtuelle funktionelle Interfaces in der Kugel sichtbar zu machen.
  • In einer vierten erfindungsgemäßen Ausführungsform wird diese Aufgabe durch ein Computerprogramm gelöst, das unmittelbar in den internen Speicher eines Computers geladen werden kann, umfassend Software zum Ausführen der Schritte von einem der Ansprüche 13-23 und ein computerlesbares Medium, das das darauf aufgezeichnete Programm aufweist.
  • Das Verfahren nach einem der Ansprüche 13-23 ist besonders geeignet zur Verwendung in einem Steuerungssystem eines industriellen Arbeitsvorgangs oder einer Einrichtung für Öl und Gas oder für eine Einrichtung für elektrische Energie-Erzeugung, -Weiterleitung und/oder -Verteilung.
  • Kurze Beschreibung der Zeichnungen
  • Die vorliegende Erfindung wird in Verbindung mit den beigefügten schematischen Zeichnungen ausführlicher beschrieben:
  • 1 stellt eine erfindungsgemäße Ausführungsform eines Systems zum Konfigurieren und Betreiben eines virtuellen Desktops dar; und
  • 2 stellt eine vereinfachte Darstellung einer erfindungsgemäßen Ausführungsform eines virtuellen Desktops dar.
  • Darstellung der bevorzugten Ausführungsformen
  • Das System und das Verfahren stellen ein virtuelles Desktop bereit, das unter Verwendung erweiterter Realität dessen Interface und Inhalt an eine Einrichtung und/oder ein System anpassen kann. Ein System zum Erzeugen einer erweiterten Realitätsdarstellung von durch Computer erzeugter graphischer Information, die der Realwelt überlagert wird, kann auf unterschiedlichen Wegen konfiguriert werden. Zwei Wege einer Sichtbarmachung erweiterter Realität sind Video-Durchsicht und optische-Durchsicht. Video-Durchsicht erfordert eine Kamera, um einen Live-Video-Datenstrom der Umgebung einzufangen, die der Benutzersicht der Welt entspricht. Das System kombiniert durch Computer erzeugte Graphiken mit dem Live-Video-Datenstrom und projiziert das kombinierte erweiterte Realitätsvideo auf die Anzeigeeinrichtung. Der Benutzer sieht das Video mit überlagerter virtueller Information als ob er auf die Realwelt blickte. Bei optischer Durchsicht werden die durch Computer erzeugten Graphiken unmittelbar auf der Anzeigeinrichtung verzeichnet beziehungsweise angezeigt und folgt der Benutzersicht der Realwelt/wobei sie der Benutzersicht der Realwelt folgt. Die virtuellen Graphiken werden der Realwelt ohne ein Video davon zu umfassen, überlagert. Die erstere Lösung ist hinsichtlich der Bildfrequenz weniger anspruchsvoll.
  • 1 stellt ein System dar, das eine erweiterte Realitätsdarstellung von durch Computer erzeugter graphischer Information umfasst, die auf die Realwelt überlagert wurde, um ein virtuelles Desktop, das funktionelle Interfaces, beispielsweise in einem industriellen Systemprozess umfasst, zu konfigurieren, zu überwachen und/oder zu betreiben. Ein Benutzer 1a startet das System, um Schritte zum Überwachen und/oder Ausführen einer Instruktion beziehungsweise einer Anweisung für eine gegebene Eigenschaft auszuführen, die auf einem virtuellen Desktop dargestellt ist. Das erweiterte Realitäts-(AR) System umfasst eine tragbare Anzeigeeinrichtung 2a, wie beispielsweise eine an dem Kopf angebrachte Einrichtung (HMD), ein Trackingsystem, Software und einen tragbaren Computer 3, und eine in der Hand gehaltene interaktive Eingabeeinrichtung 4a. Das Trackingsystem umfasst eine Trackingeinheit 5a, um die Position und Orientierung des Kopfes des Bedieners in Relation zu der Position der in der Hand gehaltenen interaktiven Eingabeeinrichtung 4a zu bestimmen, beide in Relation zu einem Weltkoordinatensystem. Die Eingabe-/Ausgabeeinrichtung 4a definiert die Position und Orientierung unterschiedlicher auf dem virtuellen Desktop angezeigter Gegenstände. Die tragbare Anzeigeneinrichtung 2a macht die auf die Ansicht der Realwelt überlagerte erweiterte Realität sichtbar. Ein virtuelles Desktop ist eine erweiterte Realitätsansicht eines realen Desktops. Das virtuelle Desktop wird an der tragbaren Anzeigeeinrichtung 2a sichtbar gemacht. Die tragbare Anzeigeneinrichtung 2a liegt beispielsweise als Brille, eine am Kopf angebrachte Anzeige, ein Headup Display oder eine virtuelle Netzhaut-Anzeige vor, die angepasst ist die durch Computer erzeugte graphische Information unmittelbar auf der Retina des Bedieners anzuzeigen.
  • In einer ebenfalls in 1 gezeigten anderen Ausführungsform wird Video-Durchsicht verwendet, um das virtuelle Desktop in Relation zu der Information zu erzeugen und darzustellen und von der Eingabe-/Ausgabeeinrichtung 4a. Wie vorstehend beschrieben, wird die Trackingeinheit 5b auf dem Kopf des Bedieners 1b angeordnet, um die Position und Orientierung des Kopfes des Bedieners in Relation zu der Position der in der Hand gehaltenen interaktiven Eingabeeinrichtung 4b, beide in Relation zu einem Weltkoordinatensystem, zu bestimmen. Die Eingabe/Ausgabeeinrichtung 4b definiert die Position und Orientierung unterschiedlicher Gegenstände, die auf dem virtuellen Desktop angezeigt werden. In dieser Ausführungsform umfasst das System weiterhin eine Kamera 12, um einen Strom von Abbildungen der Umgebung, d.h. von der Realwelt einzufangen. Die Kamera 12 wird in einer festen Position relativ zu der tragbaren Anzeigeinrichtung 2b, beispielsweise an der tragbaren Anzeigeeinrichtung 2b angebracht oder damit integriert. Die tragbare Anzeigeneinrichtung 2b wird entlang der Blickachse/Sichtachse der Kamera 12 und an der Bildebene der Kamera angeordnet. Folglich wird die Kamera 12 in Relation zu der tragbaren Anzeigeneinrichtung 2b auf derartige Weise angeordnet, dass sie die gleiche Sicht bereitstellt, die der Benutzer durch unmittelbares Betrachten der Realwelt erhalten würde. Der Live-Videodatenstrom der Abbildungen wird mit durch Computer erzeugten Graphiken, die das Desktop darstellen, kombiniert, wobei die Kombination der Realwelt und der Graphiken auf der tragbaren Anzeigeineinrichtung 2b in Echtzeit dargestellt wird. Eine zusätzliche Funktionalität der Kamera 12 umfasst Zoomen, wobei die tatsächliche Kamerabrennweite ausgegeben wird. Dies ermöglicht dem System die durch Computer erzeugten Graphiken während eines Zoomens genau anzuzeigen. Die Kamera 12 kann durch die Trackingeinheit 5 ebenfalls zur auf Sicht basierenden Verfolgung verwendet werden.
  • Die in der Hand gehaltene Eingabeeinrichtung 4a, 4b kann ebenfalls ein Berührungsbildschirm sein. Vorteilhafter Weise kann die Benutzereingabe ebenfalls durch die Stimme erzeugt oder durch Handbewegung erzeugt werden.
  • 1 stellt ebenfalls den tragbaren Computer 3 ausführlicher dar. Der tragbare Computer 3 umfasst eine Logikeinheit 13, erforderliche Software, um basierend auf der Ausgabe von der Trackingeinheit 5a, 5b und/oder einem Videodatenstrom von der Kamera 12, abhängig davon, ob eine Kamera 12 verwendet wird oder nicht, eine oder mehrere virtuelle Desktops zu erzeugen.
  • Der tragbare Computer 3 beinhaltet ebenfalls die erforderliche Software, um die gewünschte Aufgabe oder den Prozess, beispielsweise Zwei-Weg-Kommunikation mit Einrichtungen, Handhaben und Sichtbarmachen von Daten in Echtzeit, auszuführen. Weiterhin wird der tragbare Computer 3 die Graphiken erzeugen, die die erweiterte Realitäts-Interfaceansicht bereitstellt. Weiterhin kann der tragbare Computer 3 eine Speichereinheit 14 umfassen, um Information, beispielsweise bestimmte graphische Interfaces auf Einrichtungen zu sichern, und vorhergehend gespeicherte erneut zu speichern. Der tragbare Computer 3 umfasst ebenfalls ein Standardinterface 16, und ein konfigurierbares Hardware I/O-Interface (Eingabe/Ausgabe Interface) 18. Die Standard-Interfaces 16 umfassen, beispielsweise ein beliebiges Daten-Interface an der Logikeinheit 13, wie beispielsweise ein serielles Interface. Das konfigurierbare Hardware I/O-Interface 18 nimmt ein Eingabesignal in der tragbaren Anzeigeneinrichtung 2a, 2b entgegen und/oder sendet, wie durch die Pfeile 20a, 20b in der Figur angezeigt, ein Ausgabesignal von der tragbaren Anzeigeneinrichtung 2a, 2b aus. In einer anderen Ausführungsform kann ein stationärer Computer, oder ein/e Server/Mandanten-Lösung anstelle des tragbaren Computers verwendet werden.
  • Die Kommunikation von Information zwischen dem tragbaren Computer 3 und der Kamera 12, der Trackingeinheit 5a, 5b und der tragbaren Anzeigeeinrichtung 2a, 2b wird durch eine drahtgebundene oder drahtlose Verbindung ausgeführt. Abhängig von dem Typ der Trackingeinheit kann die Lage der interaktiven Eingabeeinrichtung 4a, 4b von der interaktiven Eingabeeinrichtung 4a, 4b selbst, oder von einer externen Trackingeinheit herrühren.
  • Der Benutzer 1a, 1b hält die interaktive Eingabeeinrichtung 4a, 4b in dessen Hand oder trägt sie an dessen Körper, beispielsweise um dessen Handgelenk. Der Benutzer trägt ebenfalls in der Ausführungsform mit dem tragbaren Computer 3 die tragbare Anzeigeneinrichtung 2a, 2b und den tragbaren Computer 3. Das virtuelle Desktop tragend, kann der Benutzer in der Umgebung umhergehen.
  • Die 2 stellt das Verfahren und das System zum Konfigurieren dar und arbeitet effizient mit mehreren funktionellen Interfaces im 3D-Raum.
  • Die 2 stellt einen Bediener 32 dar, der eine tragbare Anzeigeneinrichtung 2a, 2b, wie beispielsweise eine an dem Kopf angebrachte Anzeige (HMD) 34 trägt, umgeben von einem virtuellen Desktop 36, um beispielsweise in einem industriellen Systemprozess das virtuelle Desktop zu konfigurieren, zu überwachen und/oder zu betreiben. Das erweiterte Realitäts-(AR) System macht die gewöhnlichen 2D-funktionellen Interfaces als entweder 2D oder 3D virtuelle funktionelle Interfaces 38, 40, 42 in dem Raum sichtbar. Die funktionellen Interfaces 38, 40, 42 werden auf der tragbaren Anzeigeneinrichtung 2 sichtbar gemacht. Beispielsweise manipuliert der Benutzer 32 das virtuelle Desktop und bewegt unter Verwendung einer in der Hand gehaltenen interaktiven Eingabeeinrichtung 44 ein funktionelles Interface 38, 40, 42 mit dessen Händen im Raum umher, oder interagiert auf andere Weise unter Verwendung einer Tastatur, Maus und Joystick, oder einer anderen zukünftigen Eingabeeinrichtung mit den funktionellen Interfaces.
  • Der Benutzer 32 bewegt die funktionellen Interfaces 38, 40, 42 in dem Raum zu der Position, die für jedes funktionelle Interface, bezüglich einer spezifischen Aufgabe, am zweckdienlichsten ist. Der Benutzer bewegt ein funktionelles Interface zu einer gewünschten Position relativ zu dem 3D-Raum, der unter Verwendung von Polarkoordinaten, kartesischen Koordinaten oder dergleichen gekennzeichnet ist. Dreht der Benutzer dessen Kopf, dann sieht er funktionelle Interfaces an den verschiednen Positionen, die er vorher gewählt hat. Mehrere funktionelle Interfaces können lediglich als Icon 46, 48, 50 erscheinen, falls sie, beispielsweise selten verwendet werden. Diese Lösung stellt dem Benutzer 32 einen unbegrenzten Raum zum Arbeiten mit funktionellen Interfaces 38, 40, 42, 46, 48, 50 bereit und erhöht die Flexibilität.
  • Das erweiterte Realitätssystem projiziert virtuelle Information, funktionelle Interfaces darstellt, auf die Realwelt. Der Benutzer 32 wird anschließend die Realwelt sehen und während er sich umher bewegt virtuelle funktionelle Interfaces um ihn herum. Das Trackingsystem verfolgt dessen Bewegungen und Position relativ zu der Welt.
  • Der Bediener 32 hat nun die Möglichkeit funktionelle Interfaces 38, 40, 42, 46, 48 50 mit einem normalen Computer zu öffnen. Die funktionellen Interfaces können anschließend im 3D-Raum bewegt, gedreht und skaliert werden. Das bedeutet, das er ein virtuelles funktionelles Interface mit einem Überblick der Prozesse an seiner Linken aufweisen kann und beispielsweise ein Microsoft Word Windows an seiner Rechten. Virtuelle Desktops 36 und virtuelle funktionelle Interfaces 38, 40, 42, 46, 48, 50 sind zugänglich und schweben im 3D um den Benutzer 32 in der Realwelt. Der Benutzer 32 kann unter Verwendung von Polarkoordinaten, kartesischen Koordinaten oder dergleichen funktionelle Interfaces in dem 3D-Raum bewegen, drehen, skalieren und sperren. Ein gesperrtes funktionelles Interface weist dann Parameter beziehungsweise Konstanten als Koordinaten auf, so dass das funktionelle Interface in dem festen 3D-Raum angeordnet wird. Auf diese Weise kann der Benutzer 32 die Position und Größe beziehungsweise Format beziehungsweise Ausmaß der unterschiedlichen Information anordnen, wodurch ermöglicht wird Information zu filtern, hervorzuheben und zu individualisieren, funktionelle Interfaces 38, 40, 42, 46, 48, 50 heranzuzoomen und herauszuzoomen, durch ein virtuelles oder erweitertes Realitätsmodell zu fliegen, auf ein Video oder Echtzeit-Video-Abbildungen von einem Ort in einer Fabrik zu sehen, auf Prozesssteuerungsanzeigen für das Steuerungssystem zu sehen, die Anzeigen mit Augenbewegungen, etc. zu manipulieren. Der angezeigte Raum, der gemäß der Erfindung bereitgestellt wird, ist nahezu unbegrenzt, da der Benutzer funktionelle Interfaces in 360 Grad in drei Freiheitsgraden um sich anordnen kann. Die Arbeitsbedingungen werden verbessert, da der Benutzer 32 ein funktionelles Interface 38, 40, 42, 46, 48, 50 genau zu der Position bewegen kann, die zu dem gegenwärtigen Zeitpunkt am besten passt. Das funktionelle Interface kann ebenfalls horizontal zu beziehungsweise an einem Tisch angeordnet werden. Die interaktive Eingabeeinrichtung wird weiterhin dazu verwendet, um mit einer über ein funktionelles Interface zugänglichen Anwendung zu interagieren. Dies ist vorteilhaft, da die Bediener Information und Daten innerhalb der Anwendung selbst auswählen, eingeben, kopieren, einfügen, löschen, ändern, etc. können.
  • Die Interaktion mit dem in den funktionellen Interfaces 38, 40, 42, 46, 48, 50 dargestellten Inhalt wird unter Verwendung der interaktiven Eingabeeinrichtung, beispielsweise einer Tastatur, einer Maus, einem Joystick, einen Trackball oder einer 3D-Maus ausgeführt, oder der Benutzer kann, beispielsweise unter Verwendung einer auf Gestik basierenden Dateneingabe, wie beispielsweise Datenhandschuhen, mit einem/einer Stift/Fingerspitze unmittelbar mit den funktionellen Interfaces interagieren, die als ein virtueller Berührungsbildschirm funktionieren. Diese Lösung ermöglicht dem Benutzer Flexibilität und Bequemlichkeit.
  • In einer weiteren Ausführungsform werden die virtuelle Desktopanzeige oder Teile der virtuellen Desktopanzeige unter Verwendung eines Steuerpults, Augenbewegungen, oder Sprachbefehlen manipuliert.
  • Weiterhin stellt dies dem Benutzer einen/eine einzelnen/einzelne Computer-Bildschirm oder -Anzeige bereit, die ihm/ihr ermöglicht alle funktionellen Interfaces zu sehen. Eine einzelne Anzeige/Ein einzelner Computerbildschirm für jeden Benutzer ermöglicht allen Benutzern in einem weitaus größeren Raum zu arbeiten und funktionelle Interfaces miteinander zu teilen.
  • In einer anderen Ausführungsform des ebenfalls in 1 gezeigten Verfahrens und des Systems können als ein Ersatz für, oder zusätzlich zu einem externen Bildschirm, zwei oder mehrere Benutzer 1a, 1b deren An- beziehungsweise Aussichten miteinander teilen. Folglich wird dem Benutzer ermöglicht mit einem oder mehreren ausgewählten funktionellen Interfaces gleichzeitig zu interagieren. Zwei oder mehr Benutzer 1a, 1b arbeiten an einer Anwendung zusammen, sie können ein funktionelles Interface teilen, oder mehrere funktionelle Interfaces, wobei sie an dem gleichen virtuellen 2D/3D Desktop arbeiten.
  • Das beschriebene System bildet ein vollständiges System, dass sowohl autonom laufen kann und/oder mit einem übergeordneten Steuerungssystem verbunden ist, beispielsweise für ein technisches System, eine Fertigungszelle oder andere Herstellungsprozesse in einer Einrichtung. Das System kann mit einer großen Anzahl anderer Komponenten beziehungsweise Bauteilen/Systemen aufgrund der Konfiguration eines jeden Kanals des Hardware-Interfaces sowohl als Eingang als auch Ausgang zusammengeschaltet werden, die für eine Kompatibilität mit zahlreichen Bus- und/oder Feldbus-Standards digital oder analog sein können.
  • Das erweiterte Realitätssystem kann auf ein Steuerungssystem eines industriellen Prozesses oder einer Einrichtung angewendet werden, beispielsweise eines industriellen Prozesses oder einer Einrichtung für Öl oder Gas oder einer Einrichtung für elektrische Energie-Erzeugung, -Weiterleitung und/oder Verteilung. Dem Fachmann wird klar sein, dass verschiedene Modifikationen und Änderungen an der vorliegenden Erfindung ausgeführt werden können, ohne von dem Umfang davon abzuweichen, der durch die beigefügten Ansprüche festgelegt ist. Beispielsweise kann ein Benutzer von einer Anzahl von Datenquellen visuelle Information auswählen.
  • Insbesondere ist das erweiterte Realitätssystem auf automatisierte Verfahrens-Prozesse und in Kontrollräumen und Kontrollraumgestaltung anwendbar. Das erweiterte Realitätssystem wird ebenfalls im Kontrollraum zusätzlich zu "Helpdesk"-Situationen, zur Fern-Unterstützung, zur Büroarbeit, etc. vorteilhaft verwendet.
  • In einer anderen Ausführungsform kann das beschriebene System in einer Einrichtung oder einem Büro verwendet werden, in der/dem drei Bediener keinen fest angeordneten Arbeitsplatz aufweisen, sich jedoch umher bewegen.
  • In einer körperlichen Verwirklichung der Erfindung verwendet der Bediener beispielsweise ein Tablett-Personalcomputer (Tablett-PC), einen tragbaren Computer und beispielsweise drahtlosen Zugang zu Information über General Packet Radio Service (GPRS), WLAN, Bluetooth oder anderes.
  • In diesem Zusammenhang ist ein Tablett-Personalcomputer ein in der Hand gehal tener Personalcomputer, bei dem die/der Anzeige/Bildschirm ungefähr die gleiche Größe wie die gesamte Einrichtung aufweist. Der Bildschirm ist auf Berührung empfindlich, wobei folglich der Tablett-PC keine gewöhnliche Tastatur aufweist. Tablett-PCs werden beispielsweise in Krankenhäusern zum Registrieren von Information über Patienten verwendet, um Zugang zu medizinischen Datenbanken, etc zu erhalten. Weiterhin kann der Tablett-PC eine integrierte Kamera umfassen. In diesem Fall weist die Kamera die gleiche Ansicht auf, als ob der Bediener unmittelbar durch die Anzeige blickt. Dies ermöglicht ein Interface auf dem Bildschirm zu zeigen als ob der Bildschirm transparent ist, wenn der Tablett-PC umher bewegt wird. Wird die Video-Durchsicht-Technologie verwendet, dann kann erweiterte Realität auf dem Tablett-PC dargestellt werden. Die gleiche Lösung ist beispielsweise auf PDAs (persönliche digitale Assistenten) und Mobiltelefone anwendbar.
  • Die Logikeinheit oder Rechnereinheit umfasst einen Mikroprozessor, oder Prozessoren, die eine Zentraleinheit, CPU, oder ein Field-programmable Gate Array (FPGA) oder eine beliebige Halbleitereinrichtung umfasst, die programmierbare Logikbestandteile und programmierbare Verbindungen beinhaltet, die Schritte des Verfahren gemäß einer Ausführungsform der Erfindung ausführen. Dies wird mit Hilfe von einem oder mehreren Computerprogrammen ausgeführt, die zumindest teilweise im durch Prozessoren zugänglichen Speicher gespeichert werden. Es sollte ebenfalls klar sein, dass die Computerprogramme ebenfalls auf einem oder mehreren Industrie-Mikroprozessoren oder Computern anstelle eines speziell angepassten Computers, laufen können.
  • Das Computerprogramm umfasst Computerprogramm-Codeelemente oder Software-Codebereiche, die dem Computer ermöglichen das vorher beschriebene Verfahren unter Verwendung von Gleichungen, Algorithmen, Daten und Berechnungen auszuführen. Ein Teil des Programms kann, wie vorstehend, in einem Prozessor jedoch ebenfalls in/auf einem ROM, RAM, PREM, EPROM oder EEPROM Chip oder ähnlichem Speichermittel gespeichert werden. Das Programm kann teilweise oder gesamt auf oder in einem anderen geeigneten computerlesbaren Medium, wie beispielsweise einer magnetischen Diskette, CD-ROM oder DVD-Diskette, Festplatte, magnetooptischen Diskette, CD-ROM oder DVD-Diskette, Festplatte, magnetooptischem Speichermittel, in einem flüchtigem Speicher, einem Flash-Speicher, als Firmware, oder auf einem Datenserver gespeichert werden. Entfernbare Speichermedien, wie beispielsweise entfernbare Festplatten, Blasenspeicher-Einrichtungen, Flash-Speicher-Einrichtungen und gewerblichen erhältlichen anwendereigene entfernbare Medien, wie beispielsweise der Speicherstick von Sony und Speicherkarten für digitale Kameras, Videokameras und dergleichen, können ebenfalls verwendet werden. Die beschriebenen Computerprogramme können ebenfalls teilweise als eine verteilte Anwendung angeordnet werden, die auf mehreren Computer oder Computersystemen zu mehr oder weniger der gleichen Zeit laufen.
  • Drahtlose Kommunikationen beziehungsweise Verbindungen können unter Verwendung eines drahtlosen Protokolls ausgeführt werden, das zuverlässig Weiterleitungen in einer Industrieumgebung, einschließlich Standards oder einem beliebig geeigneten Protokoll, wie beispielsweise Ericsson's Bluetooth, drahtloses lokales Netzwerk (WLAN) bereitstellen kann. Eine Funkverbindung mit kurzer Reichweite ist das bevorzugte Verfahren, das ein Protokoll verwendet, das mit den durch die spezielle Interessengruppe für Bluetooth (SIG) herausgegebenen Standards verträglich ist, eine beliebige Variation von IEEE-802.11, WiFi, Ultrabreitband (UWB), Zigbee oder IEEE-802.15.4, IEEE-802.13 oder äquivalent oder ähnlich. Allgemein wird eine Funktechnik bevorzugt, die in dem ISM-Band mit signifikanten Entstörungsmitteln durch Spread-Spektrum Technologie arbeit. Eine drahtlose Kommunikation kann ebenfalls unter Verwendung von Infrarot (IR)-Mitteln und Protokollen, wie beispielsweise IrDA, IrCOMM oder ähnlichen ausgeführt werden. Drahtlose Kommunikation kann ebenfalls unter Verwendung von Schall- oder Ultraschallwandlern durch die Luft oder über eine Arbeit-Objekt-Konstruktion, reinen magnetischen oder elektrischen Feldern (kapazitative oder induktive Verbindung) oder anderen Typen von Licht, wie beispielsweise LED-Laser als Kommunikationsmedium mit Standard oder anwendereignen Protokollen ausgeführt werden. Für die Kommunikation können weitere Erfordernisse durch den Feldbus oder andere Teile des Steuerungssystems auferlegt sein. Beispielsweise kann ein Erfordernis bezüglich einer Definition der maximal erlaubten Latenzzeit bestehen, beispielsweise ändert sich die Zeit von einem I/O beispielsweise auf einem Busmittel, wie beispielsweise einem Profibus bis der tatsächliche I/O-Wert an der äußeren Komponente geändert wird. Die drahtlose mobile Informationsbearbeitungs-Einrichtung stellt die Information bereit, die vorzugsweise für eine abgespeckte beziehungsweise geringfügige Mandanten-Anwendung, wie beispielsweise einen Web-Mandanten oder andere Anwendung eines Web-Browser-Typs, angepasst ist.
  • Die beschriebenen Computerprogramme können ebenfalls teilweise als eine verteilte Anwendung angeordnet werden, die auf mehreren unterschiedlichen Computer oder Computersystemen mehr oder weniger gleichzeitig laufen können.
  • Ein computerlesbares Medium weist ein darauf aufgezeichnetes Programm auf, wobei das Programm so gestaltet ist, das ein Computer die Schritte eines Verfahrens gemäß einer Ausführungsform der Erfindung ausführen kann, wenn das Programm auf dem Computer läuft.
  • Eine Datenbank kann ebenfalls Information beinhalten, die zum Ausführen der Schritte eines Verfahrens gemäß einer Ausführungsform der Erfindung verwendet werden kann, um ein virtuelles Desktop, wie beispielsweise ein graphisches Benutzer-Interface (GUI), in zwei oder drei Dimensionen zu konfigurieren, zu überwachen und/oder zu betreiben.
  • Eine Webseite kann ebenfalls Mandanten/Server-Mittel umfassen, um ein Verfahren gemäß einer Ausführungsform der Erfindung in einer industriellen Einrichtung auszuführen, um ein virtuelles Desktop in zwei oder drei Dimensionen zu konfigurieren, zu überwachen und/oder zu betreiben.
  • Ein Datenkommunikationssignal kann ebenfalls zum Konfigurieren, Überwachen und/oder Betreiben eines virtuellen Desktops in zwei oder drei Dimensionen in einer industriellen Einrichtung für ein Industrieverfahren verwendet werden. Das Datenkommunikationssignal umfasst Information zum Konfigurieren, Überwachen und/oder Betreiben eines virtuellen Desktops in zwei oder drei Dimensionen.

Claims (26)

  1. System, das eine Logikeinheit (13) zum Verwalten von Daten in mehreren Anwendungen umfasst, eine tragbare Anzeigeneinrichtung (2a, 2b, 34), um die von der Logikeinheit aufgenommenen Daten anzuzeigen, einschließlich Mittel (2a, 2b, 34) zum Anzeigen der Daten in einem vorwärtsgerichteten Gesichtsfeld des Benutzers (1a, 1b, 32), wobei der Benutzer Daten von der tragbaren Anzeige empfangen kann, dadurch gekennzeichnet, dass das System weiterhin eine erweiterte Realitätsdarstellung von durch Computer erzeugter graphischer Information umfasst, die der Realwelt überlagert wird, eine interaktive Eingabeeinrichtung (4a, 4b, 44), ein Trackingsystem (5a, 5b), um Daten einzufangen, die die Position der tragbaren Anzeigeeinrichtung (2a, 2b, 34) relativ zu der interaktiven Eingabeeinrichtung (4a, 4b, 44) darstellen, und Mittel zum Anzeigen einer erweiterten Realitätsdarstellung eines virtuellen Desktops (36) auf der tragbaren Anzeigeeinrichtung (2a, 2b, 34), die mehrere funktionelle Interfaces (38, 40, 42, 46, 48, 50) umfasst, die die Anwendungen darstellen, die unter Verwendung der interaktiven Eingabeeinrichtung (4a, 4b, 44) zugänglich sind, und dass das Desktop (36) in einem 3D-Raum so erweitert wird, dass das Desktop als eine virtuelle Sphäre geformt ist, und wobei die funktionellen Interfaces bei einer optionalen Tiefe in der Sphäre angezeigt werden.
  2. System nach Anspruch 1, worin die Erweiterung des virtuellen Desktops (36) 360 Grad in drei Freiheitsgraden ist.
  3. System nach einem der Ansprüche 1-2, worin das System angepasst ist das Erscheinungsbild des virtuellen Desktops (36) in Antwort auf Interaktionen zwischen der interaktiven Eingabeeinrichtung (4a, 4b, 44) und dem virtuellen Desktop zu modifizieren.
  4. System nach Anspruch 3, worin die interaktive Eingabeeinrichtung (4a, 4b, 44) verwendet wird, um die funktionellen Interfaces (38, 40, 42, 46, 48, 50) in dem 3D-Raum zu bewegen, zu drehen, zu skalieren und zu sperren.
  5. System nach einem der Ansprüche 3-4, worin die interaktive Eingabeeinrichtung (4a, 4b, 44) verwendet wird, um mit einer über ein funktionelles Interface (38, 40, 42, 46, 48, 50) zugänglichen Anwendung zu interagieren.
  6. System nach einem der Ansprüche 1-5, worin die Erweiterung des virtuellen Desktops (36) 360 Grad in drei Freiheitsgraden ist und wobei die funktionellen Interfaces (38, 40, 42, 46, 48, 50) unter Verwendung von Polar- oder kartesischen Koordinaten in dem 3D-Raum bewegt, gedreht, skaliert und gesperrt werden.
  7. System nach einem der Ansprüche 1-6, worin das System an zwei oder mehrere Benutzer (1a, 1b, 32) angepasst ist, die an einer Anwendung gleichzeitig zusammen arbeiten.
  8. System nach einem der Ansprüche 1-7, worin das System eine Kamera (12) umfasst, um einen Live-Video-Datenstrom der Umgebung einzufangen, der dem Blick des Benutzers auf die Realwelt entspricht, und die durch die virtuellen Graphiken auf dem Video der Realwelt überlagert werden, was die erweiterte Realitätsdarstellung eines virtuellen Desktops bildet.
  9. System nach einem der Ansprüche 1-7, worin die Anzeigeeinrichtung angepasst ist optisch transparent zu sein, und wobei die durch Computer erzeugten Graphiken unmittelbar auf der Anzeigeneinrichtung (2a, 2b, 34) verzeichnet werden und dem Blick des Benutzers der Realwelt folgt, dass die durch Computer erzeugten Graphiken der Realwelt überlagert werden, was die erweiterte Realitätsdarstellung des virtuellen Desktops (36) bildet.
  10. System nach einem der Ansprüche 1-9, worin die tragbare Anzeigeneinrichtung (2a, 2b, 34) ein beliebiges aus der Liste ist: beispielsweise Brille, eine am Kopf angebrachte Anzeige, ein Headup Display, virtuelle Retinaanzeige.
  11. System nach einem der Ansprüche 1-10, worin die interaktive Eingabeeinrichtung (4a, 4b, 44) ein beliebiges aus einer Liste ist: Tastatur, 2D-Maus, 3D-Maus, Joystick, Trackball, Datenhandschuhe, oder Mittel, die mit einem/r Stift/Fingerspitze unmittelbar auf den funktionellen Interfaces interagieren, die als ein virtueller Berührungsbildschirm funktionieren.
  12. Graphisches Benutzer Interface umfassend ein virtuelles Desktop nach einem der Ansprüche 1-11.
  13. Verfahren, das einem Benutzer ermöglicht mit einem System zu interagieren, das eine Logikeinheit (13) zum Verwalten von Daten in mehreren Anwendungen umfasst, die unter Verwendung einer tragbare Anzeigeneinrichtung (2a, 2b, 34) die von der Logikeinheit aufgenommenen Daten anzeigt, einschließlich Mitteln (2a, 2b, 34) zum Anzeigen der Daten in einem vorwärts gewandten Gesichtsfeld des Benutzers (1a, 1b, 32), und Mittel zum Empfangen von Daten von der tragbaren Anzeigeneinrichtung, wobei das Verfahren umfasst: – Anzeigen einer erweiterten Realitätsdarstellung von durch Computer erzeugter graphischer Information, die der Realwelt überlagert wird, – Verwenden einer interaktiven Eingabeeinrichtung (4a, 4b, 44), eines Tracking-Systems (5a, 5b), um Daten einzufangen, die die Position der tragbaren Anzeigeneinrichtung (2a, 2b, 34) relativ zu der interaktiven Eingabeeinrichtung (4a, 4b, 44) darstellen, – Anzeigen einer erweiterten Realitätsdarstellung eines virtuellen Desktops (36) auf der tragbaren Anzeigeneinrichtung (2a, 2b, 34), wobei das virtuelle Desktop Anwendungen umfasst, die durch mehrere funktionelle Interfaces (38, 40, 42, 46, 48, 50) dargestellt werden, – Ausführen von Einwirkungen, dass die funktionellen Interfaces (38, 40, 42, 46, 48, 50) für die interaktive Eingabeeinrichtung (4a, 4b, 44) zugänglich sind, – Ausführen von Einwirkungen, dass das Desktop (36) in einen 3D-Raum erweitert wird, dass das Desktop als eine virtuelle Sphäre geformt ist und wobei die funktionellen Interfaces bei optionaler Tiefe in der Sphäre angezeigt werden.
  14. Verfahren nach Anspruch 13, wobei das Verfahren weiterhin umfasst, dass das virtuelle Desktop (36) auf 360 Grad in drei Freiheitsgraden erweitert wird.
  15. Verfahren nach einem der Ansprüche 13-14, wobei das Verfahren weiterhin umfasst, dass das Erscheinungsbild des virtuellen Desktops (36) als Antwort auf Interaktionen zwischen der durch den Benutzer gesteuerten interaktiven Eingabeeinrichtung (4a, 4b, 44) und dem virtuellen Desktop modifiziert wird.
  16. Verfahren nach Anspruch 15, wobei das Verfahren weiterhin umfasst, dass die interaktive Eingabeeinrichtung (4a, 4b, 44) verwendet wird, um funktionelle Interfaces in dem 3D-Raum zu bewegen, zu drehen, zu skalieren und zu sperren.
  17. Verfahren nach einem der Ansprüche 15-16, wobei die interaktive Eingabeeinrichtung (4a, 4b, 44) verwendet wird, um mit einer über ein funktionelles Interface (38, 40, 42, 46, 48, 50) zugänglichen Anwendung zu interagieren.
  18. Verfahren nach einem der Ansprüche 13-17, wobei das Verfahren weiterhin umfasst, dass das virtuelle Desktop (36) auf 360 Grad in drei Freiheitsgraden erweitert wird, und wobei die funktionellen Interfaces (38, 40, 42, 46, 48, 50) unter Verwendung von Polar- oder kartesischen Koordinaten bewegt, gedreht, skaliert und gesperrt werden, um die Orte der funktionellen Interfaces im Raum zu bestimmen.
  19. Verfahren nach einem der Ansprüche 13-18, wobei zwei oder mehrere Benutzer (1a, 1b, 32) an einer Anwendung gleichzeitig zusammen arbeiten.
  20. Verfahren nach einem der Ansprüche 13-19, wobei das Verfahren weiterhin umfasst, dass eine Kamera (12) verwendet wird, um einen Live-Video-Datenstrom der Umgebung einzufangen, die dem Benutzerblick der Realwelt entspricht, und dass die virtuellen Graphiken dem Video der Realwelt überlagert werden.
  21. Verfahren nach einem der Ansprüche 13-19, wobei das Verfahren weiterhin umfasst, dass eine Anzeigeneinrichtung verwendet wird, die angepasst ist optisch transparent zu sein und wobei die durch die Computer erzeugten Graphiken unmittelbar auf der Anzeigeneinrichtung (2a, 2b, 34) verzeichnet werden, die dem Benutzerblick der Realwelt so folgen, dass die durch die Computer erzeugten Graphiken der sich bildenden Realwelt überlagert werden.
  22. Verfahren nach einem der Ansprüche 13-21, wobei die tragbare Anzeigeneinrichtung (2a, 2b, 34) eine beliebige aus einer Liste ist: beispielsweise Brille, eine auf dem Kopf angebrachte Anzeige, Headup-Display, virtuelles Retinaanzeige.
  23. Verfahren nach einem der Ansprüche 12-22, wobei die interaktive Eingabeeinrichtung (4a, 4b, 44) ein beliebiges aus einer Liste von ist: Tastatur, 2D-Maus, 3D-Maus, Joystick, Trackball, Datenhandschuhe oder Mittel, um mit einem/r Stift/Fingerspitze unmittelbar auf den funktionellen Interfaces zu interagieren, die als ein virtueller Berührungsbildschirm funktionieren.
  24. Computerprogramm, das unmittelbar in einen internen Speicher eines Computers geladen werden kann, umfassend Software zum Ausführen der Schritte nach einem der Ansprüche 13-23.
  25. Computer-lesbares Medium, das ein darauf aufgezeichnetes Programm aufweist, wobei das Programm so gestaltet ist, dass ein Computer die Schritte nach einem der Ansprüche 13-23 auszuführen kann, wenn das Programm auf dem Computer läuft.
  26. Verwendung eines Verfahrens nach einem der Ansprüche 13-23 für ein Steuerungssystem eines Industrieprozesses oder einer Einrichtung für Öl und Gas oder für eine Einrichtung zur Erzeugung, Weiterleitung und/oder Verteilung von elektrischer Energie.
DE102007023640A 2006-05-31 2007-05-22 Virtueller Arbeitsplatz Withdrawn DE102007023640A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE0601216A SE0601216L (sv) 2006-05-31 2006-05-31 Virtuell arbetsplats
SE0601216 2006-05-31

Publications (1)

Publication Number Publication Date
DE102007023640A1 true DE102007023640A1 (de) 2008-03-20

Family

ID=38871250

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007023640A Withdrawn DE102007023640A1 (de) 2006-05-31 2007-05-22 Virtueller Arbeitsplatz

Country Status (3)

Country Link
US (1) US8046719B2 (de)
DE (1) DE102007023640A1 (de)
SE (1) SE0601216L (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016225131A1 (de) * 2016-12-15 2017-11-02 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Computerprogrammprodukt, Signalfolge, Fortbewegungsmittel und Verfahren zum Bereitstellen eines virtuellen Arbeitsplatzes in einem Fortbewegungsmittel

Families Citing this family (162)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US9891435B2 (en) 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US10908421B2 (en) 2006-11-02 2021-02-02 Razer (Asia-Pacific) Pte. Ltd. Systems and methods for personal viewing devices
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8339418B1 (en) * 2007-06-25 2012-12-25 Pacific Arts Corporation Embedding a real time video into a virtual environment
EP2587345A3 (de) * 2007-08-19 2013-06-26 Ringbow Ltd. Am Finger getragene Vorrichtungen und zugehörige Verwendungsverfahren
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US20090089682A1 (en) * 2007-09-27 2009-04-02 Rockwell Automation Technologies, Inc. Collaborative environment for sharing visualizations of industrial automation data
US8959248B2 (en) * 2008-02-22 2015-02-17 Microsoft Corporation Personal computing environment with virtual computing device
DE102008028512A1 (de) * 2008-06-16 2009-12-17 Audi Ag Kommunikationssystem und Verfahren zur Darstellung von Informationen bei einer Kommunikation
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US20100186072A1 (en) * 2009-01-21 2010-07-22 Akshay Kumar Distributed secure telework
WO2010094303A1 (de) * 2009-02-20 2010-08-26 Siemens Aktiengesellschaft Verfahren zur graphischen konfiguration eines energieversorgungsleitsystems
JP5263049B2 (ja) * 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
JP5530234B2 (ja) * 2010-03-29 2014-06-25 オリンパス株式会社 操作入力装置およびマニピュレータシステム
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8881060B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10359545B2 (en) 2010-10-21 2019-07-23 Lockheed Martin Corporation Fresnel lens with reduced draft facet visibility
US8781794B2 (en) 2010-10-21 2014-07-15 Lockheed Martin Corporation Methods and systems for creating free space reflective optical surfaces
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US8625200B2 (en) 2010-10-21 2014-01-07 Lockheed Martin Corporation Head-mounted display apparatus employing one or more reflective optical surfaces
US8854802B2 (en) 2010-10-22 2014-10-07 Hewlett-Packard Development Company, L.P. Display with rotatable display screen
US20120102438A1 (en) * 2010-10-22 2012-04-26 Robinson Ian N Display system and method of displaying based on device interactions
US9164581B2 (en) 2010-10-22 2015-10-20 Hewlett-Packard Development Company, L.P. Augmented reality display system and method of display
MX2013006722A (es) 2010-12-16 2014-01-31 Lockheed Corp Visualizador colimante con lentes de pixel.
DE102011017305A1 (de) * 2011-04-15 2012-10-18 Abb Technology Ag Bedien- und Beobachtungssystem für technische Anlagen
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US20130265300A1 (en) * 2011-07-03 2013-10-10 Neorai Vardi Computer device in form of wearable glasses and user interface thereof
GB201115369D0 (en) * 2011-09-06 2011-10-19 Gooisoft Ltd Graphical user interface, computing device, and method for operating the same
US8990682B1 (en) 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9547406B1 (en) 2011-10-31 2017-01-17 Google Inc. Velocity-based triggering
US9691241B1 (en) * 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US8947322B1 (en) 2012-03-19 2015-02-03 Google Inc. Context detection and context-based user-interface population
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US8532675B1 (en) 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
US9098516B2 (en) * 2012-07-18 2015-08-04 DS Zodiac, Inc. Multi-dimensional file system
WO2014050957A1 (ja) 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御方法および制御プログラム
KR101991133B1 (ko) * 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이 및 그 제어 방법
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
US9448407B2 (en) * 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
GB201303707D0 (en) * 2013-03-01 2013-04-17 Tosas Bautista Martin System and method of interaction for mobile devices
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
KR102271198B1 (ko) 2013-03-15 2021-06-29 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10089684B2 (en) * 2013-08-20 2018-10-02 Ricoh Company, Ltd. Mobile information gateway for customer identification and assignment
US9286726B2 (en) 2013-08-20 2016-03-15 Ricoh Company, Ltd. Mobile information gateway for service provider cooperation
US9665901B2 (en) * 2013-08-20 2017-05-30 Ricoh Company, Ltd. Mobile information gateway for private customer interaction
US9763071B2 (en) * 2013-09-22 2017-09-12 Ricoh Company, Ltd. Mobile information gateway for use in emergency situations or with special equipment
US10095833B2 (en) * 2013-09-22 2018-10-09 Ricoh Co., Ltd. Mobile information gateway for use by medical personnel
US20150088547A1 (en) * 2013-09-22 2015-03-26 Ricoh Company, Ltd. Mobile Information Gateway for Home Healthcare
AU2013404001B2 (en) 2013-10-30 2017-11-30 Apple Inc. Displaying relevant user interface objects
WO2015094222A1 (en) * 2013-12-18 2015-06-25 Intel Corporation User interface based on wearable device interaction
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9939934B2 (en) * 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9576329B2 (en) * 2014-07-31 2017-02-21 Ciena Corporation Systems and methods for equipment installation, configuration, maintenance, and personnel training
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
US10313656B2 (en) 2014-09-22 2019-06-04 Samsung Electronics Company Ltd. Image stitching for three-dimensional video
US11205305B2 (en) 2014-09-22 2021-12-21 Samsung Electronics Company, Ltd. Presentation of three-dimensional video
US10684476B2 (en) 2014-10-17 2020-06-16 Lockheed Martin Corporation Head-wearable ultra-wide field of view display device
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
EP3230906A1 (de) * 2014-12-12 2017-10-18 Draeger Medical Systems, Inc. Anzeige physiologischer patientendaten
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
US9696549B2 (en) 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US11150482B2 (en) 2015-02-25 2021-10-19 Facebook Technologies, Llc Augmented reality content creation
US9939650B2 (en) 2015-03-02 2018-04-10 Lockheed Martin Corporation Wearable display system
EP3929710A1 (de) * 2015-03-27 2021-12-29 Fujitsu Limited Anzeigeverfahren und anzeigesteuerungsvorrichtung
JP6426525B2 (ja) * 2015-04-20 2018-11-21 ファナック株式会社 表示システム
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
CA2992833A1 (en) * 2015-07-17 2017-01-26 Ivd Mining Virtual reality training
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US10186086B2 (en) 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
US10754156B2 (en) 2015-10-20 2020-08-25 Lockheed Martin Corporation Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
CN105955717A (zh) * 2016-04-19 2016-09-21 北京小鸟看看科技有限公司 一种交互式电子手册制作方法和装置
US9726896B2 (en) 2016-04-21 2017-08-08 Maximilian Ralph Peter von und zu Liechtenstein Virtual monitor display technique for augmented reality environments
US20170373870A1 (en) * 2016-04-23 2017-12-28 Senad Hrustanovic Multimedia Communication System
US9995936B1 (en) 2016-04-29 2018-06-12 Lockheed Martin Corporation Augmented reality systems having a virtual image overlaying an infrared portion of a live scene
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10225655B1 (en) 2016-07-29 2019-03-05 Relay Cars LLC Stereo user interface elements placed in 3D space for virtual reality applications in head mounted displays
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10553036B1 (en) 2017-01-10 2020-02-04 Lucasfilm Entertainment Company Ltd. Manipulating objects within an immersive environment
EP3379828A1 (de) 2017-03-23 2018-09-26 Thomson Licensing Vorrichtung und verfahren für immersive visuelle darstellungen und individuelle kopfausrüstung
EP4137918A1 (de) * 2017-06-06 2023-02-22 Maxell, Ltd. Anzeigesystem mit gemischter realität und anzeigeendgerät mit gemischter realität
US10748443B2 (en) 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
US10152141B1 (en) 2017-08-18 2018-12-11 Osterhout Group, Inc. Controller movement tracking with light emitters
US10976136B2 (en) * 2017-09-06 2021-04-13 Mehmet Ali GUZELDERE Wireless vision equipment for weapons
US10762219B2 (en) * 2018-05-18 2020-09-01 Microsoft Technology Licensing, Llc Automatic permissions for virtual objects
US20190378334A1 (en) 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
CN112585564A (zh) * 2018-06-21 2021-03-30 奇跃公司 用于为头戴式图像显示设备提供输入的方法和装置
JP2021536592A (ja) 2018-08-31 2021-12-27 マジック リープ, インコーポレイテッドMagic Leap, Inc. 拡張現実デバイスのための空間的に分解された動的調光
WO2020065586A1 (en) 2018-09-26 2020-04-02 Guardian Glass, LLC Augmented reality system and method for substrates, coated articles, insulating glass units, and/or the like
CN109120800A (zh) * 2018-10-18 2019-01-01 维沃移动通信有限公司 一种应用程序图标调整方法及移动终端
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US11537351B2 (en) 2019-08-12 2022-12-27 Magic Leap, Inc. Systems and methods for virtual and augmented reality
CN111475323B (zh) * 2020-03-30 2021-08-17 珠海格力电器股份有限公司 电量消耗故障诊断的方法、装置、设备及计算机可读介质
US11138803B1 (en) 2020-04-30 2021-10-05 At&T Intellectual Property I, L.P. System for multi-presence interaction with extended reality objects
US11175791B1 (en) * 2020-09-29 2021-11-16 International Business Machines Corporation Augmented reality system for control boundary modification
US11620797B2 (en) 2021-08-05 2023-04-04 Bank Of America Corporation Electronic user interface with augmented detail display for resource location
US11699269B2 (en) 2021-08-25 2023-07-11 Bank Of America Corporation User interface with augmented work environments
CN115756176B (zh) * 2023-01-10 2023-05-23 联通沃音乐文化有限公司 应用显示方法、头戴式显示装置和计算机可读介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826532B1 (en) 1993-10-05 2004-11-30 Snap-On Incorporated Hands free automotive service system
US6127990A (en) * 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6317127B1 (en) * 1996-10-16 2001-11-13 Hughes Electronics Corporation Multi-user real-time augmented reality system and method
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
US7120875B2 (en) * 2002-10-29 2006-10-10 X-Labs Holdings, Llc Method and apparatus for augmented reality hybrid tracking system with fiducial-based heading correction
US8225226B2 (en) 2003-12-31 2012-07-17 Abb Research Ltd. Virtual control panel

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016225131A1 (de) * 2016-12-15 2017-11-02 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Computerprogrammprodukt, Signalfolge, Fortbewegungsmittel und Verfahren zum Bereitstellen eines virtuellen Arbeitsplatzes in einem Fortbewegungsmittel

Also Published As

Publication number Publication date
US8046719B2 (en) 2011-10-25
SE0601216L (sv) 2007-12-01
US20080005702A1 (en) 2008-01-03

Similar Documents

Publication Publication Date Title
DE102007023640A1 (de) Virtueller Arbeitsplatz
US11467709B2 (en) Mixed-reality guide data collection and presentation
Langner et al. Multiple coordinated views at large displays for multiple users: Empirical findings on user behavior, movements, and distances
Kruger et al. The responsive workbench: A virtual work environment
EP3781364A1 (de) Verfahren zur benutzung einer mehrgliedrigen aktuierten kinematik, vorzugsweise eines roboters, besonders vorzugsweise eines knickarmroboters, durch einen benutzer mittels einer mobilen anzeigevorrichtung
DE102014019651B4 (de) Elektronische Vorrichtung und Anzeigesteuerverfahren
EP3458939B1 (de) Interaktionssystem und -verfahren
Shoemaker et al. Body-centric interaction techniques for very large wall displays
DE202017105307U1 (de) Umschalten aktiver Objekte in einer erweiterten Realitäts- und/oder virtuellen Realitätsumgebung
US20120256950A1 (en) Medical support apparatus, medical support method, and medical support system
Bolas Human factors in the design of an immersive display
DE112018004395T5 (de) Virtueller zugriff auf ein zugriffsbeschränktes objekt
EP2467822B1 (de) Kontinuierliche bestimmung einer perspektive
DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
Huang et al. HandsinAir: a wearable system for remote collaboration on physical tasks
DE102020116951A1 (de) System zur unterstützung von fernarbeit
Yu et al. Duplicated reality for co-located augmented reality collaboration
DE10056291A1 (de) Verfahren zur visuellen Darstellung und interaktiven Steuerung von virtuellen Objekten auf einem Ausgabe-Sichtfeld
DE102014114131A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
DE112020000573T5 (de) Anzeigen von darstellungen von umgebungen
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
DE102004061841A1 (de) Markerloses Tracking System für Augmented Reality Anwendungen
Venkatakrishnan et al. Give Me a Hand: Improving the Effectiveness of Near-field Augmented Reality Interactions By Avatarizing Users' End Effectors
Qi et al. Tangible user interfaces for 3D clipping plane interaction with volumetric data: a case study
Huang et al. HandsInAir: a wearable system for remote collaboration

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20130404

R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee