WO1992001983A1 - Verfahren zur durchführung eines variablen dialogs mit technischen geräten - Google Patents

Verfahren zur durchführung eines variablen dialogs mit technischen geräten Download PDF

Info

Publication number
WO1992001983A1
WO1992001983A1 PCT/EP1991/001355 EP9101355W WO9201983A1 WO 1992001983 A1 WO1992001983 A1 WO 1992001983A1 EP 9101355 W EP9101355 W EP 9101355W WO 9201983 A1 WO9201983 A1 WO 9201983A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
screen
user
dialogue
dialog
Prior art date
Application number
PCT/EP1991/001355
Other languages
English (en)
French (fr)
Inventor
Georg Geiser
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to EP91913013A priority Critical patent/EP0540570B1/de
Priority to JP51273991A priority patent/JP3255912B2/ja
Priority to DE59103295T priority patent/DE59103295D1/de
Priority to US07/976,999 priority patent/US5459488A/en
Publication of WO1992001983A1 publication Critical patent/WO1992001983A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/247Telephone sets including user guidance or feature selection means facilitating their use
    • H04M1/2477Telephone sets including user guidance or feature selection means facilitating their use for selecting a function from a menu display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/27475Methods of retrieving data using interactive graphical means or pictorial representations

Definitions

  • the invention relates to a method and a device for handling the dialog of the user with a technical device, for. B. a telecommunications terminal, a navigation system in the motor vehicle or a video recorder, whereby an adaptation of the dialog to the needs of the user (z. B. previous knowledge, practice) is made possible.
  • a technical device for. B. a telecommunications terminal, a navigation system in the motor vehicle or a video recorder, whereby an adaptation of the dialog to the needs of the user (z. B. previous knowledge, practice) is made possible.
  • the dialogue is the mutual exchange of information between the user and a technical device. What is meant here are devices whose range of functions is so extensive and complex that their use poses problems for at least some users.
  • the user friendliness of a technical device is determined by the design of the dialogue between the user and the device.
  • Users of a technical device differ in many ways: previous knowledge, skills, practice, preferences.
  • the same user also has different properties if he interacts with a device at different times, e.g. For example, an experienced user can return to the inexperienced state after a long break.
  • dialog design it is known that inexperienced users need a different form of dialog design than experienced users.
  • Inexperienced users need step-by-step guidance (serial dialog); In addition, they are usually to be taught what the range of functions of the device and the tasks that can be solved look like.
  • Experienced users on the other hand, want quick access to the range of functions they are familiar with (parallel dialog).
  • Menu dialog supplemented with tutorial and help functions, is therefore a suitable form of dialog for inexperienced users, while the experienced dialog can cope better with the function key dialog.
  • Ad is coming.
  • the relevance consists of two components, the a priori importance and the distance evaluation.
  • the additive form of the relevance function is:
  • R (x, y; x 0 , y 0 ) W (x, y) - D (xx 0 , yy 0 ), (1) with R (x r y; x 0 , y 0 ) as the relevance function that indicates the degree of relevance that a point (x, y) has when the current fixation point (x 0 , y 0 ).
  • W (x, y) is the a priori importance of the point (x, y) and D (xx 0 , yy o ) indicates how the importance of the point (x, y) increases with distance from the fixation point (x 0 , y 0 ) decreases.
  • the center of observation is also referred to here in the figurative sense with the fixation point; Likewise, the distance evaluation can take place not only on the basis of geometric, but also on the basis of logical distances. This definition of relevance requires importance and distance assessment only at the ordinal scale level.
  • a threshold k is introduced for the display on an optical display, and only those points are shown for which
  • the distance evaluation D (x, x 0 ) for a given fixation point x 0 results as the distance d (x, x 0 ) between x and x 0 in the tree.
  • the a priori importance rating W (x) is the distance from the root w of the tree structure -d (x, w).
  • the extent k of the information selected from the tree structure can thus be influenced by the threshold k.
  • the scope of the selected information is referred to below - also figuratively - as the field of view. This selection is made as a function of the a priori importance and the distance from the current fixation point.
  • the threshold k there is a second possibility for adapting the information offered by choosing the fixation point.
  • the fish eye organization of the information shows a way of adaptable presentation of information, but there is a lack of methods for adaptable design of the entire dialogue, which in addition to the presentation also includes the input of information by the user.
  • a method is proposed and implementation in a device is specified, thereby making it possible to implement an adaptable dialog with a gradual transition between specialized dialog variants.
  • the basis of this proposal is the "fisheye principle" described above for displaying information.
  • the range of functions of a technical device can be represented as a tree structure. Therefore, the fish eye principle proposed for information display can be used to develop a user-controlled method and a device for adapting the dialog.
  • the user has two degrees of freedom for adaptation: scope of the functions presented and accessible in parallel (extension of the visual field) and position of the current focus of interest (fixation point).
  • the position of the fixation point can be set by presetting to the most frequently occurring area during use. Another type of presetting is the selection of the highest possible value of the threshold k in order to offer only the function to which the fixation point is directed. In this way, the inexperienced user is taken into account, since he only finds a very simple dialog design.
  • the user needs input elements for the fixation point and for the threshold k.
  • Fig. 1 shows the block diagram of the adaptable dialog system.
  • the functions are shown on the Büdschi ⁇ n 1 with the associated touch fields, which can be activated with the touch input 2.
  • the dialog control unit 3 processes the information to be displayed (4) and the input (5). It also controls the exchange of information 6 with the technical device 7.
  • the user specifies the relative size of the field of view by changing the threshold k and thus selects the scope of the range of functions released by the dialog control unit 3 for display.
  • the user has the option of determining the extent of the functions which can be presented and accessed in parallel, in accordance with his wishes. For the inexperienced user, starting at the beginning of the dialog, presetting to frequently required basic functions makes it easier to start using a device. Hiding irrelevant functions depending on their a priori importance and their distance from the current focus of interest simplifies the dialogue. Another advantage of hiding functions is that it creates space on the display for information which gives inexperienced users previously unknown concepts for the use of functions and offers help in their use. The development in the direction of a user with increasing practice is promoted in that the user by gradually increasing the Size of the visual field can include additional functions. The experienced user has the advantage that by choosing a large field of view, he gets optional access to a parallel range of functions.
  • a separate input element can be provided for the selection of the initial fixation point, with which the user can determine a fixation point that he would like to find at the beginning of the use of a device.
  • this requires that the user logs on to the device by name.
  • Fig. 2a shows the dialog tree.
  • the dialing number is adopted externally as a fixed fixation point.
  • the distance assessment is entered in FIG. 2b and the importance assessment in FIG. 2c.
  • Fig. 1d contains the resulting relevance assessment.
  • the implementation of these fisheye representations in an adaptable dialog is shown in FIGS. 3a-c.
  • a prerequisite for the implementation of the adaptable dialog according to the example of FIGS. 3a-c is a flexible display, e.g. B. a screen, and flexible input, e.g. B.
  • the grid fields represent input elements, e.g. B. Touch fields of a touch screen. "Degree of practice" was chosen as the name of the input element for changing the size of the visual field. You can switch between these dialog views with this input element.
  • Another possible implementation of the input are programmable keys, the current assignment of which is displayed on the screen.
  • the fixation point shifts with the selection of functions. A special fixation point can be stored for later reuse of the device by a separate input element, not shown.

Abstract

Die Erfindung betrifft ein Verfahren zur Durchführung eines variablen Dialogs mit technischen Geräten, die eine Anzeige und eine Eingabe, z.B. einen Fernsehbildschirm mit Berührtastatur, aufweisen. Erfindungsgemäß soll mittels des Fischaugeprinzips der Dialog realisiert werden, wobei eine Eingabeoperation mittels eines oder mehrerer mehrstufiger Eingabeelemente das Ausmaß bzw. Umfang der parallel dargestellten und zugreifbaren Funktionen mittels eines Schwellwertgebers einstellbar ist.

Description

VERFAHREN ZUR DURCHFÜHRUNG EINES VARIABLEN DIALOGS MIT TECHNISCHEN GERÄTEN,
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Abwicklung des Dialogs des Benutzers mit einem technischen Gerät, z. B. einem Telekommunikationsendgerät, einem Navigationssystem im Kraftfahrzeug oder einem Videorecorder, wodurch eine Anpassung des Dialogs an Bedürfnisse des Benutzers (z. B. Vorkenntnisse, Übung) er¬ möglicht wird. Als Dialog wird hier der wechselseitige Informationsaustausch zwischen dem Benutzer und einem technischen Gerät bezeichnet. Gemeint sind hier solche Geräte, deren Funktionsspektrum so umfangreich und komplex ist, daß ihre Benutzung zumindest für manche Benutzer Probleme aufwirft.
Stand der Technik
Die Benutzerfreundlichkeit eines technischen Gerätes wird durch die Gestaltung des Dialogs zwischen dem Benutzer und dem Gerät bestimmt. Benutzer eines technischen Gerätes unterscheiden sich in vielerlei Hinsicht: Vorkenntnisse, Fähigkeiten, Übung, Prä¬ ferenzen. Auch ein und derselbe Benutzer weist unterschiedliche Eigenschaften auf, wenn er zu verschiedenen Zeitpunkten mit einem Gerät interagiert, z. B. kann ein geübter Benut¬ zer nach einer längeren Pause wieder in den Zustand des ungeübten zurückkehren.
Es ist bekannt, daß ungeübte Benutzer eine andere Form der Dialoggestaltung benötigen als geübte. Man weiß femer im Prinzip, wie die Anforderungen an die Dialoggestaltung für die beiden Benutzerklassen lauten. Ungeübte Benutzer benötigen eine schrittweise Füh¬ rung (serieller Dialog); außerdem ist ihnen meist zu vermitteln, wie das Funktionsspektrum des Gerätes und die damit lösbaren Aufgaben aussehen. Geübte Benutzer dagegen wün- ' sehen einen schnellen Zugriff auf das ihnen bekannte Funktionsspektrum (paralleler Dialog). Menüdialog, ergänzt mit Tutor- und Hilfefunktionen, ist daher eine geeignete Dialogform für ungeübte Benutzer, während der geübte mit dem Funktionstastendialog besser zurechtkommt.
Es gibt keine Dialogform, die sowohl den Anforderungen der ungeübten als auch der geübten Benutzer gerecht wird. Daraus folgt, daß der Dialog nicht starr, sondern flexibel zu gestalten ist, indem der Dialog an den Benutzer angepaßt wird. Es sind zwei Möglich¬ keiten zur Anpassung des Dialogs an die B tϊdürfhisse des Benutzers bekannt: adaptierbare und adaptive Dialoge. Beim adaptierbaren Dialog übernimmt es der Benutzer, durch eigt • ne Entscheidungen Einfluß auf die Dialogform zu nehmen, um sie so an seine Bedürfhisse anzupassen. Voreinstellungen des Dialogs, die beim Einschalten des Gerätes wirksam werden ("Defaults"), können unterstützend wirken. Ein bekanntes Verfahren ist das sog. Benutzerprofil, das dem Benutzer erlaubt, z. B. Schriftfont, Schriftgröße, Fensterabmes¬ sungen einzustellen. Dagegen läuft beim adaptiven Dialog diese Anpassung ohne Zutun des Benutzers automatisch ab. Voraussetzung für letztgenannte Anpasssungsform ist, daß im technischen Gerät Wissen über den Benutzer verfügbar ist. Die Gestaltung adaptiver Dialoge ist Gegenstand der Forschung und wird im folgenden nicht betrachtet. Für ein Teilgebiet des Mensch-Maschine-Dialogs, die Darstellung von Information auf einem Bildschirm, hat Fumas 1986 mit der Fischauge-Organisation eine adaptierbare Darstellungsfor vorgeschlagen. Das Ziel der Fischauge-Organisation ist, mit einer ein¬ zigen Darstellungsform ein ausgewogenes Verhältnis zwischen der Darstellung von loka¬ lem Detail und globalem Kontext auf einem Büdschirm zu finden. In Analogie zu einem extremen Weitwinkelobjektiv ("Fischaugenlinse") liegt im Zentrum der Betrachtung (z. B. um den augenblicklichen Fixationspunkt herum) eine detailreiche Darstellung vor und dennoch wird nicht auf die Abbildung der umliegenden "Welt" verzichtet, indem mit zu¬ nehmendem Abstand vom Zentrum immer weniger Details gezeigt werden.
Zur formalen Beschreibung einer Fischauge-Organisation definiert Furnas 1986 eine
Funktion, welche die Relevanz jedes Elementes einer zweidimensionalen Informations- struktur festlegt. Aufgrund dieser Relevanz wird dann entschieden, ob ein Element zur
Anzeige kommt. Die Relevanz setzt sich zusammen aus zwei Komponenten, der a priori- Wichtigkeits- und der Distanzbewertung. Die additive Form der Relevanzfunktion lautet:
R(x,y;x0,y0) = W(x,y) - D(x-x0,y-y0), (1) mit R(xry;x0,y0) als der Relevanzfunktion, die den Grad der Relevanz angibt, den ein Punkt (x,y) besitzt, wenn der momentane Fixationspunkt (x0,y0) ist. W(x,y) ist die a priori- Wichtigkeit des Punktes (x,y) und D(x-x0,y-yo) gibt an, wie die Wichtigkeit des Punktes (x,y) mit zunehmendem Abstand vom Fixationspunkt (x0,y0) abnimmt. Mit Fixa¬ tionspunkt wird hier das Zentrum der Betrachtung auch im übertragenen Sinne bezeichnet; ebenso kann die Distanzbewertung nicht nur aufgrund geometrischer, sondern auch auf¬ grund logischer Entfernungen erfolgen. Diese Definition der Relevanz erfordert Wichtig¬ keits- und Distanzbewertung nur auf dem Ordinalskalenniveau.
Für die Darstellung auf einer optischen Anzeige wird eine Schwelle k eingeführt, und es werden nur diejenigen Punkte angezeigt, für die
R(x,y;x0,y0) > k (2) ist.
Im folgenden wird das Fischauge-Prinzip anhand einer Baumstruktur erläutert. Bei einer Baumstruktur ergibt sich die Distanzbewertung D(x,x0) bei einem gegebenen Fixations¬ punkt x0 als Abstand d(x,x0) zwischen x und x0 im Baum. Die a priori-Wichtigkeitsbewer- tung W(x) ist der Abstand von der Wurzel w der Baumstruktur -d(x,w). Als Relevanzfunk¬ tion erhält man
R(x;x0) = -d(x,w) - d(x,x0) (3)
Durch Wahl der Schwelle k werden Fischauge-Darstellungen unterschiedlicher Größe er¬ halten. Durch die Schwelle k läßt sich somit der Umfang der aus der Baumstruktur ausge¬ wählten Information beeinflussen. Der Umfang der ausgewählten Information wird im folgenden - auch im übertragenen Sinne - als Gesichtsfeldgröße bezeichnet. Diese Auswahl wird in Abhängigkeit von der a priori-Wichtigkeit und der Distanz vom momentanen Fixa¬ tionspunkt getroffen. Neben der Schwelle k bietet sich eine zweite Möglichkeit zur Anpas¬ sung des Informationsangebotes durch Wahl des Fixationspunktes. Mit der Fischauge-Organisation der Information ist zwar ein Weg zur adaptierbaren Dar¬ stellung von Information aufgezeigt, es fehlt aber an Verfahren zur adaptierbaren Gestal¬ tung des gesamten Dialoges, der neben der Darstellung auch die Eingabe von Information durch den Benutzer umfaßt. Hinzu kommt als weitere wichtige Forderung, daß zwischen den Ausprägungsformen anpaßbarer Dialoge nicht abrupte, sondern gleitende oder wenig¬ stens stufenförmige Übergänge vorhanden sein müssen, damit die allmähliche Verände¬ rung des Benutzers, z. B. vom Zustand des Ungeübten zu dem des Geübten, unterstützt wird.
Beschreibung der Erfindung
Erfindungsgemäß wird ein Verfahren vorgeschlagen und eine Umsetzung in eine Vorrich¬ tung angegeben, wodurch die Realisierung eines adaptierbaren Dialogs mit stufenweisem Übergang zwischen spezialisierten Dialogvarianten ermöglicht wird. Die Basis dieses Vor¬ schlages ist das oben beschriebene "Fischauge-Prinzip" für Darstellung von Information.
Das Funktionsangebot eines technischen Gerätes läßt sich als Baumstruktur darstellen. Daher kann das zur Informationsdarstellung vorgeschlagene Fischauge-Prinzip verwendet werden, um ein vom Benutzer gesteuertes Verfahren und eine Vorrichtung zur Anpassung des Dialogs zu entwickeln. Der Benutzer hat zwei Freiheitsgrade zur Anpassung: Umfang der parallel dargebotenen und zugreifbaren Funktionen (Gesichtsfeldausdehnung) und La¬ ge des momentanen Interessenschwerpunktes (Fixationspunkt). Die Lage des Fixations- punktes kann durch Voreinstellung auf den bei der Benutzung am häufigsten vorkommen¬ den Bereich gelegt werden. Eine weitere Art der Voreinstellung ist die Wahl eines mög¬ lichst hohen Wertes der Schwelle k, um so nur diejenige Funktion anzubieten, auf die der Fixationspunkt gerichtet ist. Auf diese Weise wird dem ungeübten Benutzer Rechnung getragen, da er nur eine sehr einfache Dialoggestaltung vorfindet. Zur späteren Anpassung des Dialogs an seine Bedürf isse benötigt der Benutzer Eingabeelemente für den Fixa¬ tionspunkt und für die Schwelle k.
Fig. 1 zeigt das Blockschaltbild des adaptierbaren Dialogsystems. Auf dem Büdschiπn 1 werden die Funktionen mit den zugehörigen Berührfeldern dargestellt, die mit der Berühr¬ eingabe 2 aktiviert werden können. Die Dialogsteuereinheit 3 verarbeitet die darzustellen¬ den (4) und die eingegebenen (5) Informationen. Sie steuert ferner den Informationsaus¬ tausch 6 mit dem technischen Gerät 7. Mit dem Eingabeelement 8 gibt der Benutzer durch Verändern der Schwelle k die relative Größe des Gesichtsfeldes an und wählt damit den Umfang des von der Dialogsteuereinheit 3 zur Darstellung freigegebenen Funktionsange¬ botes.
Vorteile der Erfindung
Der Benutzer hat die Möglichkeit, seinen Wünschen entsprechend das Ausmaß der parallel dargebotenen und zugreifbaren Funktionen zu bestimmen. Für den ungeübten Benutzer ergibt sich zunächst bei Beginn des Dialogs durch Voreinstellung auf häufig benötigte Grundfunktionen ein erleichterter Einstieg in die Benutzung eines Gerätes. Durch Aus¬ blendung nicht relevanter Funktionen in Abhängigkeit von deren a priori-Wichtigkeit und deren Abstand vom momentanen Interessenschwerpunkt ergibt sich eine Vereinfachung des Dialogs. Ein weiterer Vorteil des Ausblendens von Funktionen besteht darin, daß damit Platz auf der Anzeige für Informationen geschaffen wird, die dem ungeübten Benutzer ihm bisher unbekannte Konzepte für die Benutzung von Funktionen vermitteln und ihm Hilfe bei ihrer Benutzung bieten. Die Entwicklung in Richtung eines Benutzers mit zunehmen¬ der Übung wird dadurch gefördert, daß der Benutzer durch schrittweises Erhöhen der Größe des Gesichtsfeldes zusätzliche Funktionen einbeziehen kann. Der geübte Benutzer hat den Vorteil, daß er durch Wahl eines großen Gesichtsfeldes einen wahlfreien Zugriff auf ein paralleles Funktionsangebot erhält. Andererseits kann er bei Verlust der Übung wieder von der Verengung und von der schrittweisen Erweiterung des Gesichtsfeldes Gebrauch machen. Ein gesondertes Eingabeelement kann zur Auswahl des anfänglichen Fixationspunktes vorgesehen werden, mit dem der Benutzer einen Fixationspunkt bestim¬ men kann, den er zu Beginn der Benutzung eines Gerätes vorfinden möchte. Dazu ist es allerdings notwendig, daß der Benutzer sich namentlich bei dem Gerät anmeldet.
Ausführungsbeispiel
Als Ausführungsbeispiel wird im folgenden der Dialog mit einem Telefon betrachtet. Fig. 2a gibt den Dialogbaum wieder. Als fester Fixationspunkt wird im weiteren die Nummem- wahl extern angenommen. In Fig. 2b ist die Distanzbewertung und in Fig. 2c die Wichtig¬ keitsbewertung eingetragen. Fig. ld enthält die daraus resultierende Relevanzbewertung. Die durch Wahl der Schwellen k = -6, -8, -10 sich ergebenden Fischauge-Darstellungen sind in Fig. 2e-g wiedergegeben. Die Umsetzung dieser Fischauge-Darstellungen in einen adaptierbaren Dialog zeigen Fig. 3a-c. Voraussetzungen für die Realisierung des adaptier¬ baren Dialogs gemäß dem Beispiel von Fig. 3a-c sind eine flexible Anzeige, z. B. ein Bildschirm, und eine flexible Eingabe, z. B. eine Berühreingabe. Die gerasterten Felder stellen Eingabeelemente dar, z. B. Berührfelder eines Berührbildschirmes. Als Bezeich¬ nung des Eingabeelementes für die Veränderung der Größe des Gesichtsfeldes wurde "Übungsgrad" gewählt. Die Umschaltung zwischen diesen Dialog-Ansichten erfolgt mit diesem Eingabeelement. Eine weitere Realisierungsmöglichkeit der Eingabe sind program¬ mierbare Tasten, deren momentane Belegung auf dem Büdschirm angezeigt wird. Der Fixationspunkt verlagert sich mit dem Anwählen von Funktionen. Die Abspeicherung ei¬ nes speziellen Fixationspunktes für spätere Wiederbenutzung des Gerätes kann durch ein separates, nicht abgebildetes Eingabeelement erfolgen.
Literatur
Furnas, G.W.:
Generalized Fisheye Views.
Human Factors in Computing Systems - EI, Proc. of the CHI '86 Conference, Boston, MA,
USA, April 13-17, 1986, 16-23.

Claims

P a t e n t a n s p r ü c h e
1) Verfahren zur Durchführung eines variablen Dialogs mit technischen Geräten, die eine Anzeige und eine Eingabe mittels Eingabeelemente aufweisen,
d a d u r c h g e k e n n z e i c h n e t ,
daß durch eine Eingabeoperation mittels eines oder meh¬ rerer mehrstufiger Eingabeelemente das Ausmaß der paral¬ lel dargestellten und zugreifbaren Funktionen mittels eines Schwellwertgebers einstellbar ist,
und daß diese parallel angebotenen Funktionen nach der Formel R(x,y;xo,yo) = W(x,y) - D(x-xo,y-yo) von der gewünschten Information oder Funktion des tech¬ nischen Gerätes abhängen.
mit R = Relevanzfunktion xo'vJo = Koordinaten des Fixationspunktes = Wichtigkeit am Punkt (x,y)
D = Abnahme der Wichtigkeit 2) Verfahren nach Anspruch 1,
d a d u r c h g e k e n n z e i c h n e t ,
daß als Anzeige ein Bildschirm und als Eingabe ein Be¬ rührschirm verwendet werden.
3) Verfahren nach Anspruch 1,
d a d u r c h g e k e n n z e i c h n e t ,
daß als Anzeige ein Bildschirm und als Eingabe pro¬ grammierbare Tasten verwendet werden.
4) Verfahren nach den Ansprüchen 1 - 3,
d a d u r c h g e k e n n z e i c h n e t ,
daß der Benutzer mit einem mehrstufigen Eingabeelement die Ausdehnung des Gesichtsfeldes und damit den Umfang des parallel dargebotenen Funktionsumfanges auswählen kann.
5) Verfahren nach den Ansprüchen 1 - 4,
d a d u r c h g e k e n n z e i c h n e t ,
daß der Benutzer mit einem Eingabeelement den Fixa¬ tionspunkt bestimmen kann, den er zu Beginn der Wie¬ derbenutzung des Gerätes vorfinden möchte.
6) Vorrichtung zur Durchführung des Verfahrens nach den Ansprüchen 1 - 5 mit einem Bildschirm und Eingabeein¬ richtung,
d a d u r c h g e k e n n z e i c h n e t ,
daß eine Dialogsteuereinheit 3 vorgesehen ist, die die auf dem Bildschirm darzustellenden und die auf der Bild¬ schirmeingabe 2 oder einer Tastatur eingegebenen Infor¬ mationen 5 verarbeitet und den Informationsaustausch mit dem technischen Gerät 7 steuert
und ein Eingabeelement 8 vorgesehen ist, das über einen Schwellwertgeber die Durchführung des Dialogs dem Um¬ fang nach steuert.
PCT/EP1991/001355 1990-07-21 1991-07-18 Verfahren zur durchführung eines variablen dialogs mit technischen geräten WO1992001983A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP91913013A EP0540570B1 (de) 1990-07-21 1991-07-18 Verfahren zur durchführung eines variablen dialogs mit technischen geräten
JP51273991A JP3255912B2 (ja) 1990-07-21 1991-07-18 技術装置とのバリアブル・ダイアローグを実施する方法および装置
DE59103295T DE59103295D1 (de) 1990-07-21 1991-07-18 Verfahren zur durchführung eines variablen dialogs mit technischen geräten.
US07/976,999 US5459488A (en) 1990-07-21 1991-07-18 Graphical user interface with fisheye adaptation principle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4023318A DE4023318A1 (de) 1990-07-21 1990-07-21 Verfahren zur durchfuehrung eines variablen dialogs mit technischen geraeten
DEP4023318.9 1990-07-21

Publications (1)

Publication Number Publication Date
WO1992001983A1 true WO1992001983A1 (de) 1992-02-06

Family

ID=6410813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP1991/001355 WO1992001983A1 (de) 1990-07-21 1991-07-18 Verfahren zur durchführung eines variablen dialogs mit technischen geräten

Country Status (6)

Country Link
US (1) US5459488A (de)
EP (1) EP0540570B1 (de)
JP (1) JP3255912B2 (de)
DE (2) DE4023318A1 (de)
ES (1) ES2064114T3 (de)
WO (1) WO1992001983A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0794647A1 (de) * 1996-03-06 1997-09-10 Koninklijke Philips Electronics N.V. Fernsprechapparat mit Anzeige und Menuverwaltungsverfahren dafür

Families Citing this family (162)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3488525B2 (ja) * 1994-12-13 2004-01-19 富士通株式会社 ヘルプ画面表示方法およびヘルプ画面表示装置
US5900863A (en) * 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
JP3755204B2 (ja) * 1996-09-20 2006-03-15 カシオ計算機株式会社 通信装置、通信制御方法及び通信システム
DE19752055B4 (de) * 1997-11-25 2005-10-13 Bayerische Motoren Werke Ag Vorrichtung mit einem Betätigungsglied und einer Bildschirmanzeige
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6326952B1 (en) 1998-04-24 2001-12-04 International Business Machines Corporation Method and apparatus for displaying and retrieving input on visual displays
US6230170B1 (en) 1998-06-17 2001-05-08 Xerox Corporation Spatial morphing of text to accommodate annotations
US6584479B2 (en) 1998-06-17 2003-06-24 Xerox Corporation Overlay presentation of textual and graphical annotations
US6185582B1 (en) 1998-06-17 2001-02-06 Xerox Corporation Spreadsheet view enhancement system
US6256649B1 (en) 1998-06-17 2001-07-03 Xerox Corporation Animated spreadsheet for dynamic display of constraint graphs
US6407755B1 (en) 1999-03-19 2002-06-18 Eastman Kodak Company Method for selectively or automatically matching the characteristics of a display to a language
GB2352858A (en) * 1999-07-29 2001-02-07 Ibm Television equipped with a touch sensitive display
DE19936257A1 (de) * 1999-07-31 2001-02-01 Georg Geiser Berührungssensitiver Mehrfachdrehknopf für adaptierbares Dialogverfahren
US6745328B1 (en) 1999-10-23 2004-06-01 Lockstream Corporation Encryption using a user-known and personally valuable key to deter key sharing
US6683954B1 (en) 1999-10-23 2004-01-27 Lockstream Corporation Key encryption using a client-unique additional key for fraud prevention
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US6778992B1 (en) 1999-12-21 2004-08-17 Lockstream Corporation Flexible and hierarchical user interfaces defined using a data definition language
US6686938B1 (en) * 2000-01-05 2004-02-03 Apple Computer, Inc. Method and system for providing an embedded application toolbar
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE10049848A1 (de) * 2000-10-09 2002-04-11 Thomson Brandt Gmbh Gerät der Unterhaltungselektronik
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
JP4581264B2 (ja) * 2001-02-20 2010-11-17 船井電機株式会社 デジタル/アナログ放送受信装置
EP1371164A4 (de) * 2001-03-02 2006-05-24 Lockstream Corp Diebstahlresistente graphik
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
US7213214B2 (en) 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
FR2861206B1 (fr) * 2003-10-16 2006-11-24 Michel Rissons Procede et dispositif d'adaptation automatique d'affichage
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US8744852B1 (en) 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
US20060109242A1 (en) * 2004-11-19 2006-05-25 Simpkins Daniel S User interface for impaired users
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
KR101246049B1 (ko) * 2008-09-23 2013-03-26 에어로바이론먼트 인크 H-브리지로 구동되는 공심형 영구자석 머신의 pwm 듀티 사이클 결정방법 및 시스템
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8661362B2 (en) 2009-03-16 2014-02-25 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
JP5744869B2 (ja) * 2009-08-11 2015-07-08 サムワンズ グループ インテレクチュアル プロパティー ホールディングス プロプライエタリー リミテッドSomeones Group Intellectual Property Holdings Pty Ltd. 選択肢ネットワークのナビゲーション
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9092130B2 (en) 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR20230137475A (ko) 2013-02-07 2023-10-04 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (de) 2013-06-09 2022-01-12 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitalen assistenten
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0330944A2 (de) * 1988-02-27 1989-09-06 Alcatel SEL Aktiengesellschaft Verfahren und Schaltungsanordnung zur Benutzerführung eines Endgerätes der Nachrichten- oder Datentechnik

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4763117A (en) * 1983-03-23 1988-08-09 Tektronix, Inc. Measurement instruments with multiple operation levels

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0330944A2 (de) * 1988-02-27 1989-09-06 Alcatel SEL Aktiengesellschaft Verfahren und Schaltungsanordnung zur Benutzerführung eines Endgerätes der Nachrichten- oder Datentechnik

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUMAN FACTORS IN COMPUTING SYSTEMS-III, PROC. OFTHE CHI'86 CONFERENCE, APRIL 13-17,1986 BOSTON,MA,USA Seiten 16 - 23; G.W.FURNAS: 'generalized fisheye views' in der Anmeldung erwähnt siehe das ganze Dokument *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0794647A1 (de) * 1996-03-06 1997-09-10 Koninklijke Philips Electronics N.V. Fernsprechapparat mit Anzeige und Menuverwaltungsverfahren dafür
US6061576A (en) * 1996-03-06 2000-05-09 U.S. Philips Corporation Screen-phone and method of managing the menu of a screen-phone

Also Published As

Publication number Publication date
DE59103295D1 (de) 1994-11-24
JP3255912B2 (ja) 2002-02-12
EP0540570A1 (de) 1993-05-12
EP0540570B1 (de) 1994-10-19
DE4023318A1 (de) 1992-02-20
JPH06502506A (ja) 1994-03-17
ES2064114T3 (es) 1995-01-16
US5459488A (en) 1995-10-17

Similar Documents

Publication Publication Date Title
EP0540570B1 (de) Verfahren zur durchführung eines variablen dialogs mit technischen geräten
DE69910710T2 (de) Berührungsempfindlicher bildschirm mit autozoom-anordnung
DE602005000460T2 (de) Mobiles Nachrichtenendgerät mit Anzeige von Avatar-Bewegungen und Verfahren zum Anzeigen von Avatar-Bewegungen
DE10321508B4 (de) Fahrzeuginnengeräte-Steuersystem, das eine Einstellanzeige variiert
EP0553487A1 (de) Verfahren zur Erleichterung der Bedienung von Endgeräten in Fernmeldeanlagen
DE102019217733A1 (de) Verfahren zum Betreiben eines Bediensystems in einem Fahrzeug und Bediensystem für ein Fahrzeug
DE112006002954T5 (de) Virtuelles Schnittstellensystem
EP1875341A1 (de) Verfahren zum verwalten einer anzeigeeinrichtung
DE10110943B4 (de) Positionieren von auf einer Benutzeroberfläche angezeigten Bereichen
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE19907795A1 (de) Verfahren zur Unterstützung eines Benutzers eines Kraftfahrzeugs bei der Bedienung von Komponenten des Kraftfahrzeugs sowie eine zugehörige Vorrichtung
EP2930603B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
DE102015200038A1 (de) Vorrichtung und Verfahren in einem Kraftfahrzeug zur Eingabe eines Textes über virtuelle Bedienelemente mit haptischer Rückkopplung zur Simulation einer Tastenhaptik
EP1214640A1 (de) Verfahren und vorrichtung zur menüunterstützten bedienung
EP2987066B1 (de) Kraftfahrzeug mit einer anzeige- und bedienvorrichtung und entsprechendes verfahren
DE102006052898B4 (de) Informations- und Bedienvorrichtung für einen Benutzer eines Kraftfahrzeugs
WO1998015964A1 (de) Verfahren und anordnung zur bedienung mindestens eines geräts
DE19941945C2 (de) Verfahren und Vorrichtung zum Darstellen aktivierter Bedien- und Anzeigebereiche
DE102006012195A1 (de) Steuerungsverfahren für den Anzeigemodus einer elektronischen Einrichtung
DE10328200A1 (de) Navigationsgerät für ein Kraftfahrzeug
DE102004010406B3 (de) Informations- oder Unterhaltungssystem eines Kraftfahrzeuges und Verfahren zur Auswahl eines Listeneintrags
DE4107745C1 (de)
DE102009048176A1 (de) Verfahren zum Anzeigen von Informationen in einer Menüstruktur und Vorrichtung dazu
DE102013001885A1 (de) Systeminitiierte Hilfefunktion pro Fahrt und/oder pro Nutzer für die Bedienung von einer, einem Fahrzeug zugeordneten Vorrichtung
EP1555608A1 (de) Anordnung zur Sprachbedienung eines elektronischen Gerätes, insbesondere in einem Kraftfahrzeug

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IT LU NL SE

WWE Wipo information: entry into national phase

Ref document number: 1991913013

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1991913013

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1991913013

Country of ref document: EP