DE102013219649A1 - Method and system for creating or supplementing a user-specific language model in a local data memory connectable to a terminal - Google Patents
Method and system for creating or supplementing a user-specific language model in a local data memory connectable to a terminal Download PDFInfo
- Publication number
- DE102013219649A1 DE102013219649A1 DE201310219649 DE102013219649A DE102013219649A1 DE 102013219649 A1 DE102013219649 A1 DE 102013219649A1 DE 201310219649 DE201310219649 DE 201310219649 DE 102013219649 A DE102013219649 A DE 102013219649A DE 102013219649 A1 DE102013219649 A1 DE 102013219649A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- language model
- processing unit
- data processing
- external data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
Abstract
Die Erfindung betrifft ein Verfahren zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells (8) in einem mit einem Endgerät (4, 5) verbindbaren lokalen Datenspeicher (7), wobei das Sprachmodell (8) eingerichtet ist, natürlichsprachlichen Äußerungen eines Benutzers Steuerbefehle zum Steuern des Endgerätes (4, 5) zuzuordnen, umfassend die Schritte: – Einsprechen einer natürlichsprachlichen Äußerung durch den Benutzer; – Übermitteln der natürlichsprachlichen Äußerung an eine externe Datenverarbeitungseinheit (2) und Transkribieren der natür lichsprachlichen Äußerung; – Erstellen oder Ergänzen des Sprachmodells (8) auf der externen Datenverarbeitungseinheit (2) anhand der transkribierten natürlichsprachlichen Äußerung; – vollständiges oder wenigstens teilweises Übertragen des Sprachmodells (8) von der externen Datenverarbeitungseinheit (2) an den lokalen Datenspeicher (7) sowie Speichern und/oder Ergänzen des Sprachmodells (8) in dem lokalen Datenspeicher (7). Die Erfindung betrifft ferner ein System (100), mit dem das Verfahren durchführbar ist.The invention relates to a method for creating or supplementing a user-specific language model (8) in a local data memory (7) which can be connected to a terminal (4, 5), wherein the language model (8) is set up, natural language utterances of a user control commands for controlling the terminal (4, 5), comprising the steps of: - speaking a natural language utterance by the user; - transmitting the natural language statement to an external data processing unit (2) and transcribing the natural language utterance; - creating or supplementing the language model (8) on the external data processing unit (2) based on the transcribed natural language utterance; - Completely or at least partially transferring the language model (8) from the external data processing unit (2) to the local data memory (7) and storing and / or supplementing the language model (8) in the local data memory (7). The invention further relates to a system (100) with which the method can be carried out.
Description
Die Erfindung betrifft ein Verfahren zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells in einem mit einem Endgerät verbindbaren lokalen Datenspeicher, wobei das Sprachmodell eingerichtet ist, natürlichsprachlichen Äußerungen eines Benutzers Steuerbefehle zum Steuern des Endgerätes zuzuordnen. Die Erfindung betrifft ferner ein System mit dem das Verfahren durchführbar ist. The invention relates to a method for creating or supplementing a user-specific language model in a local data memory which can be connected to a terminal, wherein the language model is set up to associate natural language utterances of a user with control commands for controlling the terminal. The invention further relates to a system with which the method is feasible.
Aus dem Stand der Technik ist es bekannt, Endgeräte, beispielsweise Infotainmentsysteme oder Navigationssysteme für PKW oder LKW, durch Eingabe natürlichsprachlicher Äußerungen zu steuern. Zu diesem Zweck werden Spracherkenner gewöhnlich mit statistischen Sprachmodellen (SLM) und mit semantischen Modellen (SEM) ergänzt. Bei einer natürlichsprachlichen Äußerung handelt es sich normalerweise um einen von dem Benutzer gesprochenen Text oder auch von dem Benutzer geäußerte Laute. Die genannten Modelle sind darauf ausgerichtet, eine von dem Benutzer z. B. in eine entsprechende akustische Eingabeeinheit eingegebene natürlichsprachliche Äußerung zu erkennen und der Äußerung einen Steuerbefehl zum Steuern des Endgerätes zuzuordnen. Gewöhnlich wird durch diesen Steuerbefehl dann eine definierte Aktion oder Funktion des Endgerätes ausgelöst. From the prior art it is known to control terminals, such as infotainment systems or navigation systems for cars or trucks, by entering natural language utterances. Speech recognizers are usually supplemented with statistical language models (SLM) and semantic models (SEM). A natural language utterance is usually a text spoken by the user or sounds uttered by the user. The models mentioned are geared to one of the user z. B. to recognize entered into a corresponding acoustic input unit natural language utterance and assign the utterance a control command for controlling the terminal. Usually, a defined action or function of the terminal is then triggered by this control command.
Die genannten Modelle, mit denen bekannte Spracherkenner gewöhnlich ergänzt werden, haben jedoch den Nachteil, dass sie sehr umfangreich sind und viel Speicherplatz benötigen, damit sie in der Lage sind, den Wortschatz einer Vielzahl von Benutzern abzudecken. Die Folge sind lange Latenzzeiten bei der Benutzung. Ferner bedingt die Verwendung dieser Modelle den Einsatz leistungsstarker und entsprechend teurer Prozessoren im Endgerät. However, these models, which are commonly supplemented by known speech recognizers, have the drawback that they are very large and require a lot of memory space to be able to cover the vocabulary of a large number of users. The result is long latency in use. Furthermore, the use of these models requires the use of powerful and correspondingly expensive processors in the terminal.
Der vorliegenden Erfindung liegt somit die Aufgabe zugrunde, ein Verfahren zur Erstellung eines möglichst leistungsstarken und gleichzeitig möglichst preisgünstig implementierbaren Sprachmodells zu entwickeln, wobei das Modell eingerichtet sein soll, natürlichsprachlichen Äußerungen eines Benutzers Steuerbefehle zum Steuern eines Endgerätes zuzuordnen. Ferner soll ein System angegeben werden, mit dem dieses Verfahren durchführbar ist. The present invention is therefore based on the object to develop a method for creating a powerful as possible and at the same time as inexpensively implementable language model, the model should be set to associate natural language utterances of a user control commands for controlling a terminal. Furthermore, a system is to be specified, with which this method is feasible.
Diese Aufgabe wird gelöst durch ein Verfahren und ein System gemäß den unabhängigen Ansprüchen. Spezielle Ausgestaltungen des erfindungsgemäßen Verfahrens und des erfindungsgemäßen Systems sind in den Unteransprüchen beschrieben. This object is achieved by a method and a system according to the independent claims. Special embodiments of the method and the system according to the invention are described in the subclaims.
Vorgeschlagen wird also ein Verfahren zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells in einem mit wenigstens einem Endgerät verbindbaren lokalen Datenspeicher, wobei das Sprachmodell eingerichtet ist, natürlichsprachlichen Äußerungen eines Benutzers Steuerbefehle zum Steuern des Endgerätes zuzuordnen, umfassend die Schritte:
- – Einsprechen einer natürlichsprachlichen Äußerung durch den Benutzer;
- – Übermitteln der natürlichsprachlichen Äußerung an eine externe Datenverarbeitungseinheit und Transkribieren der natürlich sprachlichen Äußerung, vorzugsweise Transkribieren in eine Textform;
- – Erstellen oder Ergänzen des benutzerspezifischen Sprachmodells auf der externen Datenverarbeitungseinheit anhand der transkribierten natürlichsprachlichen Äußerung;
- – vollständiges oder wenigstens teilweises Übertragen des Sprachmodells von der externen Datenverarbeitungseinheit an den mit dem Endgerät verbindbaren lokalen Datenspeicher sowie Speichern und/oder Ergänzen des Sprachmodells in dem lokalen Datenspeicher.
- - a natural language utterance by the user;
- - Transmitting the natural language utterance to an external data processing unit and transcribing the natural linguistic utterance, preferably transcribing into a textual form;
- - creating or supplementing the user-specific language model on the external data processing unit based on the transcribed natural language utterance;
- Completely or at least partially transferring the language model from the external data processing unit to the local data memory connectable to the terminal and storing and / or supplementing the language model in the local data memory.
Dadurch, dass das Erstellen und/oder Ergänzen des benutzerspezifischen Sprachmodells auf der externen Datenverarbeitungseinheit durchgeführt wird und dass das Sprachmodell anschließend vollständig oder wenigstens teilweise von der externen Datenverarbeitungseinheit an den lokalen Datenspeicher übertragen sowie in dem lokalen Datenspeicher gespeichert und/oder ergänzt wird, wird ein zur Steuerung des Endgerätes nutzbares Sprachmodell zur Verfügung gestellt, das auf den jeweiligen Benutzer zugeschnitten ist. Bei vergleichsweise geringem Speicherbedarf kann das derart im lokalen Datenspeicher zur Verfügung gestellte Sprachmodell den von diesem Benutzer zur Steuerung des Endgerätes verwendeten Wortschatz abdecken. Der lokale Datenspeicher kann also kleiner ausgelegt sein als dies bei ähnlich leistungsstarken Spracherkennern der Fall ist, die aus dem Stand der Technik bekannt sind. Gleichzeitig können gute Ergebnisse und kurze Latenzzeiten auch mit vergleichsweise leistungsschwachen und damit preisgünstigen Prozessoren erzielt werden. Characterized in that the creation and / or supplement of the user-specific language model is performed on the external data processing unit and that the language model is then completely or at least partially transmitted from the external data processing unit to the local data memory and stored in the local data memory and / or supplemented, is a provided for the control of the terminal usable language model, which is tailored to the respective user. With a comparatively small memory requirement, the language model provided in the local data memory in this way can cover the vocabulary used by this user for controlling the terminal. The local data memory can thus be designed to be smaller than is the case with similarly high-performance speech recognizers which are known from the prior art. At the same time, good results and short latencies can be achieved even with comparatively low-performance and therefore low-cost processors.
Der Vorgang des Transkribierens kann insbesondere das Erstellen einer orthografischen Darstellung der natürlichsprachlichen Äußerung umfassen, z. B. in Form einer Folge von Worten und/oder Zeichen. Dabei können beliebige Schriftarten und Alphabete verwendet werden. Vorzugsweise liegt die Darstellung nach dem Transkribieren in digitaler Form vor, z. B. in Gestalt einer Textdatei. The process of transcribing may include, in particular, the creation of an orthographic representation of the natural language utterance, e.g. In the form of a sequence of words and / or characters. Any fonts and alphabets can be used. Preferably, the representation after transcribing is in digital form, e.g. B. in the form of a text file.
Vorgeschlagen wird ferner ein System, mit dem das hier vorgeschlagene Verfahren durchführbar ist. Es handelt es sich also um ein System zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells in einem mit einem Endgerät verbindbaren lokalen Datenspeicher, wobei das Sprachmodell eingerichtet ist, natürlichsprachlichen Äußerungen eines Benutzers Steuerbefehle zum Steuern des Endgerätes zuzuordnen. Das System umfasst:
- – wenigstens ein Endgerät;
- – einen mit dem Endgerät verbindbaren lokalen Datenspeicher zum Speichern des Sprachmodells;
- – eine akustische Eingabeeinheit, über die natürlichsprachliche Äußerungen zur Steuerung des Endgerätes eingebbar sind;
- – eine externe Datenverarbeitungseinheit, an die die natürlichsprachlichen Äußerungen übermittelbar sind, wobei die externe Datenverarbeitungseinheit eingerichtet ist, anhand der natürlichsprachlichen Äußerungen ein benutzerspezifisches Sprachmodell zu erstellen oder zu ergänzen und das Sprachmodell vollständig oder wenigstens teilweise zum Speichern in dem lokalen Datenspeicher an den lokalen Datenspeicher zu übertragen und
- – eine mit der akustischen Eingabeeinheit und mit dem lokalen Datenspeicher verbindbare lokale Sende- und Empfangseinheit zum Übermitteln der natürlichsprachlichen Äußerung an die externe Datenverarbeitungseinheit und zum Empfangen des Sprachmodells von der externen Datenverarbeitungseinheit.
- - at least one terminal;
- - A connectable to the terminal local data storage for storing the language model;
- - An acoustic input unit, via the natural language utterances for controlling the terminal can be entered;
- An external data processing unit to which the natural language utterances can be communicated, wherein the external data processing unit is adapted to create or supplement a user-specific language model based on the natural language utterances and the language model completely or at least partially to the local data memory for storing in the local data memory transferred and
- - A connectable to the acoustic input unit and the local data storage local transmitting and receiving unit for transmitting the natural language utterance to the external data processing unit and for receiving the language model from the external data processing unit.
Vorzugsweise sind das Endgerät, der lokale Datenspeicher, die akustische Eingabeeinheit und die lokale Sende- und Empfangseinheit in einem Kraftfahrzeug anordenbar, angeordnet oder eingebaut, z. B. in einem PKW oder LKW. Der lokale Datenspeicher zum Speichern des Sprachmodells kann in das Endgerät integriert sein. Das Endgerät und der lokale Datenspeicher können jedoch auch als separate Einheiten ausgeführt sein. Auch die akustische Eingabeeinheit und die lokale Sende- und Empfangseinheit können in das Endgerät integriert oder als separate Einheiten ausgeführt sein. Das Endgerät und der lokale Datenspeicher können über eine drahtgebundene und/oder über eine drahtlose Datenverbindung verbindbar oder verbunden sein. Die akustische Eingabeeinheit umfasst typischerweise wenigstens ein Mikrophon. Preferably, the terminal, the local data memory, the acoustic input unit and the local transmitting and receiving unit in a motor vehicle can be arranged, arranged or installed, for. B. in a car or truck. The local data memory for storing the language model can be integrated in the terminal. However, the terminal and the local data store may also be implemented as separate units. The acoustic input unit and the local transmitting and receiving unit can also be integrated into the terminal or designed as separate units. The terminal and the local data memory may be connectable or connected via a wired and / or wireless data link. The acoustic input unit typically comprises at least one microphone.
Gewöhnlich umfasst das System zudem wenigstens einen lokalen Prozessor, der mit dem Endgerät, dem lokalen Datenspeicher, der akustischen Eingabeeinheit und der lokalen Sende- und Empfangseinheit drahtlos oder drahtgebunden verbindbar oder verbunden ist. Auch der lokale Prozessor ist vorzugsweise in dem PKW oder LKW angeordnet. Insbesondere kann der lokale Prozessor eingerichtet sein, durch Ausführen einer entsprechenden Spracherkennungssoftware das Transkribieren der eingegebenen natürlichsprachlichen Äußerung durchzuführen. Anhand des im lokalen Datenspeicher gespeicherten benutzerspezifischen Sprachmodells kann der lokale Prozessor der Äußerung dann wenigstens einen Steuerbefehl aus einer Menge von Steuerbefehlen zum Steuern des Endgerätes zuordnen und diesen Steuerbefehl an das Endgerät senden. Das Endgerät kann dann eine durch den Steuerbefehl veranlasste Aktion oder Funktion ausführen. Typically, the system also includes at least one local processor wirelessly or wirably connectable or connected to the terminal, the local data store, the acoustic input unit, and the local transceiver. Also, the local processor is preferably located in the car or truck. In particular, the local processor may be configured to perform the transcribing of the input natural language utterance by executing a corresponding speech recognition software. On the basis of the user-specific language model stored in the local data memory, the local processor can then associate the utterance with at least one control command from a set of control commands for controlling the terminal and send this control command to the terminal. The terminal may then perform an action or function initiated by the control command.
Das Endgerät kann z. B. wenigstens
- – ein Audiogerät zum Abspielen von Audiodateien und/oder
- – ein Videogerät zum Abspielen von Bild- und/oder Videodateien und/oder
- – ein Telekommunikationsgerät zum Empfangen und/oder Versenden von Text-, Sprach-, Bild- oder Videonachrichten und/oder
- – ein Navigationsgerät und/oder
- – einen Stellantrieb zum Verstellen der Position einer Fensterscheibe, eines Spiegels, eines Sitzes oder einer Luftzuführvorrichtung und/oder
- – eine Anlage zur Regelung einer Temperatur und/oder einer Luftfeuchtigkeit und/oder
- – eine Steuerung von aus dem Internet heruntergeladenen Applikationssoftwareeinheiten
- - an audio device for playing audio files and / or
- - a video device for playing video and / or video files and / or
- A telecommunication device for receiving and / or sending text, voice, video or video messages and / or
- - a navigation device and / or
- - An actuator for adjusting the position of a window, a mirror, a seat or an air supply device and / or
- - A system for controlling a temperature and / or humidity and / or
- A control of application software units downloaded from the Internet
Die externe Datenverarbeitungseinheit kann z. B. ein zentraler Server eines Anbieters von Spracherkennern sein. Insbesondere kann die externe Datenverarbeitungseinheit eingerichtet sein, benutzerspezifische Sprachmodelle für eine Vielzahl verschiedener Benutzer zu erstellen, zu ergänzen, zu speichern und an verschiedene lokale Datenspeicher zum Speichern auf diesen lokalen Datenspeichern zu senden. Natürlich können auch verschiedene benutzerspezifische Sprachmodelle verschiedener Benutzer auf demselben lokalen Datenspeicher gespeichert werden. Dies kann sinnvoll sein, wenn mehrere Personen abwechselnd dasselbe Endgerät benutzen, z. B. wenn sie abwechselnd dasselbe Fahrzeug benutzen, in dem das Endgerät angeordnet oder eingebaut ist. Nur der Einfachheit halber wird hier und im Folgenden nur das Erstellen und Ergänzen eines benutzerspezifischen Sprachmodells für nur einen gegebenen Benutzer beschrieben. The external data processing unit can, for. B. be a central server of a provider of speech recognizers. In particular, the external data processing unit can be set up to create, supplement, store and send user-specific language models for a multiplicity of different users to various local data memories for storage on these local data memories. Of course, various user-specific language models of different users can also be stored on the same local data store. This can be useful if several people use the same terminal alternately, eg. B. when they use the same vehicle alternately in which the terminal is arranged or installed. For the sake of simplicity only and in the following, only the creation and supplementation of a user-specific language model for only one given user will be described.
Die externe Datenverarbeitungseinheit umfasst normalerweise wenigstens eine externe Sende- und Empfangseinheit, wenigstens einen externen Prozessor zum Erstellen und/oder Ergänzen des benutzerspezifischen Sprachmodells und wenigstens einen externen Datenspeicher, in dem das benutzerspezifische Sprachmodell dauerhaft oder wenigstens zeitweise speicherbar ist. Vorzugsweise sind die lokale Sende- und Empfangseinheit und die externe Sende- und Empfangseinheit über eine drahtlose Datenverbindung, z. B. über eine drahtlose Internetverbindung oder über eine sonstige drahtlose Telekommunikationsverbindung miteinander zum Austauschen von Daten verbindbar. The external data processing unit normally comprises at least one external transmitting and receiving unit, at least one external processor for creating and / or supplementing the user-specific language model and at least one external data memory in which the user-specific language model can be stored permanently or at least temporarily. Preferably, the local transmitting and receiving unit and the external transmitting and receiving unit via a wireless data connection, for. B. via a wireless Internet connection or via any other wireless telecommunications connection with each other for exchanging data connectable.
Bei einer speziellen Ausführungsform des vorgeschlagenen Verfahrens umfasst das Erstellen oder das Ergänzen des benutzerspezifischen Sprachmodells auf der externen Datenverarbeitungseinheit ein Erstellen oder ein Ergänzen eines benutzerspezifischen statistischen Sprachmodells (US-SLM), wobei das US-SLM aus der transkribierten natürlichsprachlichen Äußerung des Benutzers gebildet wird oder um diese ergänzt wird und wobei die transkribierte natürlichsprachliche Äußerung transkribierte Worte und/oder transkribierte Laute und/oder transkribierte Wortfolgen und/oder transkribierte Lautfolgen umfasst. Alternativ oder zusätzlich kann das Erstellen oder das Ergänzen des benutzerspezifischen Sprachmodells auf der externen Datenverarbeitungseinheit ein Erstellen oder Ergänzen eines semantischen Sprachmodells (US-SEM) umfassen, wobei in der transkribierten natürlichsprachlichen Äußerung des Benutzers Schlüsselworte und/oder Wortstämme von Schlüsselworten und/oder Wortfolgen identifiziert werden und das US-SEM aus den Schlüsselworten und/oder den Wortstämmen und/oder den Wortfolgen gebildet wird oder um diese ergänzt wird. Schlüsselworte des semantischen Modells lassen sich trainieren, indem der Benutzer eine Aktion ausführt und dieser ein Schlüsselwort zuordnet. In a specific embodiment of the proposed method, creating or supplementing the user-specific language model on the external data processing unit comprises creating or supplementing a user-specific statistical language model (US-SLM), wherein the US-SLM is formed from the transcribed natural language utterance of the user or these are supplemented and wherein the transcribed natural language utterance comprises transcribed words and / or transcribed sounds and / or transcribed word sequences and / or transcribed sound sequences. Alternatively or additionally, the creation or supplementation of the user-specific language model on the external data processing unit may comprise creating or supplementing a semantic language model (US-SEM), wherein keywords and / or word stems of keywords and / or word sequences are identified in the transcribed natural language utterance of the user and the US SEM is formed from or supplemented by the keywords and / or the word stems and / or the word sequences. Keywords of the semantic model can be trained by the user performing an action and assigning a keyword to it.
In beiden Fällen basiert das erstellte benutzerspezifische Sprachmodell also vor allem auf dem Vokabular, der Ausdrucksweise und den Sprachgewohnheiten des jeweiligen Benutzers. Das benutzerspezifische Sprachmodell kommt also ohne Vokabeln und Ausdrucksweisen aus, die der Benutzer zum Eingeben der Steuerbefehle gar nicht verwendet. Dies trägt in vorteilhafter Weise dazu bei, den Speicherbedarf des benutzerspezifischen Sprachmodells zu verringern, so dass der lokale Datenspeicher und der lokale Prozessor kleiner und kostengünstiger ausgelegt sein können. In both cases, the created user-specific language model is therefore based primarily on the vocabulary, the language and the language habits of each user. The user-specific language model is therefore without vocabulary and expressions that the user does not even use to enter the control commands. This advantageously contributes to reducing the memory requirements of the user-specific language model, so that the local data memory and the local processor can be made smaller and more cost-effective.
Eine weitere spezielle Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass das Erstellen oder das Ergänzen des US-SEM umfasst, dass den Schlüsselworten und/oder den Wortstämmen und/oder den Wortfolgen statistische Gewichte und/oder Attribute zugeordnet werden, wobei mittels der statistischen Gewichte und/oder mittels der Attribute eine Zuordnung des jeweiligen Schlüsselworts oder Wortstamms oder der jeweiligen Wortfolge zu einer Teilmenge aus einer Menge von Steuerbefehlen herstellbar ist. A further specific embodiment of the method is characterized in that the creation or supplementing of the US SEM comprises assigning statistical weights and / or attributes to the keywords and / or the word stems and / or the word sequences, wherein by means of the statistical weights and / or by means of the attributes, an assignment of the respective keyword or word stem or the respective word sequence to a subset of a set of control commands can be established.
Insbesondere kann der eingesprochenen natürlichsprachlichen Äußerung wenigstens ein Steuerbefehl aus einer Menge von Steuerbefehlen zugeordnet werden, wobei die Zuordnung des Steuerbefehls zur eingesprochenen natürlichsprachlichen Äußerung mittels des im Datenspeicher gespeicherten benutzerspezifischen Sprachmodells vorgenommen wird und/oder wobei die Zuordnung des Steuerbefehls zur eingesprochenen natürlichsprachlichen Äußerung mittels der externen Datenverarbeitungseinheit vorgenommen wird und der Steuerbefehl an das Endgerät übermittelt wird. In particular, the natural language utterance being spoken can be assigned at least one control command from a set of control commands, wherein the assignment of the control command to the natural language utterance being spoken is carried out by means of the user-specific speech model stored in the data memory and / or the assignment of the control command to the natural-language utterance being spoken by means of the external speech command Data processing unit is made and the control command is transmitted to the terminal.
Die Zuordnung des Steuerbefehls zur eingesprochenen natürlichsprachlichen Äußerung kann dann insbesondere in Abhängigkeit von den in der natürlichsprachlichen Äußerung identifizierten Schlüsselworten und/oder Wortstämmen und/oder Wortfolgen und/oder in Abhängigkeit von den diesen Schlüsselworten und/oder Wortstämmen und/oder Wortfolgen im US-SEM jeweils zugeordneten statistischen Gewichten und/oder Attributen vorgenommen werden. The assignment of the control command to the natural language utterance being spoken can then depend, in particular, on the keywords and / or word stems and / or phrases identified in the natural language utterance and / or on the keywords and / or word stems and / or phrases in the US SEM respectively assigned statistical weights and / or attributes.
So kann einem Schlüsselwort oder einem entsprechenden Wortstamm, das oder der eines von mehreren Endgeräten bezeichnet, mittels eines entsprechenden Attributes die Menge derjenigen Steuerbefehle zugeordnet werden, die zur Steuerung dieses Endgerät dienen. Sind in oder an einem Fahrzeug beispielsweise ein Audiogerät und ein Außenspiegel angeordnet, so kann mittels des semantischen Sprachmodells festgestellt werden, dass es sich bei einer Äußerung, die das Schüsselwort „Außenspiegel“ enthält, um eine Äußerung zum Steuern des Außenspiegels und nicht zum Steuern des Audiogerätes handelt. Die Zuordnung eines Steuerbefehls zu einer gegebenen Äußerung kann anhand der Attribute also auf eine oder mehrere (echte) Untermengen der Menge aller möglichen Steuerbefehle eingeschränkt werden. Thus, a keyword or a corresponding word root, or one of several terminals designated by means of a corresponding attribute, the amount of those control commands are assigned, which are used to control this terminal. If, for example, an audio device and an exterior mirror are arranged in or on a vehicle, it can be ascertained by means of the semantic language model that an utterance containing the key word "exterior mirror" is an expression for controlling the exterior mirror and not for controlling the exterior mirror Audio device is acting. The assignment of a control command to a given utterance can therefore be limited to one or more (real) subsets of the set of all possible control commands based on the attributes.
Es ist denkbar, dass ein und dasselbe Schlüsselwort sich auf unterschiedliche Steuerbefehle beziehen kann. Beispielsweise kann das Schlüsselwort „verstellen“ sich im Zusammenhang mit einem Außenspiegel eines Fahrzeugs auf das Verstellen bezüglich unterschiedlicher Achsen beziehen. Einem gegebenen Schlüsselwort können also mehrere Attribute zugeordnet sein, wobei durch jedes der Attribute die Zuordnung zu unterschiedlichen Teilmengen aller möglichen Steuerbefehle zum Ausdruck kommt. Den Schlüsselworten können auch statistische Gewichte zugeordnet werden. Diese können die unterschiedlichen Wahrscheinlichkeiten kennzeichnen, mit denen ein gegebenes Schlüsselwort verschiedenen Steuerbefehlen zugeordnet wird. It is conceivable that one and the same keyword can refer to different control commands. For example, the keyword "misalign" in relation to an exterior mirror of a vehicle may refer to shifting with respect to different axes. A given keyword can therefore be assigned several attributes, whereby the assignment to different subsets of all possible control commands is expressed by each of the attributes. Key words can also be assigned statistical weights. These can identify the different probabilities with which a given keyword is assigned to different control commands.
Beispielsweise kann das Schlüsselwort „Suchen“ sich auf die Suche in einem Adressbuch oder auf die Suche in einer Liste von Audiotiteln beziehen. In dem Fall, dass ein gegebener Benutzer mit dem Schlüsselwort „Suchen“ in der großen Mehrzahl der Fälle die Suche in einer Liste von Audiotiteln initiieren möchte und nicht die Suche in einem Adressbuch, kann dem Schlüsselwort „Suchen“ in dem semantischen Modell für diesen Benutzer beispielsweise ein erstes Attribut „Suche in Adressbuch“ und ein zweites Attribut „Suche in Titelliste“ zugeordnet sein, wobei das zweite Attribut für diesen Benutzer z. B. ein größeres statistisches Gewicht hat als das erste Attribut. For example, the search keyword may refer to the search in an address book or the search in a list of audio tracks. In the case that a given user with the search keyword initiates search in a list of audio tracks in the great majority of cases For example, instead of searching in an address book, the keyword "Search" in the semantic model for that user may be associated with a first attribute "Search in address book" and a second attribute "Search in list of titles", the second attribute for that user z. B. has a larger statistical weight than the first attribute.
Enthält eine Äußerung mehrere Schlüsselworte, von denen jedes Schlüsselwort einem anderen Steuerbefehl zugeordnet ist, können anhand der den Schlüsselworten zugeordneten statistischen Gewichte verschiedene Wahrscheinlichkeiten für die Zuordnung der Äußerung zu den verschiedenen in Frage kommenden Steuerbefehlen ermittelt werden. Zum Beispiel kann einer gegebenen Äußerung derjenige Steuerbefehl zugeordnet werden, für den die ermittelte Wahrscheinlichkeit am größten ist. Es kann auch vorgesehen sein, dass eine endgültige Zuordnung nur dann vorgenommen wird, wenn die so ermittelte Wahrscheinlichkeit einen vorgegebenen Schwellwert überschreitet. If an utterance contains several keywords, each of which keyword is assigned to another control command, different probabilities for the assignment of the utterance to the various possible control commands can be determined on the basis of the statistical weights assigned to the keywords. For example, a given utterance may be assigned the control command for which the determined probability is greatest. It can also be provided that a final assignment is only made if the probability thus determined exceeds a predetermined threshold value.
Kann eine endgültige Zuordnung der Äußerung zu einem bestimmten Steuerbefehl nicht vorgenommen werden, so kann der Benutzer aufgefordert werden, einen Steuerbefehl aus einer Auswahl von mehren in Frage kommenden Steuerbefehlen auszuwählen. Dazu kann das System eine zusätzliche Ein- und Ausgabeeinheit umfassen, z. B. in Gestalt eines Sensorbildschirms (Touchscreen). Das benutzerspezifische Sprachmodell kann dann anhand der Interaktion mit dem Benutzer und unter Berücksichtigung von dessen Eingabe entsprechend angepasst oder ergänzt werden. Das Erstellen oder Ergänzen des benutzerspezifischen Sprachmodells kann also insbesondere eine Interaktion mit dem Benutzer umfassen. Verwendet der Benutzer beispielsweise erstmalig einen Begriff, der noch nicht Teil des Sprachmodells ist, so kann der Benutzer aufgefordert werden, eine Zuordnung dieses Begriffes zu einem bestimmten Steuerbefehl oder zu einer bestimmten Teilmenge von Steuerbefehlen vorzunehmen. Der neue Begriff kann dann dem US-SLM und/oder dem US-SEM hinzugefügt werden. Gegebenenfalls können dem Begriff im US-SEM dann Attribute und/oder statistische Gewichte zugeordnet werden. So kann das benutzerspezifische Sprachmodell schrittweise erweitert und auf den Benutzer zugeschnitten werden. If a final assignment of the utterance to a particular control command can not be made, the user may be prompted to select a control command from a selection of a plurality of candidate control commands. For this purpose, the system may include an additional input and output unit, for. B. in the form of a touch screen. The user-specific language model can then be adapted or supplemented according to the interaction with the user and taking into account his input. The creation or supplementing of the user-specific language model can thus in particular include an interaction with the user. For example, if the user first uses a term that is not yet part of the language model, then the user may be prompted to associate that term with a particular control command or with a particular subset of control commands. The new term can then be added to the US SLM and / or the US SEM. If appropriate, attributes and / or statistical weights can then be assigned to the term in the US-SEM. Thus, the user-specific language model can be gradually expanded and tailored to the user.
Bei einer speziellen Ausführungsform des vorgeschlagenen Verfahrens kann das Transkribieren der natürlichsprachlichen Äußerung auf der externen Datenverarbeitungseinheit und/oder auf einer mit der externen Datenverarbeitungseinheit über eine Datenverbindung verbindbaren weiteren externen Datenverarbeitungseinheit vorgenommen werden. Auf der externen Datenverarbeitungseinheit und/oder auf der weiteren externen Datenverarbeitungseinheit kann also eine Spracherkennungssoftware ausgeführt werden oder ausführbar sein. Bei der weiteren externen Datenverarbeitungseinheit kann es sich z. B. um einen internetbasierten Diktierservice handeln. In diesem Fall müssen in der (ersten) externen Datenverarbeitungseinheit also weniger Diktierressourcen zum Transkribieren vorgehalten werden, so dass die erste externe Datenverarbeitungseinheit kostengünstiger ausgeführt sein kann. In a specific embodiment of the proposed method, the natural language utterance can be transcribed on the external data processing unit and / or on a further external data processing unit connectable to the external data processing unit via a data connection. On the external data processing unit and / or on the other external data processing unit so a speech recognition software can be executed or be executable. In the other external data processing unit, it may be z. B. to act an Internet-based dictation service. In this case, therefore, fewer dictation resources have to be stored for transcribing in the (first) external data processing unit, so that the first external data processing unit can be embodied more cost-effectively.
Insbesondere kann es vorgesehen sein, dass das Transkribieren der natürlichsprachlichen Äußerung und/oder das Erstellen oder das Ergänzen des Sprachmodells mittels eines auf der externen Datenverarbeitungseinheit oder mittels eines auf der weiteren Datenverarbeitungseinheit gespeicherten weiteren statistischen Sprachmodells und/oder weiteren semantischen Sprachmodells und/oder eines neuronalen Netzes vorgenommen wird. Bei dem weiteren statistischen Sprachmodell und dem weiteren semantischen Sprachmodell handelt es sich dabei normalerweise um nicht-benutzerspezifische Modelle, also um sprecherunabhängige Modelle. Da sie auf der externen Datenverarbeitungseinheit bzw. auf der weiteren externen Datenverarbeitungseinheit implementiert sind, können diese Modelle umfangreich sein, ohne dass der lokale Datenspeicher und/oder der lokale Prozessor deswegen größer oder leistungsstärker ausgebildet sein müssen. Damit kann die Wahrscheinlichkeit dafür erhöht werden, dass von dem Benutzer verwendete Begriffe oder Ausdrucksweisen auch dann transkribiert werden können, wenn diese Begriffe noch nicht Teil des weniger umfangreichen benutzerspezifischen Sprachmodells sind, das in der externen Datenverarbeitungseinheit gespeichert ist. Eine zusätzliche Interaktion mit dem Benutzer, bei der der Benutzer wie oben beschrieben zur Eingabe über die weitere Eingabeeinheit aufgefordert wird, kann damit weitgehend vermieden werden. In particular, it may be provided that the transcribing of the natural language utterance and / or the creation or supplementing of the speech model by means of a further statistical language model and / or a further semantic language model and / or a neural language model stored on the external data processing unit or by means of a further data processing unit Network is made. The further statistical language model and the further semantic language model are usually non-user-specific models, ie speaker-independent models. Since they are implemented on the external data processing unit or on the further external data processing unit, these models can be extensive without the need for the local data memory and / or the local processor to be larger or more powerful. Thus, the probability can be increased that terms or expressions used by the user can be transcribed even if these terms are not yet part of the less extensive user-specific language model that is stored in the external data processing unit. An additional interaction with the user, in which the user is prompted for input via the additional input unit as described above, can thus be largely avoided.
Eine weitere spezielle Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass mit der natürlichsprachlichen Äußerung eine Benutzerkennung zur Identifikation des Benutzers an die Datenverarbeitungseinheit übermittelt wird, wobei die Benutzerkennung
- – durch den Benutzer eingegeben wird und/oder
- – einen akustischen Sprachabdruck umfasst, der anhand der durch den Benutzer eingesprochenen natürlichsprachlichen Äußerung bestimmt wird, und/oder
- – beim Einstecken eines Schlüssels in eine Einstecköffnung anhand einer Form des Schlüssels bestimmt wird und/oder
- – mittels Gesichtserkennung bestimmt wird und/oder
- – von einem mobilen Kommunikationsgerät des Benutzers, insbesondere von einem Mobiltelefon, übermittelt wird.
- - is entered by the user and / or
- - includes an acoustic voiceprint determined on the basis of the natural language utterance spoken by the user, and / or
- - Is determined when inserting a key into an insertion opening on the basis of a shape of the key and / or
- - Is determined by facial recognition and / or
- - Is transmitted by a mobile communication device of the user, in particular by a mobile phone.
Dies ermöglicht in vorteilhafter Weise eine Identifikation des Benutzers. So kann die von dem Benutzer eingesprochene natürlichsprachliche Äußerung in der externen Datenverarbeitungseinheit zum Erstellen oder Ergänzen desjenigen benutzerspezifischen Sprachmodells verwendet werden, das genau diesem Benutzer in der externen Datenverarbeitungseinheit zugeordnet ist. Dies ist besonders dann vorteilhaft, wenn in der externen Datenverarbeitungseinheit eine Vielzahl von benutzerspezifischen Sprachmodellen jeweils unterschiedlicher Benutzer gespeichert sind, erstellt oder ergänzt werden. Dies ist auch vorteilhaft für den oben geschilderten Fall, in dem verschiedene Benutzer abwechselnd dasselbe Endgerät verwenden, z. B. wenn sie abwechselnd dasselbe Fahrzeug benutzen, in dem das Endgerät angeordnet oder eingebaut ist. This advantageously allows an identification of the user. Thus, the natural language utterance spoken by the user may be used in the external data processing unit to construct or supplement that user-specific language model associated with that particular user in the external data processing unit. This is particularly advantageous if in the external data processing unit, a plurality of user-specific language models each different users are stored, created or supplemented. This is also advantageous for the above-described case in which different users use the same terminal alternately, e.g. B. when they use the same vehicle alternately in which the terminal is arranged or installed.
Normalerweise ist es vorgesehen, dass die natürlichsprachliche Äußerung und/oder die Benutzerkennung über eine drahtlose Datenverbindung an die externe Datenverarbeitungseinheit übermittelt wird und/oder dass das benutzerspezifische Sprachmodell über eine drahtlose Datenverbindung von der Datenverarbeitungseinheit an das Endgerät übertragen wird. Vorzugsweise handelt es sich dabei um die bereits beschriebene drahtlose Internetverbindung oder sonstige drahtlose Telekommunikationsverbindung. Normally, it is provided that the natural language utterance and / or the user identifier is transmitted to the external data processing unit via a wireless data connection and / or that the user-specific language model is transmitted via a wireless data connection from the data processing unit to the terminal. This is preferably the already described wireless Internet connection or other wireless telecommunication connection.
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird anhand der folgenden Beschreibung näher erläutert. Es zeigen: An embodiment of the invention is illustrated in the drawings and will be explained in more detail with reference to the following description. Show it:
Die Endgeräte
Das System
Die erste Eingabeeinheit
Die erste externe Datenverarbeitungseinheit
Die zweite externe Datenverarbeitungseinheit
In einem ersten Schritt
Im nächsten Schritt
Im Schritt
Im Schritt
Im Schritt
Im Schritt
Bei alternativen Ausführungsformen ist es auch denkbar, dass das im Schritt
Im Schritt
Im vorliegenden Fall umfasst das US-SLM
Ebenso umfasst das US-SEM
Im vorliegenden Beispiel sind der Titel „X“ und der Interpret „Y“ bisher weder Teil des US-SLM
Da es sich bei den Worten „X“ und „Y“ um neu in das US-SEM
Auf die hier beschriebene Weise können den Schlüsselworten und/oder Wortfolgen von Schlüsselworten des US-SEM
Im Schritt
In
Nach der Eingabe der Benutzerkennung und der natürlich sprachlichen Äußerung in den Schritten
In dem Fall, dass das Transkribieren im Schritt
In dem Fall, dass die drahtlose Internetverbindung
Claims (11)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310219649 DE102013219649A1 (en) | 2013-09-27 | 2013-09-27 | Method and system for creating or supplementing a user-specific language model in a local data memory connectable to a terminal |
PCT/EP2014/070164 WO2015044097A1 (en) | 2013-09-27 | 2014-09-23 | Method and system for creating or augmenting a user-specific speech model in a local data memory that can be connected to a terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310219649 DE102013219649A1 (en) | 2013-09-27 | 2013-09-27 | Method and system for creating or supplementing a user-specific language model in a local data memory connectable to a terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013219649A1 true DE102013219649A1 (en) | 2015-04-02 |
Family
ID=51627268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201310219649 Ceased DE102013219649A1 (en) | 2013-09-27 | 2013-09-27 | Method and system for creating or supplementing a user-specific language model in a local data memory connectable to a terminal |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102013219649A1 (en) |
WO (1) | WO2015044097A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017219616A1 (en) | 2017-11-06 | 2019-05-09 | Audi Ag | Voice control for a vehicle |
WO2019202056A1 (en) * | 2018-04-19 | 2019-10-24 | Bayerische Motoren Werke Aktiengesellschaft | User communication on board a motor vehicle |
DE102016125823B4 (en) * | 2016-02-24 | 2021-01-14 | Google LLC (n.d.Ges.d. Staates Delaware) | SUPPORT IN SEMANTIC OFFLINE PROCESSING FROM A DEVICE WITH LIMITED POSSIBILITIES |
DE102019217751A1 (en) * | 2019-11-18 | 2021-05-20 | Volkswagen Aktiengesellschaft | Method for operating a speech dialogue system and speech dialogue system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030125955A1 (en) * | 2001-12-28 | 2003-07-03 | Arnold James F. | Method and apparatus for providing a dynamic speech-driven control and remote service access system |
DE60003971T2 (en) * | 1999-04-20 | 2004-05-27 | Matsushita Electric Industrial Co., Ltd., Kadoma | Distributed architecture for training a speech recognition system |
EP1463032A1 (en) * | 2003-03-24 | 2004-09-29 | Microsoft Corporation | Distributed speech recognition for mobile communication devices |
DE69917112T2 (en) * | 1998-03-27 | 2006-03-30 | International Business Machines Corp. | Extension of the vocabulary of a client-server speech recognition system |
DE60111775T2 (en) * | 2000-12-14 | 2006-05-04 | Telefonaktiebolaget Lm Ericsson (Publ) | VOICE CONTROLLED PORTABLE TERMINAL |
DE60222093T2 (en) * | 2001-02-13 | 2008-06-05 | Thomson Licensing | METHOD, MODULE, DEVICE AND VOICE RECOGNITION SERVER |
DE102009017177A1 (en) * | 2008-04-23 | 2009-10-29 | Volkswagen Ag | Speech recognition arrangement for the acoustic operation of a function of a motor vehicle |
US20100057450A1 (en) * | 2008-08-29 | 2010-03-04 | Detlef Koll | Hybrid Speech Recognition |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070156682A1 (en) * | 2005-12-28 | 2007-07-05 | Microsoft Corporation | Personalized user specific files for object recognition |
US7756708B2 (en) * | 2006-04-03 | 2010-07-13 | Google Inc. | Automatic language model update |
US20070276651A1 (en) * | 2006-05-23 | 2007-11-29 | Motorola, Inc. | Grammar adaptation through cooperative client and server based speech recognition |
US9484018B2 (en) * | 2010-11-23 | 2016-11-01 | At&T Intellectual Property I, L.P. | System and method for building and evaluating automatic speech recognition via an application programmer interface |
-
2013
- 2013-09-27 DE DE201310219649 patent/DE102013219649A1/en not_active Ceased
-
2014
- 2014-09-23 WO PCT/EP2014/070164 patent/WO2015044097A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69917112T2 (en) * | 1998-03-27 | 2006-03-30 | International Business Machines Corp. | Extension of the vocabulary of a client-server speech recognition system |
DE60003971T2 (en) * | 1999-04-20 | 2004-05-27 | Matsushita Electric Industrial Co., Ltd., Kadoma | Distributed architecture for training a speech recognition system |
DE60111775T2 (en) * | 2000-12-14 | 2006-05-04 | Telefonaktiebolaget Lm Ericsson (Publ) | VOICE CONTROLLED PORTABLE TERMINAL |
DE60222093T2 (en) * | 2001-02-13 | 2008-06-05 | Thomson Licensing | METHOD, MODULE, DEVICE AND VOICE RECOGNITION SERVER |
US20030125955A1 (en) * | 2001-12-28 | 2003-07-03 | Arnold James F. | Method and apparatus for providing a dynamic speech-driven control and remote service access system |
EP1463032A1 (en) * | 2003-03-24 | 2004-09-29 | Microsoft Corporation | Distributed speech recognition for mobile communication devices |
DE102009017177A1 (en) * | 2008-04-23 | 2009-10-29 | Volkswagen Ag | Speech recognition arrangement for the acoustic operation of a function of a motor vehicle |
US20100057450A1 (en) * | 2008-08-29 | 2010-03-04 | Detlef Koll | Hybrid Speech Recognition |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016125823B4 (en) * | 2016-02-24 | 2021-01-14 | Google LLC (n.d.Ges.d. Staates Delaware) | SUPPORT IN SEMANTIC OFFLINE PROCESSING FROM A DEVICE WITH LIMITED POSSIBILITIES |
DE102017219616A1 (en) | 2017-11-06 | 2019-05-09 | Audi Ag | Voice control for a vehicle |
US10854201B2 (en) | 2017-11-06 | 2020-12-01 | Audi Ag | Voice control for a vehicle |
DE102017219616B4 (en) | 2017-11-06 | 2022-06-30 | Audi Ag | Voice control for a vehicle |
WO2019202056A1 (en) * | 2018-04-19 | 2019-10-24 | Bayerische Motoren Werke Aktiengesellschaft | User communication on board a motor vehicle |
DE102019217751A1 (en) * | 2019-11-18 | 2021-05-20 | Volkswagen Aktiengesellschaft | Method for operating a speech dialogue system and speech dialogue system |
Also Published As
Publication number | Publication date |
---|---|
WO2015044097A1 (en) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60222093T2 (en) | METHOD, MODULE, DEVICE AND VOICE RECOGNITION SERVER | |
DE60005326T2 (en) | DETECTION UNITS WITH COMPLEMENTARY LANGUAGE MODELS | |
EP0925578B1 (en) | Speech-processing system and method | |
DE102018128006A1 (en) | NATURAL LANGUAGE GENERATION BASED ON THE USER LANGUAGE STYLE | |
DE102019111529A1 (en) | AUTOMATED LANGUAGE IDENTIFICATION USING A DYNAMICALLY ADJUSTABLE TIME-OUT | |
DE102018113034A1 (en) | VOICE RECOGNITION SYSTEM AND VOICE RECOGNITION METHOD FOR ANALYZING A COMMAND WHICH HAS MULTIPLE INTENTIONS | |
DE102017121059A1 (en) | IDENTIFICATION AND PREPARATION OF PREFERRED EMOJI | |
DE10334400A1 (en) | Method for speech recognition and communication device | |
DE102015106280B4 (en) | Systems and methods for compensating for speech artifacts in speech recognition systems | |
EP3095114B1 (en) | Method and system for generating a control command | |
DE102015109379A1 (en) | Systems and methods for a navigation system that uses a search with dictation and partial match | |
DE102013219649A1 (en) | Method and system for creating or supplementing a user-specific language model in a local data memory connectable to a terminal | |
EP1058235B1 (en) | Reproduction method for voice controlled systems with text based speech synthesis | |
EP1282897B1 (en) | Method for creating a speech database for a target vocabulary in order to train a speech recognition system | |
DE102004017486A1 (en) | Method for noise reduction in a voice input signal | |
EP1224661B1 (en) | Method and arrangement for verifying a speaker with a computer | |
DE60127398T2 (en) | SYNTAX AND SEMANTIC ANALYSIS OF LANGUAGE INSTRUCTIONS | |
EP3735688B1 (en) | Method, device and computer-readable storage medium having instructions for processing a speech input, motor vehicle, and user terminal with speech processing | |
DE102013216427B4 (en) | Device and method for means of transport-based speech processing | |
DE10122087C1 (en) | Method for training and operating a voice/speech recognition device for recognizing a speaker's voice/speech independently of the speaker uses multiple voice/speech trial databases to form an overall operating model. | |
DE102017216571A1 (en) | motor vehicle | |
DE102022213210A1 (en) | Method for determining a vehicle domain and a voice recognition system for a vehicle | |
DE102021003343A1 (en) | Method for individual adaptation and output of information to be output optically and / or acoustically on the vehicle side | |
DE102022213058A1 (en) | VEHICLE AND CONTROL METHOD THEREOF | |
DE102022133571A1 (en) | NATURAL LANGUAGE PROCESSING DEVICE AND NATURAL LANGUAGE PROCESSING METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |