DE112016000545T5 - Kontextabhängiges schalten von mikrofonen - Google Patents

Kontextabhängiges schalten von mikrofonen Download PDF

Info

Publication number
DE112016000545T5
DE112016000545T5 DE112016000545.8T DE112016000545T DE112016000545T5 DE 112016000545 T5 DE112016000545 T5 DE 112016000545T5 DE 112016000545 T DE112016000545 T DE 112016000545T DE 112016000545 T5 DE112016000545 T5 DE 112016000545T5
Authority
DE
Germany
Prior art keywords
microphones
microphone
detecting
configuration
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112016000545.8T
Other languages
English (en)
Other versions
DE112016000545B4 (de
Inventor
Shailesh Sakri
Harsha Inna Kedage Rao
Ajay Kumar Dhanapalan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Knowles Electronics LLC
Original Assignee
Knowles Electronics LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Knowles Electronics LLC filed Critical Knowles Electronics LLC
Publication of DE112016000545T5 publication Critical patent/DE112016000545T5/de
Application granted granted Critical
Publication of DE112016000545B4 publication Critical patent/DE112016000545B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching
    • H04M9/08Two-way loud-speaking telephone systems with means for conditioning the signal, e.g. for suppressing echoes for one or both directions of traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Bereitgestellt werden Systeme und Verfahren für das kontextabhängige Schalten von Mikrofonen in Audiogeräten. Ein beispielhaftes Verfahren umfasst das Detektieren einer Änderung von Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone. Eine Konfiguration ist mit den mindestens zwei Mikrofonen assoziiert. Das beispielhafte Verfahren bietet das Bestimmen, dass die Änderung von Bedingungen über eine vorgegebene Zeitspanne dauerhaft war. Als Reaktion auf das Bestimmen ändert das Verfahren die mit den mindestens zwei Mikrofonen assoziierte Konfiguration. Die Bedingungen können die Abwesenheit oder das Vorhandensein von Fernbereichs-Sprache, eines Nachhalls, eines niedrigen/hohen Signal-Rausch-Verhältnisses, eines niedrigen/hohen Signal-Echo-Verhältnisses (SER), von Hintergrundgeräuschen usw. beinhalten. Die Änderung der Konfiguration beinhaltet die Zuweisung eines primären Mikrofons und eines sekundären Mikrofons auf der Basis einer Änderung der Bedingungen. Basierend auf der geänderten Konfiguration können Timing-Parameter zur Rauschunterdrückung und zur akustischen Echokompensation eingestellt werden.

Description

  • Die vorliegende Anmeldung beansprucht den Vorteil der am 30. Januar 2015 eingereichten vorläufigen U. S. Patentanmeldung Nr. 62/110,171. Der Gegenstand der vorgenannten Anmeldung wird hierin durch Bezugnahme für alle Zwecke aufgenommen.
  • GEBIET
  • Die vorliegende Anmeldung bezieht sich allgemein auf die Audioverarbeitung und insbesondere auf Systeme und Verfahren zum kontextabhängigen Schalten von Mikrofonen.
  • HINTERGRUND
  • Es ist bei Geräten wie Handys, Personal Computern (PCs), Tablet-Computern, Spielekonsolen und Wearables üblich, dass sie mehr als ein Mikrofon und einen oder mehrere Lautsprecher aufweisen. Mit jeder fortschreitenden Generation der Geräte hat sich der Marktfokus auf die Verbesserung der Erlebnisse des Endbenutzers konzentriert. Es kann undurchführbar sein, dass Mikrofone an gewünschten Orten an einem Mobiltelefon oder anderen Geräten platziert werden, zum Beispiel wegen eines wasserdichten Designs, eines einstöckigen Glasdesigns, gebogener Bildschirme, der Batterieplatzierung, der Lage der Kamera, eines Herzfrequenzsensors, der Lautsprechergröße, Infrarot(IR)/Näherungs-, Feuchtigkeits-, Magnetsensoren und so weiter. Diese Erweiterungen können in unterschiedlichen Szenarien eine gewünschte Leistung zur Herausforderung werden lassen. Beispielsweise ist es angesichts des Formfaktors eines Gerätes und der Lage von Mikrofonen und Lautsprechern am Gerät oft schwierig, die gewünschte Rauschunterdrückung (NS) und die akustische Echokompensation (AEC) in verschiedenen Szenarien zu erhalten, bei denen dasselbe Mikrofon als primäres Mikrofon verwendet wird.
  • ZUSAMMENFASSUNG
  • Diese Zusammenfassung dient der Vorstellung eine Auswahl von Konzepten in vereinfachter Form, die weiter unten in der detaillierten Beschreibung beschrieben werden. Diese Zusammenfassung ist nicht dazu bestimmt, Hauptmerkmale oder wesentliche Merkmale des beanspruchten Gegenstandes zu bezeichnen, noch soll sie als Hilfsmittel bei dem Bestimmen des Umfangs des beanspruchten Gegenstandes verwendet werden.
  • Vorgesehen sind Systeme und Verfahren zum kontextabhängigen Schalten von Mikrofonen. Ein beispielhaftes Verfahren umfasst das Detektieren einer Änderung von Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone, wobei eine Konfiguration mit den mindestens zwei Mikrofonen assoziiert ist. Das Verfahren ermöglicht das Bestimmen, dass die Änderung der Bedingungen dauerhaft war, indem die Änderung über eine vorgegebene Zeitspanne stattgefunden hat. Als Reaktion auf das Bestimmen umfasst das Verfahren das Ändern der Konfiguration, die mit den mindestens zwei Mikrofonen assoziiert ist.
  • In verschiedenen Ausführungsformen umfassen die Mikrofone mindestens ein erstes Mikrofon und ein zweites Mikrofon. Die Konfiguration kann beinhalten, dass dem ersten Mikrofon die Funktion des primären Mikrofons zugewiesen wird und dem zweiten Mikrofon die Funktion des sekundären Mikrofons zugewiesen wird. In anderen Ausführungsformen beinhaltet das Ändern der Konfiguration, dass dem ersten Mikrofon die Funktion des sekundären Mikrofons zugewiesen wird und dem zweiten Mikrofon die Funktion des primären Mikrofons zugewiesen wird.
  • In einigen Ausführungsformen beinhaltet das Verfahren weiter das Einstellen von Abstimmparametern zur Rauschunterdrückung (NS) basierend auf der geänderten Konfiguration. In bestimmten anderen Ausführungsformen beinhaltet das Verfahren weiter das Einstellen von Abstimmparametern zur akustischen Echokompensation (AEC) basierend auf der geänderten Konfiguration.
  • In anderen Ausführungsformen beinhaltet das Detektieren der Änderung der Bedingungen das Detektieren, dass das erste Mikrofon verdeckt ist und dass das zweite Mikrofon nicht verdeckt ist. Das Verdecktsein kann beispielsweise auf der Basis des Mikrofonenergieniveaus festgestellt werden. Das Ändern der Konfiguration kann beinhalten, dass dem zweiten Mikrofon die Funktion des primären Mikrofons zugewiesen wird.
  • In einigen Ausführungsformen beinhaltet das Detektieren der Änderung der Bedingungen das Detektieren des Vorhandenseins eines Nachhalls. Die mindestens zwei Mikrofone können mindestens drei Mikrofone umfassen. Als Reaktion auf das Detektieren des Vorhandenseins des Nachhalls beinhaltet das Ändern der Konfiguration das Auswählen eines ersten Mikrofons und eines zweiten Mikrofons aus den mindestens drei Mikrofonen zum Erfassen des akustischen Signals. Das erste Mikrofon und das zweite Mikrofon können ein Paar der Mikrofone sein, die durch einen maximalen Abstand voneinander getrennt sind.
  • In verschiedenen Ausführungsformen sind die Bedingungen mit mindestens einem der Folgenden assoziiert: der Abwesenheit oder dem Vorhandensein von Fernbereichs-Sprache, einer Art von Hintergrundgeräuschen, der Empfindlichkeiten der mindestens zwei Mikrofone und Dichtungen der mindestens zwei Mikrofone.
  • In einigen Ausführungsformen umfasst das Bestimmen der Bedingungen eine oder mehrere des Folgenden: das Bestimmen eines Pegels des Signal-Rausch-Verhältnisses (SNR) in dem akustischen Signal und das Bestimmen eines Pegels des Signal-Echo-Verhältnisses (SER) in dem akustischen Signal.
  • Gemäß einer weiteren beispielhaften Ausführungsform der vorliegenden Offenbarung werden die Schritte des Verfahrens zum kontextabhängigen Schalten von Mikrofonen auf einem maschinenlesbaren Medium mit Anweisungen gespeichert, die, wenn sie von einem oder mehreren Prozessoren implementiert werden, die genannten Schritte durchführen.
  • Andere beispielhafte Ausführungsformen der Offenbarung und Aspekte werden aus der folgenden Beschreibung in Verbindung mit den folgenden Zeichnungen deutlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsbeispiele sind beispielhaft und nicht beschränkend in den Figuren der beigefügten Zeichnungen dargestellt, in denen gleiche Bezugszeichen ähnliche Elemente bezeichnen.
  • 1 ist ein Blockdiagramm eines beispielhaften Audiogeräts.
  • 2A und 2B sind Blockdiagramme, die zwei Konfigurationen von Mikrofonen eines Audiogeräts gemäß beispielhafter Ausführungsformen darstellen.
  • 3 ist ein Blockdiagramm, das Zustände darstellt, die gemäß einer beispielhaften Ausführungsform mit Konfigurationen von Mikrofonen und Übergängen zwischen den Zuständen assoziiert sind.
  • 4 ist ein Flussdiagramm eines beispielhaften Verfahrens zum kontextabhängigen Schalten von Mikrofonen gemäß einer beispielhaften Ausführungsform.
  • 5 ist ein Flussdiagramm eines beispielhaften Verfahrens zum kontextabhängigen Schalten von Mikrofonen gemäß einer weiteren beispielhaften Ausführungsform.
  • 6 ist ein Flussdiagramm eines beispielhaften Verfahrens zum kontextabhängigen Schalten von Mikrofonen gemäß noch einer weiteren beispielhaften Ausführungsform.
  • 7 stellt ein beispielhaftes Computersystem dar, das verwendet werden kann, um Ausführungsformen der offenbarten Technologie zu implementieren.
  • DETAILLIERTE BESCHREIBUNG
  • Die hierin offenbarte Technologie bezieht sich auf Systeme und Verfahren zum kontextabhängigen Schalten von Mikrofonen. Ausführungsformen der vorliegenden Technologie können mit Audiogeräten ausgeführt werden, die zumindest zum Erfassen und Verarbeiten akustischer Signale betreibbar sind.
  • Gemäß einer beispielhaften Ausführungsform beinhaltet ein Verfahren zum kontextabhängigen Schalten von Mikrofonen das Detektieren einer Änderung von Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone. Das Verfahren ermöglicht das Bestimmen, dass die Änderung von Bedingungen über eine vorgegebene Zeitspanne dauerhaft war. Als Reaktion auf das Bestimmen ermöglicht das Verfahren das Ändern der mit den mindestens zwei Mikrofonen assoziierten Konfiguration..
  • 1 ist ein Blockdiagramm, das ein beispielhaftes Audiogerät 100 veranschaulicht, das geeignet ist, ein Verfahren zum kontextabhängigen Schalten von Mikrofonen gemäß einiger Ausführungsformen zu implementieren. Das beispielhafte Audiogerät 100 umfasst einen (Funk-)Sendeempfänger 110, einen Prozessor 130, Mikrofone 120 (weiter auch als Mikrofone 120a, 120b, 120c usw. bezeichnet), einen Lautsprecher 140, ein Audioverarbeitungssystem 150 und Sensoren 160. In anderen Ausführungsformen enthält das Audiogerät 100 mehr oder andere Komponenten, um eine bestimmte Operation oder Funktionalität bereitzustellen. Gleichermaßen kann das Audiogerät 100 weniger Komponenten enthalten, die ähnliche oder äquivalente Funktionen wie die in 1 ausführen.
  • In einigen Ausführungsformen ist der Sendeempfänger 110 so konfiguriert, dass er mit einem Netzwerk, wie dem Internet, dem Fernnetz (Wide Area Network WAN), dem lokalen Netz (Local Area Network LAN), dem Mobilfunknetz und so weiter kommuniziert, um einen Audiodatenstrom zu empfangen und/oder zu übertragen. Der empfangene Audiodatenstrom kann dann an das Audioverarbeitungssystem 150 und den Lautsprecher 140 weitergeleitet werden.
  • Der Prozessor 130 enthält Hardware und Software, die die Verarbeitung von Audiodaten und verschiedene andere Operationen in Abhängigkeit von der Art des Audiogeräts 100 (z. B. Kommunikationsvorrichtung und Computer) gemäß einiger Ausführungsformen implementieren. Ein Speicher (z. B. ein nicht-flüchtiges computerlesbares Speichermedium) ist betreibbar, um zumindest teilweise Anweisungen und Daten zur Ausführung durch den Prozessor 130 zu speichern.
  • In verschiedenen Ausführungsformen enthält das Audioverarbeitungssystem 150 Hardware und Software, die die Codierung von akustische(n) Signal(en) implementieren. Beispielsweise ist das Audioverarbeitungssystem 150 so konfiguriert, dass es akustische Signale von einer akustischen Quelle über Mikrofon(e) 120 (das ein oder mehrere Mikrofone oder akustische Sensoren sein kann) empfängt und die akustischen Signale verarbeitet. Nach dem Empfang durch die/das Mikrophon(e) 120 können die akustischen Signale durch einen Analog-Digital-Wandler in elektrische Signale umgewandelt werden. In einigen Ausführungsformen enthält die Verarbeitung eines akustischen Signals oder akustischen Signalen NS und/oder AEC. Rauschen ist unerwünschte Geräusche einschließlich Straßengeräusche, Umgebungsgeräusche und Sprache von Wesen, die nicht der beabsichtigte Sprecher sind. Zum Beispiel umfassen Rauschquellen eine in Betrieb befindliche Klimaanlage, Lüftungsventilatoren, Fernsehgeräte, Mobiltelefone, Radio-Audiosysteme und dergleichen. Bestimmte Arten von Rauschen können sowohl beim Betrieb von Maschinen (z. B. Autos) als auch von Umgebungen ausgehen, in denen sie tätig sind (z. B. eine Straße, ein Pfad, ein Reifen, ein Rad, ein Ventilator, ein Wischerblatt, ein Motor, ein Auspuff, ein Unterhaltungssystem, Wind, Regen, Wellen und dergleichen).
  • Ein beispielhaftes Audioverarbeitungssystem, das zur Durchführung von Rauschunterdrückung geeignet ist, wird ausführlicher in der am 8. Juli 2010 eingereichten US-Patentanmeldung Nr. 12/832,901 (jetzt US-Patent Nr. 8,473,287) mit dem Titel ”Method for Jointly Optimizing Noise Reduction and Voice Quality in a Mono or Multi-Microphone System (Verfahren zur gemeinsamen Optimierung der Rauschminderung und Sprachqualität in einem Einfach- oder Mehrfach-Mikrofon-System)” diskutiert, deren Offenbarung hierin durch Bezugnahme für alle Zwecke aufgenommen wird. Als Beispiel und nicht beschränkend sind Rauschunterdrückungsverfahren in der am 30. Juni 2008 eingereichten US-Patentanmeldung Nr. 12/215,980 (jetzt US-Patent Nr. 9,185,487) mit dem Titel „System and Method for Providing Noise Suppression Utilizing Null Processing Noise Subtraction (System und Verfahren zur Bereitstellung von Rauschunterdrückung unter Verwendung von Nullverarbeitungsrauschen-Subtraktion)” beschrieben, und in der am 29. Januar 2007 eingereichten US-Patentanmeldung Nr. 11/699,732 (jetzt US-Patent Nr. 8,194,880) mit dem Titel ”System and Method for Utilizing Omni-Directional Microphones for Speech Enhancement (System und Verfahren zur Verwendung von omni-direktionalen Mikrofonen zur Sprachverstärkung”, die hierin durch Bezugnahme vollumfänglich aufgenommen sind.
  • Der Lautsprecher 140 ist eine Vorrichtung, die eine Audioausgabe für einen Hörer bereitstellt. In einigen Ausführungsformen enthält das Audiogerät 100 ferner einen Klasse-D-Ausgang, ein Ohrstück eines Headsets oder einen Handapparat an dem Audiogerät 100.
  • In verschiedenen Ausführungsformen umfassen die Sensoren 160 einen Beschleunigungsmesser, ein Magnetometer, ein Gyroskop, eine Inertialmesseinheit (IMU), einen Temperatursensor, einen Höhensensor, einen Näherungssensor, ein Barometer, einen Feuchtigkeitssensor, einen Farbsensor, einen Lichtsensor, einen Drucksensor, ein GPS-Modul, einen Funksender, einen WiFi-Sensor, einen Ultraschallsensor, einen Infrarotsensor, einen Berührungssensor und dergleichen, wobei sie nicht darauf beschränkt sind. In einigen Ausführungsformen können die Sensordaten verwendet werden, um Bedingungen und Kontext zum Erfassen akustischer Signale durch Mikrofon(e) 120 zu schätzen.
  • 2A und 2B sind Blockdiagramme, die zwei Konfigurationen von Mikrofonen 120 eines Audiogerätes gemäß einiger beispielhafter Ausführungsformen darstellen. Bei den in den 2A und 2B gezeigten Beispielen umfasst das Audiogerät 100 Mikrofone 120a, 120b und 120c (ebenfalls in 1 als Mikrofon(e) 120 gezeigt, gemäß bestimmter Ausführungsformen).
  • In verschiedenen Ausführungsformen ist jedes der Mikrofone 120a, 120b und 120c betreibbar, um eine vorgegebene Funktionalität bereitzustellen. In einer typischen Situation, wenn ein Benutzer während eines Anrufs auf dem Audiogerät 100 spricht, empfiehlt es sich, dass das dem Mund eines Zielsprechers am nächsten befindliche Mikrofon so konfiguriert ist, dass es als primäres Mikrofon in dem Audiogerät fungiert. In diesem Fall, wie in 2A dargestellt, fungiert das Mikrofon 120a am unteren linken Rand des Geräts als primäres Mikrofon (”PRI”). Die Eingänge von Mikrofonen 120b und 120c, die in diesem Beispiel als Sekundärmikrofon (”SEC”) und Tertiärmikrofon (”TER”) fungieren, können von dem Audiogerät 100 zur Rauschminderung und AEC im akustischen Signal verwendet werden. Die Rauschminderung kann Rauschkompensation und/oder Rauschunterdrückung beinhalten.
  • In einem beispielhaften Szenario, wenn der Lautsprecher 140 aktiv ist, kann das in diesem Beispiel als primäres Mikrofon designierte Mikrofon 120a aufgrund seiner ummittelbaren Nähe zum Lautsprecher 140 ein starkes Echo aufnehmen. In diesem Szenario ist das zum Erfassen eines Zielsprechers zugewiesene primäre Mikrofon bevorzugt das vom Lautsprecher 140 am weitesten entfernte Mikrofon. Wie in 2B gezeigt, wird für dieses Beispiel dem an der oberen Kante des Audiogeräts 100 befindlichen Mikrofon 120b die Aufgabe des primären Mikrofons zugewiesen (im Gegensatz zu dem in 2A gezeigten Beispiel, wo das Mikrofon 120a als primäres Mikrofon fungiert).
  • Gemäß verschiedener Ausführungsformen erlauben die hierin beschriebenen Technologien das dynamische Schalten eines oder mehrerer Mikrofone auf der Basis von Nahbereichs-(Zielsprecher-) und Fernbereichs-Bedingungen. Das kontextabhängige Schalten kann auf einem oder mehreren der folgenden Faktoren beruhen: der Abwesenheit oder dem Vorhandensein von Fernbereichs-Sprache (Echo), der Abwesenheit oder dem Vorhandensein von Nachhall, der Art von Hintergrundgeräuschen und Mikrofoneigenschaften wie Empfindlichkeiten und Dichtungen, in einigen Ausführungsformen basiert das kontextabhängige Schalten auf Werten des Signal-Rausch-Verhältnisses (SNR) von durch verschiedenen Mikrofone 120 des Audiogeräts 100 erfassten Signalen. Beispielsweise kann das Zuordnen, welches der beiden Mikrofone ein primäres Mikrofon ist und welches ein sekundäres Mikrofon ist, auf der Bestimmung basieren, welches der Mikrofone 120 gegenwärtig ein niedriges SNR und ein hohes SNR liefert. Ähnlich basiert das kontextabhängige Mikrofonschalten in bestimmten Ausführungsformen auf einem Signal-Echo-Verhältnis (SER) in von verschiedenen Mikrofonen 120 des Audiogeräts 100 erfassten Signalen.
  • In einigen Ausführungsformen kann eines der Mikrofone 120, beispielsweise das Mikrofon 120a, verdeckt sein. Beispielsweise kann das Mikrofon, das sich am Boden des Audiogeräts 100 befindet (das Mikrofon 120a in 2A und 2B), blockiert sein, wenn das Audiogerät 100 in einen Becherhalter in einem Fahrzeug eingeführt wird. In dieser Situation kann dem anderen Mikrofon, beispielsweise dem Mikrofon 120b, das sich auf der gegenüberliegenden Seite des Audiogeräts 100 befindet, die Funktion des primären Mikrofons zugewiesen (konfiguriert) sein (wie in 2B dargestellt) und dem Mikrofon 120a kann die Funktion des sekundären Mikrofons zugewiesen sein.
  • 3 ist ein Blockdiagramm, das Zustände darstellt, die gemäß einer beispielhaften Ausführungsform mit Konfigurationen von Mikrofonen in Audiogeräten und Übergängen zwischen den Zuständen assoziiert sind. Das beispielhafte Diagramm aus 3 enthält einen Zustand 310 und einen Zustand 320. In einigen Ausführungsformen entspricht der Zustand 310 einer Konfiguration, in der Mikrofon 120a (wie in 2A gezeigt) ein primäres Mikrofon ist, während der Zustand 320 einer Konfiguration entspricht, in der das Mikrofon 120b (wie in 2B gezeigt) das primäre Mikrofon ist. In anderen Ausführungsformen ist jeder der Zustände 310 und 320 mit einem Satz von Abstimmparametern für NS und AEC assoziiert.
  • In verschiedenen Ausführungsformen unterscheiden sich die beiden Zustände 310 und 320 in 3 durch eines oder mehrere des Folgenden:
    • 1) Abstimmung auf Aggressivität von NS: aggressiver bei niedrigen SNR-Bedingungen und weniger Unterdrückung bei hohen SNR-Bedingungen für stationäre oder nicht-stationäre Ablenker;
    • 2) Robustes Timing für AEC: basierend auf dem Detektieren von Fernbereichs-Aktivitäten, Schalten des primären Mikrofons, so dass es das am weitesten vom Lautsprecher entfernte ist, oder Anpassen der Signalverstärkung des Mikrofons das dem Lautsprecher am nächsten ist, um Beschneidung zu vermeiden.
    • 3) Nachhallbedingungen: wenn Nachhallbedingungen detektiert werden, das Verwenden von Mikrofonen, die durch einen maximalen Abstand voneinander getrennt sind, um den Nachhall von einer Zielrede zu entfernen; und
    • 4) Mikrofon verdeckt: wenn das Mikrofon aufgrund eines Handy-Gehäuses, der Hand eines Benutzers oder durch einen Becherhalter verdeckt ist, das Schalten zur Verwendung von verfügbaren, nicht verdeckten Mikrofonen.
  • Bedingungs-Hinweise zum Schalten zwischen den Zuständen werden in den Blöcken 330 und 340 geprüft, die auch als ”Hinweise zum Schalten prüfen”-Bausteine bezeichnet werden. In den Blöcken 330 und 340 werden grobe Merkmale zum Erkennen von Bedingungen zum Schalten zwischen den Zuständen verwendet. In verschiedenen Ausführungsformen umfasst die Untermenge von für die Entscheidung verwendeten Hinweisen, ohne darauf beschränkt zu sein:
    • 1) Tonhöhe (Pitch);
    • 2) SNR;
    • 3) SER;
    • 4) Kohärenz;
    • 5) Art der Geräuschquelle (z. B. Zug, Auto, Kneipe, Bibliothek, Cafeteria, Flughafen usw.);
    • 6) Mikrofon-Energieniveau; und
    • 7) das Detektieren von Nachhallbedingungen.
  • Wenn die Bedingungen für eine Schaltung erfüllt sind, wird in den Blöcken 350 und 360 eine Prüfung der Dauerhaftigkeit von Hinweisen hinsichtlich einer vorgegebenen Zeitspanne durchgeführt. In verschiedenen Ausführungsformen liegt die vorgegebene Zeitspanne in einem Bereich von etwa 20 Millisekunden–50 Millisekunden. Der Übergang von Zustand 310 zu Zustand 320 wird in Reaktion darauf ausgeführt, dass die Bedingungen für eine Schaltung eine vorgegebene Zeitspanne lang erfüllt sind. Ansonsten werden die bestehende Konfiguration der Mikrofone und die zugehörigen Timing-Parameter weiterhin verwendet.
  • 4 ist ein Flussdiagramm, das ein beispielhaftes Verfahrens 400 zum kontextabhängigen Schalten von Mikrofonen gemäß verschiedener beispielhafter Ausführungsformen zeigt. Das beispielhafte Verfahren 400 kann mit dem Audiogerät 100 implementiert werden. Das beispielhafte Verfahren 400 beginnt mit dem Detektieren einer Änderung der Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone, wobei in Block 410 eine Konfiguration mit den mindestens zwei Mikrofonen assoziiert ist. Die Bedingungen können durch die Abwesenheit oder das Vorhandensein von Fernbereichs-Sprache, einer Art von Hintergrundgeräuschen, Empfindlichkeiten der mindestens zwei Mikrofone und Dichtungen der mindestens zwei Mikrofone gekennzeichnet sein. In bestimmten Ausführungsformen sind die Bedingungen mit einem niedrigen oder hohen SNR in dem akustischen Signal und einem niedrigen oder hohen SER in dem akustischen Signal assoziiert, das von den mindestens zwei Mikrofonen erfasst wird.
  • Das beispielhafte Verfahren 400 umfasst im Block 420 das Bestimmen, dass die Änderung von Bedingungen für eine vorgegebene Zeitspanne dauerhaft war. Im Block 430 umfasst das beispielhafte Verfahren 400 als Reaktion auf das Bestimmen, das Schalten [sic] einer mit den Mikrofonen assoziierten Konfiguration.
  • In einigen Ausführungsformen umfasst das Verfahren 400 in Block 440 wahlweise das Einstellen von Abstimmparametern zur Rauschunterdrückung basierend auf der geänderten Konfiguration. In anderen Ausführungsformen umfasst das beispielhafte Verfahren 400 in Block 450 wahlweise das Einstellen von Abstimmparametern zur akustischen Echokompensation basierend auf der geänderten Konfiguration.
  • 5 ist ein Flussdiagramm, das ein beispielhaftes Verfahrens 500 zum kontextabhängigen Schalten von Mikrofonen gemäß verschiedener beispielhafter Ausführungsformen zeigt. Das Beispielhafte Verfahren 500 kann mit dem Audiogerät 100 implementiert werden. Das beispielhafte Verfahren 500 kann im Block 510 mit dem Detektieren beginnen, dass ein erstes Mikrofon der Mikrofone eines Audiogeräts verdeckt ist und ein zweites Mikrofon der Mikrofone nicht verdeckt ist. Im Block 520 umfasst das beispielhafte Verfahren 500, dass dem zweiten Mikrofon die Funktion des primären Mikrofons zum Erfassen eines akustischen Signals zugewiesen wird.
  • 6 ist ein Flussdiagramm, das ein beispielhaftes Verfahrens 600 zum kontextabhängigen Schalten von Mikrofonen gemäß verschiedener beispielhafter Ausführungsformen zeigt. Das Beispielhafte Verfahren 600 kann mit dem Audiogerät 100 implementiert werden. Das beispielhafte Verfahren 600 kann im Block 610 mit dem Detektieren des Vorhandenseins eines Nachhalls in einem akustischen Signal beginnen (z. B. eine Zielsprache), das von mindestens drei Mikrofonen erfasst wird.
  • Im Block 620 umfasst das Verfahren 600 das Auswählen eines ersten Mikrofons und eines zweiten Mikrofons aus den mindestens drei Mikrofonen zum Erfassen des akustischen Signals. Das erste und das zweite Mikrofon können durch einen maximalen Abstand voneinander getrennt sein, wobei das erste und das zweite Mikrofon verwendet werden, um den Nachhall in dem erfassten akustischen Signal zu entfernen.
  • 7 stellt ein beispielhaftes Computersystem 700 dar, das verwendet werden kann, um einige Ausführungsformen der vorliegenden Offenbarung zu implementieren. Das Computersystem 700 aus 7 kann im Rahmen nach Art von Computern, Netzwerken, Servern oder Kombinationen davon implementiert werden. Das Computersystem 700 aus 7 umfasst eine oder mehrere Prozessoreinheiten 710 und einen Hauptspeicher 720. Der Hauptspeicher 720 speichert teilweise Anweisungen und Daten zur Ausführung durch die Prozessoreinheit(en) 710. Der Hauptspeicher 720 speichert in diesem Beispiel während des Betriebs den ausführbaren Code. Das Computersystem 700 aus 7 umfasst ferner einen Massendatenspeicher 730, eine tragbare Speichervorrichtung 740, Ausgabevorrichtungen 750, Benutzereingabevorrichtungen 760, ein Grafikanzeigesystem 770 und Peripheriegeräte 780.
  • Die in 7 gezeigten Komponenten sind als über einen einzigen Bus 790 verbunden dargestellt. Die Komponenten können durch eine oder mehrere Datentransporteinrichtungen verbunden sein. Die Prozessoreinheit 710 und der Hauptspeicher 720 sind über einen lokalen Mikroprozessorbus verbunden und der Massendatenspeicher 730, die Peripheriegeräte 780, die tragbare Speichervorrichtung 740 und das Grafikanzeigesystem 770 sind über eine oder mehrere Eingabe/Ausgang (I/O) Busse verbunden.
  • Der Massendatenspeicher 730, der als ein Magnetplattenlaufwerk, ein Solid-State-Laufwerk oder ein optisches Plattenlaufwerk realisiert sein kann, ist ein Permanentspeicher zum Speichern von Daten und Anweisungen zur Verwendung durch die Prozessoreinheit(en) 710. Der Massendatenspeicher 730 speichert die Systemsoftware zur Implementierung von Ausführungsformen der vorliegenden Offenbarung zum Zwecke des Ladens dieser Software in den Hauptspeicher 720.
  • Die tragbare Speichervorrichtung 740 arbeitet in Verbindung mit einem tragbaren Permanentspeicher, wie beispielsweise einem Flash-Laufwerk, einer Diskette, einer CD, einem digitalen Bildplattenspeicher oder einem USB-Speicher (Universal Serial Bus) zur Ein- und Ausgabe von Daten und Code in das und aus dem Computersystem 700 von 7. Die Systemsoftware zur Implementierung von Ausführungsformen der vorliegenden Offenbarung wird auf einem derartigen tragbaren Medium gespeichert und über die tragbare Speichervorrichtung 740 in das Computersystem 700 eingegeben.
  • Die Benutzereingabevorrichtungen 760 können einen Teil einer Benutzerschnittstelle bereitstellen. Die Benutzereingabevorrichtungen 760 können ein oder mehrere Mikrofone, ein alphanumerisches Keypad, wie z. B. ein Tastatur, zum Eingeben von alphanumerischen und anderen Informationen, oder eine Zeigevorrichtung, wie z. B. eine Maus, einen Trackball, einen Stylus oder Cursor-Richtungstasten umfassen. Die Benutzereingabevorrichtungen 760 können auch einen Berührungsbildschirm umfassen. Zusätzlich umfasst das Computersystem 700 Ausgabevorrichtungen 750, wie in 7 gezeigt. Geeignete Ausgabevorrichtungen 750 umfassen Lautsprecher, Drucker, Netzwerkschnittstellen und Monitore.
  • Das Grafikanzeigesystem 770 umfasst eine Flüssigkristallanzeige (LCD) oder eine andere geeignete Anzeigevorrichtung. Das Grafikanzeigesystem 770 ist konfigurierbar, um Text- und Grafik-Informationen zu empfangen und die Information zur Ausgabe an die Anzeigevorrichtung zu verarbeiten.
  • Die Peripheriegeräte 780 können jede Art von Computerunterstützungsvorrichtung umfassen, die dem Computersystem zusätzliche Funktionalität beisteuert.
  • Die in dem Computersystem 700 aus 7 bereitgestellten Komponenten sind typischerweise in Computersystemen vorhanden, die zur Verwendung mit Ausführungsformen der vorliegenden Offenbarung geeignet sind, und sollen eine breite Kategorie solcher im Stand der Technik bekannter Computerkomponenten darstellen. Das Computersystem 700 aus 7 kann daher ein Personal Computer (PC), ein Computer-Handgerät-System, ein Telefon, ein mobiles Computer-System, eine Workstation, ein Tablet, ein Phablet, ein Handy, ein Server, ein Minicomputer, ein Mainframe-Computer, Wearables oder jedes andere Computer-System sein. Der Computer kann auch unterschiedliche Buskonfigurationen, vernetzte Plattformen, Multiprozessorplattformen und dergleichen umfassen. Verschiedene Betriebssysteme können verwendet werden, einschließlich UNIX, LINUX, WINDOWS, MAC OS, PALM OS, QNX ANDROID, IOS, CHROMS, TIZEN und andere geeignete Betriebssysteme.
  • Die Verarbeitung für verschiedene Ausführungsformen kann in Cloud-basierter Software implementiert werden. In einigen Ausführungsformen ist das Computersystem 700 als eine Cloud-basierte Computerumgebung implementiert, wie beispielsweise als eine in der Computing Cloud operierende virtuelle Maschine. In anderen Ausführungsformen kann das Computersystem 700 selbst eine Cloud-basierte Computerumgebung umfassen, wobei die Funktionalitäten des Computersystems 700 dezentral ausgeführt werden. Das Computersystem 700, wenn es als Computing Cloud konfiguriert ist, kann daher eine Vielzahl von Rechnern in verschiedenen Formen enthalten, wie es nachfolgend detaillierter beschrieben wird.
  • Im Allgemeinen ist eine Cloud-basierte Rechenumgebung eine Ressource, die typischerweise die Rechenleistung einer großen Gruppierung von Prozessoren (wie beispielsweise innerhalb von Webservern) kombiniert und/oder die Speicherkapazität einer großen Gruppierung von Computerspeichern oder Speichergeräten kombiniert. Cloud-basierte Ressourcen bereitstellende Systeme können ausschließlich von ihren Besitzern genutzt werden, oder solche Systeme können dritten Benutzern zugänglich sein, die Anwendungen innerhalb der Computerinfrastruktur einsetzen, um den Vorteil großer Rechen- oder Speicherressourcen zu nutzen.
  • Die Cloud kann beispielsweise durch ein Netzwerk von Webservern gebildet sein, die eine Vielzahl von Rechenvorrichtungen wie beispielsweise das Computersystem 700 umfassen, wobei jeder Server (oder zumindest eine Vielzahl davon) Prozessor- und/oder Speicherressourcen bereitstellt. Diese Server können Workloads (Verarbeitungen) verwalten, die von mehreren Benutzern bereitgestellt werden (z. B. Cloud-Resource-Kunden oder anderen Benutzern). Typischerweise liefert jeder Benutzer Workload-Anforderungen an die Cloud, die in Echtzeit – manchmal dramatisch – variieren. Die Art und das Ausmaß dieser Variationen hängt typischerweise von der Art des mit dem Benutzer verbundenen Geschäfts ab.
  • Die vorliegende Technik ist vorstehend anhand von Ausführungsbeispielen beschrieben. Daher sollen andere Variationen der beispielhaften Ausführungsformen von der vorliegende Offenbarung umfasst sein.

Claims (21)

  1. Ein Verfahren zum kontextabhängigen Schalten von Mikrofonen, das Verfahren umfassend: das Detektieren einer Änderung von Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone, wobei eine Konfiguration mit den mindestens zwei Mikrofonen assoziiert ist; das Bestimmen, dass die Änderung von Bedingungen über eine vorgegebene Zeitspanne stattgefunden hat; und als Reaktion auf das Bestimmen, das Ändern der mit den mindestens zwei Mikrofonen assoziierten Konfiguration.
  2. Das Verfahren nach Anspruch 1, wobei die Konfiguration beinhaltet, dass dem ersten Mikrofon der mindestens zwei Mikrofone die Funktion des primären Mikrofons zugewiesen wird und dem zweiten Mikrofon der mindestens zwei Mikrofone die Funktion des sekundären Mikrofons zugewiesen wird.
  3. Das Verfahren nach Anspruch 2, wobei das primäre Mikrofon das Mikrofon der mindestens zwei Mikrofone ist, das sich einem Ziel-Sprecher am nächsten befindet.
  4. Das Verfahren nach Anspruch 2, das Ändern der Konfiguration umfassend: dass dem ersten Mikrofon die Funktion des sekundären Mikrofons zugewiesen wird und dass dem zweiten Mikrofon die Funktion des primären Mikrofons zugewiesen wird.
  5. Das Verfahren nach Anspruch 2, weiter umfassend das Einstellen von Abstimmparametern zur Rauschunterdrückung (NS) basierend auf der geänderten Konfiguration.
  6. Das Verfahren nach Anspruch 2, weiter umfassend das Einstellen von Abstimmparametern zur akustischen Echokompensation (AEC) basierend auf der geänderten Konfiguration.
  7. Das Verfahren nach Anspruch 1, wobei das Detektieren der Änderung der Zustände das Detektieren beinhaltet, dass ein erstes Mikrofon der mindestens zwei Mikrofone verdeckt ist und ein zweites Mikrofon der mindestens zwei Mikrofone nicht verdeckt ist.
  8. Das Verfahren nach Anspruch 7, wobei das Detektieren, dass das erste Mikrofon verdeckt ist, auf dem Detektieren des Energieniveaus des ersten Mikrofons basiert und das Detektieren, dass das zweite Mikrofon nicht verdeckt ist, auf dem Detektieren des Energieniveaus des zweiten Mikrofons basiert.
  9. Das Verfahren nach Anspruch 7, wobei das Ändern der Konfiguration beinhaltet, dass dem zweiten Mikrofon die Funktion des primären Mikrofons zugewiesen wird.
  10. Das Verfahren nach Anspruch 1, wobei das Detektieren der Änderung der Bedingungen das Detektieren des Vorhandenseins eines Nachhalls beinhaltet.
  11. Das Verfahren nach Anspruch 10, wobei die mindestens zwei Mikrofone mindestens drei Mikrofone umfassen, wobei, als Reaktion auf das Detektieren des Vorhandenseins des Nachhalls beinhaltet das Ändern der Konfiguration das Auswählen eines ersten Mikrofons und eines zweiten Mikrofons aus den mindestens drei Mikrofonen zum Erfassen des akustischen Signals, wobei das erste und das zweite Mikrofon durch einen Abstand voneinander getrennt sind, der einem maximalen Abstand zwischen irgendeinem Paar der mindestens drei Mikrofone entspricht.
  12. Das Verfahren nach Anspruch 1, wobei das Detektieren der Änderung der Bedingungen das Detektieren der Veränderung in mindestens einem der Folgenden beinhaltet: das Vorhandensein von Fernbereichs-Sprache: die Art der Hintergrundgeräusche; die Empfindlichkeiten der mindestens zwei Mikrofone; und die Dichtungen der mindestens zwei Mikrofone.
  13. Das Verfahren nach Anspruch 1, wobei das Detektieren der Änderung der Bedingungen das Detektieren der Veränderung in mindestens einem der Folgenden beinhaltet: der Pegel des Signal-Rausch-Verhältnisses (SNR) in dem akustischen Signal; und der Pegel des Signal-Echo-Verhältnisses (SER) in dem akustischen Signal.
  14. Ein System zum kontextabhängigen Schalten von Mikrofonen, das System umfassend: mindestens einen Prozessor; und einen Speicher, der kommunikativ mit dem mindestens einen Prozessor gekoppelt ist, wobei der Speicher Anweisungen speichert, die, wenn sie von dem mindestens einem Prozessor ausgeführt werden, ein Verfahren ausführen, umfassend: das Detektieren einer Änderung von Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone, wobei eine Konfiguration mit den mindestens zwei Mikrofonen assoziiert ist; das Bestimmen, dass die Änderung von Bedingungen über eine vorgegebene Zeitspanne stattgefunden hat; und als Reaktion auf das Bestimmen, das Ändern der mit den mindestens zwei Mikrofonen assoziierten Konfiguration.
  15. Das System nach Anspruch 14, wobei die Konfiguration beinhaltet, dass dem ersten Mikrofon der mindestens zwei Mikrofone die Funktion des primären Mikrofons zugewiesen wird und dem zweiten Mikrofon der mindestens zwei Mikrofone die Funktion des sekundären Mikrofons zugewiesen wird.
  16. Das System nach Anspruch 15, wobei das primäre Mikrofon das Mikrofon der mindestens zwei Mikrofone ist, das sich einem Ziel-Sprecher am nächsten befindet.
  17. Das System nach Anspruch 15, das Ändern der Konfiguration umfassend: dass dem ersten Mikrofon die Funktion des sekundären Mikrofons zugewiesen wird und dem zweiten Mikrofon die Funktion des primären Mikrofons zugewiesen wird.
  18. Das System nach Anspruch 15, weiter umfassend das Einstellen von Abstimmparametern zur Rauschunterdrückung (NS) basierend auf der geänderten Konfiguration.
  19. Das System nach Anspruch 15, weiter umfassend das Einstellen von Abstimmparametern zur akustischen Echokompensation (AEC) basierend auf der geänderten Konfiguration.
  20. Das System nach Anspruch 14, wobei das Detektieren der Änderung der Bedingungen das Detektieren der Veränderung in mindestens einem der Folgenden beinhaltet: das Vorhandensein von Fernbereichs-Sprache: die Art der Hintergrundgeräusche; die Empfindlichkeiten der mindestens zwei Mikrofone; und die Dichtungen der mindestens zwei Mikrofone.
  21. Ein nicht-flüchtiges computerlesbares Speichermedium mit darin enthaltenen Anweisungen, die, wenn sie durch mindestens einen Prozessor ausgeführt werden, Schritte eines Verfahrens durchführen, das Verfahren umfassend: das Detektieren einer Änderung von Bedingungen zum Erfassen eines akustischen Signals durch mindestens zwei Mikrofone, wobei eine Konfiguration mit den mindestens zwei Mikrofonen assoziiert ist; das Bestimmen, dass die Änderung von Bedingungen über eine vorgegebene Zeitspanne stattgefunden hat; und als Reaktion auf das Bestimmen, das Ändern der mit den mindestens zwei Mikrofonen assoziierten Konfiguration.
DE112016000545.8T 2015-01-30 2016-01-29 Kontextabhängiges schalten von mikrofonen Expired - Fee Related DE112016000545B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562110171P 2015-01-30 2015-01-30
US62/110,171 2015-01-30
PCT/US2016/015801 WO2016123560A1 (en) 2015-01-30 2016-01-29 Contextual switching of microphones

Publications (2)

Publication Number Publication Date
DE112016000545T5 true DE112016000545T5 (de) 2017-11-02
DE112016000545B4 DE112016000545B4 (de) 2019-08-22

Family

ID=56544432

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016000545.8T Expired - Fee Related DE112016000545B4 (de) 2015-01-30 2016-01-29 Kontextabhängiges schalten von mikrofonen

Country Status (4)

Country Link
US (1) US9668048B2 (de)
CN (1) CN107210824A (de)
DE (1) DE112016000545B4 (de)
WO (1) WO2016123560A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
KR20180051189A (ko) * 2016-11-08 2018-05-16 삼성전자주식회사 자동 음성 트리거 방법 및 이를 적용한 음향 분석기
US10127920B2 (en) 2017-01-09 2018-11-13 Google Llc Acoustic parameter adjustment
WO2019060251A1 (en) 2017-09-20 2019-03-28 Knowles Electronics, Llc PROFITABLE MICROPHONE NETWORK DESIGN FOR SPATIAL FILTRATION
CN107547704A (zh) * 2017-09-28 2018-01-05 奇酷互联网络科技(深圳)有限公司 通话mic的切换方法、装置和移动终端
CN109089201B (zh) 2018-07-26 2020-04-17 Oppo广东移动通信有限公司 麦克风堵孔检测方法及相关产品
US10674260B1 (en) 2018-11-20 2020-06-02 Microsoft Technology Licensing, Llc Smart speaker system with microphone room calibration
US10595129B1 (en) * 2018-12-26 2020-03-17 Motorola Solutions, Inc. Methods and apparatus for configuring multiple microphones in an electronic communication device
US11011182B2 (en) * 2019-03-25 2021-05-18 Nxp B.V. Audio processing system for speech enhancement
JP7350092B2 (ja) * 2019-05-22 2023-09-25 ソロズ・テクノロジー・リミテッド 眼鏡デバイス、システム、装置、および方法のためのマイク配置
US11335331B2 (en) 2019-07-26 2022-05-17 Knowles Electronics, Llc. Multibeam keyword detection system and method
US11172285B1 (en) * 2019-09-23 2021-11-09 Amazon Technologies, Inc. Processing audio to account for environmental noise
CN110602327B (zh) * 2019-09-24 2021-06-25 腾讯科技(深圳)有限公司 语音通话方法、装置、电子设备及计算机可读存储介质
CN111314532B (zh) * 2020-02-17 2021-07-13 Oppo广东移动通信有限公司 降噪方法及装置、电子设备、存储介质
TW202224449A (zh) * 2020-11-05 2022-06-16 美商鐵三角美國股份有限公司 具有先進功能性之麥克風
CN112669865B (zh) * 2021-03-16 2021-06-08 浙江华创视讯科技有限公司 一种主麦克风的切换方法、装置、设备及可读存储介质
CN113819585B (zh) * 2021-09-16 2023-01-13 青岛海尔空调器有限总公司 麦克装置、用于匹配语音空调麦克的方法及装置、空调

Family Cites Families (249)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4025724A (en) 1975-08-12 1977-05-24 Westinghouse Electric Corporation Noise cancellation apparatus
ATE41544T1 (de) 1982-08-04 1989-04-15 Trans Data Associates Einrichtung und verfahren zur spracherkennung unter verwendung von vokaltraktmodell.
US4802227A (en) 1987-04-03 1989-01-31 American Telephone And Telegraph Company Noise reduction processing arrangement for microphone arrays
US5115404A (en) 1987-12-23 1992-05-19 Tektronix, Inc. Digital storage oscilloscope with indication of aliased display
US4969203A (en) 1988-01-25 1990-11-06 North American Philips Corporation Multiplicative sieve signal processing
US5182557A (en) 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
GB9107011D0 (en) 1991-04-04 1991-05-22 Gerzon Michael A Illusory sound distance control method
US5440751A (en) 1991-06-21 1995-08-08 Compaq Computer Corp. Burst data transfer to single cycle data transfer conversion and strobe signal conversion
CA2080608A1 (en) 1992-01-02 1993-07-03 Nader Amini Bus control logic for computer system having dual bus architecture
EP0559348A3 (de) 1992-03-02 1993-11-03 AT&T Corp. Rateurregelschleifenprozessor für einen wahrnehmungsgebundenen Koder/Dekoder
JPH05300419A (ja) 1992-04-16 1993-11-12 Sanyo Electric Co Ltd ビデオカメラ
US5524056A (en) 1993-04-13 1996-06-04 Etymotic Research, Inc. Hearing aid having plural microphones and a microphone switching system
JPH07336793A (ja) 1994-06-09 1995-12-22 Matsushita Electric Ind Co Ltd ビデオカメラ用マイクロホン
US5978567A (en) 1994-07-27 1999-11-02 Instant Video Technologies Inc. System for distribution of interactive multimedia and linear programs by enabling program webs which include control scripts to define presentation by client transceiver
GB9501734D0 (en) 1995-01-30 1995-03-22 Neopost Ltd franking apparatus and printing means therefor
US5625697A (en) * 1995-05-08 1997-04-29 Lucent Technologies Inc. Microphone selection process for use in a multiple microphone voice actuated switching system
US5850453A (en) 1995-07-28 1998-12-15 Srs Labs, Inc. Acoustic correction apparatus
US5774837A (en) 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
FI99062C (fi) 1995-10-05 1997-09-25 Nokia Mobile Phones Ltd Puhesignaalin taajuuskorjaus matkapuhelimessa
US5819215A (en) 1995-10-13 1998-10-06 Dobson; Kurt Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data
US5734713A (en) 1996-01-30 1998-03-31 Jabra Corporation Method and system for remote telephone calibration
US6035177A (en) 1996-02-26 2000-03-07 Donald W. Moses Simultaneous transmission of ancillary and audio signals by means of perceptual coding
US5715319A (en) 1996-05-30 1998-02-03 Picturetel Corporation Method and apparatus for steerable and endfire superdirective microphone arrays with reduced analog-to-digital converter and computational requirements
US5757933A (en) 1996-12-11 1998-05-26 Micro Ear Technology, Inc. In-the-ear hearing aid with directional microphone system
US6281749B1 (en) 1997-06-17 2001-08-28 Srs Labs, Inc. Sound enhancement system
US6084916A (en) 1997-07-14 2000-07-04 Vlsi Technology, Inc. Receiver sample rate frequency adjustment for sample rate conversion between asynchronous digital systems
US5991385A (en) 1997-07-16 1999-11-23 International Business Machines Corporation Enhanced audio teleconferencing with sound field effect
US6144937A (en) 1997-07-23 2000-11-07 Texas Instruments Incorporated Noise suppression of speech by signal processing including applying a transform to time domain input sequences of digital signals representing audio information
KR19990015748A (ko) 1997-08-09 1999-03-05 구자홍 전자우편
WO1999053673A1 (en) 1998-04-08 1999-10-21 British Telecommunications Public Limited Company Teleconferencing system
US6717991B1 (en) 1998-05-27 2004-04-06 Telefonaktiebolaget Lm Ericsson (Publ) System and method for dual microphone signal noise reduction using spectral subtraction
US6041130A (en) 1998-06-23 2000-03-21 Mci Communications Corporation Headset with multiple connections
US20040066940A1 (en) 2002-10-03 2004-04-08 Silentium Ltd. Method and system for inhibiting noise produced by one or more sources of undesired sound from pickup by a speech recognition unit
US6381469B1 (en) 1998-10-02 2002-04-30 Nokia Corporation Frequency equalizer, and associated method, for a radio telephone
US6768979B1 (en) 1998-10-22 2004-07-27 Sony Corporation Apparatus and method for noise attenuation in a speech recognition system
US6188769B1 (en) 1998-11-13 2001-02-13 Creative Technology Ltd. Environmental reverberation processor
US6504926B1 (en) 1998-12-15 2003-01-07 Mediaring.Com Ltd. User control system for internet phone quality
US6873837B1 (en) 1999-02-03 2005-03-29 Matsushita Electric Industrial Co., Ltd. Emergency reporting system and terminal apparatus therein
US7423983B1 (en) 1999-09-20 2008-09-09 Broadcom Corporation Voice and data exchange over a packet based network
US6219408B1 (en) 1999-05-28 2001-04-17 Paul Kurth Apparatus and method for simultaneously transmitting biomedical data and human voice over conventional telephone lines
US7035666B2 (en) 1999-06-09 2006-04-25 Shimon Silberfening Combination cellular telephone, sound storage device, and email communication device
US6381284B1 (en) 1999-06-14 2002-04-30 T. Bogomolny Method of and devices for telecommunications
US6480610B1 (en) 1999-09-21 2002-11-12 Sonic Innovations, Inc. Subband acoustic feedback cancellation in hearing aids
US7058572B1 (en) 2000-01-28 2006-06-06 Nortel Networks Limited Reducing acoustic noise in wireless and landline based telephony
US20030179888A1 (en) 2002-03-05 2003-09-25 Burnett Gregory C. Voice activity detection (VAD) devices and methods for use with noise suppression systems
US20020041678A1 (en) 2000-08-18 2002-04-11 Filiz Basburg-Ertem Method and apparatus for integrated echo cancellation and noise reduction for fixed subscriber terminals
JP2002149200A (ja) 2000-08-31 2002-05-24 Matsushita Electric Ind Co Ltd 音声処理装置及び音声処理方法
DE10045197C1 (de) 2000-09-13 2002-03-07 Siemens Audiologische Technik Verfahren zum Betrieb eines Hörhilfegerätes oder Hörgerätessystems sowie Hörhilfegerät oder Hörgerätesystem
US6520673B2 (en) 2000-12-08 2003-02-18 Msp Corporation Mixing devices for sample recovery from a USP induction port or a pre-separator
US6615169B1 (en) 2000-10-18 2003-09-02 Nokia Corporation High frequency enhancement layer coding in wideband speech codec
EP1340320B1 (de) 2000-11-30 2008-10-15 Intrasonics Limited Vorrichtung und System zum Verwenden eines in einem akustischen Signal integrierten Datensignals
US6754623B2 (en) 2001-01-31 2004-06-22 International Business Machines Corporation Methods and apparatus for ambient noise removal in speech recognition
CN1287733C (zh) 2001-03-06 2006-12-06 微石有限公司 身体动作检测装置
EP1239455A3 (de) 2001-03-09 2004-01-21 Alcatel Verfahren und Anordnung zur Durchführung einer an die Übertragungsfunktion menschilcher Sinnesorgane angepassten Fourier Transformation sowie darauf basierende Vorrichtungen zur Geräuschreduktion und Spracherkennung
US7349841B2 (en) 2001-03-28 2008-03-25 Mitsubishi Denki Kabushiki Kaisha Noise suppression device including subband-based signal-to-noise ratio
ATE410901T1 (de) 2001-04-18 2008-10-15 Widex As Richtungssteuerung und verfahren zur steuerung eines hörgeräts
US20020160751A1 (en) 2001-04-26 2002-10-31 Yingju Sun Mobile devices with integrated voice recording mechanism
US8934382B2 (en) 2001-05-10 2015-01-13 Polycom, Inc. Conference endpoint controlling functions of a remote device
AUPR647501A0 (en) 2001-07-19 2001-08-09 Vast Audio Pty Ltd Recording a three dimensional auditory scene and reproducing it for the individual listener
GB0121206D0 (en) 2001-08-31 2001-10-24 Mitel Knowledge Corp System and method of indicating and controlling sound pickup direction and location in a teleconferencing system
GB0121308D0 (en) 2001-09-03 2001-10-24 Thomas Swan & Company Ltd Optical processing
US7574474B2 (en) 2001-09-14 2009-08-11 Xerox Corporation System and method for sharing and controlling multiple audio and video streams
US6895375B2 (en) 2001-10-04 2005-05-17 At&T Corp. System for bandwidth extension of Narrow-band speech
US6707921B2 (en) 2001-11-26 2004-03-16 Hewlett-Packard Development Company, Lp. Use of mouth position and mouth movement to filter noise from speech in a hearing aid
US6655817B2 (en) 2001-12-10 2003-12-02 Tom Devlin Remote controlled lighting apparatus and method
US7096037B2 (en) 2002-01-29 2006-08-22 Palm, Inc. Videoconferencing bandwidth management for a handheld computer system and method
US7171008B2 (en) 2002-02-05 2007-01-30 Mh Acoustics, Llc Reducing noise in audio systems
US7158572B2 (en) 2002-02-14 2007-01-02 Tellabs Operations, Inc. Audio enhancement communication techniques
JP4195267B2 (ja) 2002-03-14 2008-12-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置、その音声認識方法及びプログラム
US6978010B1 (en) 2002-03-21 2005-12-20 Bellsouth Intellectual Property Corp. Ambient noise cancellation for voice communication device
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
US7242762B2 (en) 2002-06-24 2007-07-10 Freescale Semiconductor, Inc. Monitoring and control of an adaptive filter in a communication system
US7516066B2 (en) 2002-07-16 2009-04-07 Koninklijke Philips Electronics N.V. Audio coding
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8019121B2 (en) 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7630409B2 (en) 2002-10-21 2009-12-08 Lsi Corporation Method and apparatus for improved play-out packet control algorithm
ES2425076T3 (es) 2002-11-20 2013-10-11 Koninklijke Philips N.V. Sistema de interfaz de usuario basado en dispositivo de puntero
JP4247002B2 (ja) 2003-01-22 2009-04-02 富士通株式会社 マイクロホンアレイを用いた話者距離検出装置及び方法並びに当該装置を用いた音声入出力装置
KR100503479B1 (ko) 2003-01-24 2005-07-28 삼성전자주식회사 휴대용단말기의 크레들 및 이를 이용한 휴대용단말기고정방법
EP1443498B1 (de) 2003-01-24 2008-03-19 Sony Ericsson Mobile Communications AB Rauschreduzierung und audiovisuelle Sprachaktivitätsdetektion
DE10305820B4 (de) 2003-02-12 2006-06-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen einer Wiedergabeposition
US7725315B2 (en) 2003-02-21 2010-05-25 Qnx Software Systems (Wavemakers), Inc. Minimization of transient noises in a voice signal
GB2398913B (en) 2003-02-27 2005-08-17 Motorola Inc Noise estimation in speech recognition
US7090431B2 (en) 2003-03-19 2006-08-15 Cosgrove Patrick J Marine vessel lifting system with variable level detection
NO318096B1 (no) 2003-05-08 2005-01-31 Tandberg Telecom As Arrangement og fremgangsmate for lokalisering av lydkilde
US20050033200A1 (en) 2003-08-05 2005-02-10 Soehren Wayne A. Human motion identification and measurement system and method
EP1513137A1 (de) 2003-08-22 2005-03-09 MicronasNIT LCC, Novi Sad Institute of Information Technologies Sprachverarbeitungssystem und -verfahren mit Multipuls-Anregung
US7190775B2 (en) 2003-10-29 2007-03-13 Broadcom Corporation High quality audio conferencing with adaptive beamforming
US7363028B2 (en) 2003-11-04 2008-04-22 Universal Electronics, Inc. System and method for controlling device location determination
GB2408655B (en) 2003-11-27 2007-02-28 Motorola Inc Communication system, communication units and method of ambience listening thereto
US20050172311A1 (en) 2004-01-31 2005-08-04 Nokia Corporation Terminal and associated method and computer program product for monitoring at least one activity of a user
JP2005249816A (ja) 2004-03-01 2005-09-15 Internatl Business Mach Corp <Ibm> 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
US20050249292A1 (en) 2004-05-07 2005-11-10 Ping Zhu System and method for enhancing the performance of variable length coding
US7103176B2 (en) 2004-05-13 2006-09-05 International Business Machines Corporation Direct coupling of telephone volume control with remote microphone gain and noise cancellation
GB2414369B (en) 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
US7695438B2 (en) 2004-05-26 2010-04-13 Siemens Medical Solutions Usa, Inc. Acoustic disruption minimizing systems and methods
EP1600947A3 (de) 2004-05-26 2005-12-21 Honda Research Institute Europe GmbH Subtraktive Reduktion von harmonischen Störgeräuschen
US7254665B2 (en) 2004-06-16 2007-08-07 Microsoft Corporation Method and system for reducing latency in transferring captured image data by utilizing burst transfer after threshold is reached
US20060063560A1 (en) 2004-09-21 2006-03-23 Samsung Electronics Co., Ltd. Dual-mode phone using GPS power-saving assist for operating in cellular and WiFi networks
US7914468B2 (en) 2004-09-22 2011-03-29 Svip 4 Llc Systems and methods for monitoring and modifying behavior
US20060092918A1 (en) 2004-11-04 2006-05-04 Alexander Talalai Audio receiver having adaptive buffer delay
JP4283212B2 (ja) 2004-12-10 2009-06-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 雑音除去装置、雑音除去プログラム、及び雑音除去方法
US20060206320A1 (en) 2005-03-14 2006-09-14 Li Qi P Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers
RU2376657C2 (ru) 2005-04-01 2009-12-20 Квэлкомм Инкорпорейтед Системы, способы и устройства для высокополосного предыскажения шкалы времени
US7664495B1 (en) 2005-04-21 2010-02-16 At&T Mobility Ii Llc Voice call redirection for enterprise hosted dual mode service
CA2574468C (en) 2005-04-28 2014-01-14 Siemens Aktiengesellschaft Noise suppression process and device
EP1878013B1 (de) 2005-05-05 2010-12-15 Sony Computer Entertainment Inc. Videospielsteuerung mittels Joystick
US7531973B2 (en) 2005-05-31 2009-05-12 Rockwell Automation Technologies, Inc. Wizard for configuring a motor drive system
JP2006339991A (ja) 2005-06-01 2006-12-14 Matsushita Electric Ind Co Ltd マルチチャンネル収音装置、マルチチャンネル音声再生装置、およびマルチチャンネル収音再生装置
JP4910312B2 (ja) 2005-06-03 2012-04-04 ソニー株式会社 撮像装置および撮像方法
US20070005351A1 (en) 2005-06-30 2007-01-04 Sathyendra Harsha M Method and system for bandwidth expansion for voice communications
US20070003097A1 (en) 2005-06-30 2007-01-04 Altec Lansing Technologies, Inc. Angularly adjustable speaker system
ATE497327T1 (de) 2005-07-06 2011-02-15 Koninkl Philips Electronics Nv Vorrichtung und verfahren zur schallstrahlformung
US20070041589A1 (en) 2005-08-17 2007-02-22 Gennum Corporation System and method for providing environmental specific noise reduction algorithms
JP4356670B2 (ja) 2005-09-12 2009-11-04 ソニー株式会社 雑音低減装置及び雑音低減方法並びに雑音低減プログラムとその電子機器用収音装置
US20070273583A1 (en) 2005-09-17 2007-11-29 Outland Research, Llc Pointing interface for person-to-person interaction through ad-hoc networks
US9189934B2 (en) 2005-09-22 2015-11-17 Rsi Video Technologies, Inc. Security monitoring with programmable mapping
US20100130198A1 (en) 2005-09-29 2010-05-27 Plantronics, Inc. Remote processing of multiple acoustic signals
EA011601B1 (ru) 2005-09-30 2009-04-28 Скуэрхэд Текнолоджи Ас Способ и система для направленного захвата аудиосигнала
US7970123B2 (en) 2005-10-20 2011-06-28 Mitel Networks Corporation Adaptive coupling equalization in beamforming-based communication systems
US7562140B2 (en) 2005-11-15 2009-07-14 Cisco Technology, Inc. Method and apparatus for providing trend information from network devices
US20070127668A1 (en) 2005-12-02 2007-06-07 Ahya Deepak P Method and system for performing a conference call
JP4940671B2 (ja) 2006-01-26 2012-05-30 ソニー株式会社 オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
US9185487B2 (en) 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US8194880B2 (en) 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
WO2007098768A1 (en) * 2006-03-03 2007-09-07 Gn Resound A/S Automatic switching between omnidirectional and directional microphone modes in a hearing aid
US7685132B2 (en) 2006-03-15 2010-03-23 Mog, Inc Automatic meta-data sharing of existing media through social networking
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8068619B2 (en) 2006-05-09 2011-11-29 Fortemedia, Inc. Method and apparatus for noise suppression in a small array microphone system
US7548791B1 (en) 2006-05-18 2009-06-16 Adobe Systems Incorporated Graphically displaying audio pan or phase information
US8044291B2 (en) 2006-05-18 2011-10-25 Adobe Systems Incorporated Selection of visually displayed audio data for editing
US8204253B1 (en) 2008-06-30 2012-06-19 Audience, Inc. Self calibration of audio device
US8229137B2 (en) 2006-08-31 2012-07-24 Sony Ericsson Mobile Communications Ab Volume control circuits for use in electronic devices and related methods and electronic devices
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
US7492312B2 (en) 2006-11-14 2009-02-17 Fam Adly T Multiplicative mismatched filters for optimum range sidelobe suppression in barker code reception
US7983685B2 (en) 2006-12-07 2011-07-19 Innovative Wireless Technologies, Inc. Method and apparatus for management of a global wireless sensor network
US7973857B2 (en) 2006-12-27 2011-07-05 Nokia Corporation Teleconference group formation using context information
US20080159507A1 (en) 2006-12-27 2008-07-03 Nokia Corporation Distributed teleconference multichannel architecture, system, method, and computer program product
WO2008082441A1 (en) 2006-12-29 2008-07-10 Prodea Systems, Inc. Display inserts, overlays, and graphical user interfaces for multimedia systems
GB2445984B (en) 2007-01-25 2011-12-07 Sonaptic Ltd Ambient noise reduction
US20080187143A1 (en) 2007-02-01 2008-08-07 Research In Motion Limited System and method for providing simulated spatial sound in group voice communication sessions on a wireless communication device
JP4449987B2 (ja) 2007-02-15 2010-04-14 ソニー株式会社 音声処理装置、音声処理方法およびプログラム
US7848738B2 (en) 2007-03-19 2010-12-07 Avaya Inc. Teleconferencing system with multiple channels at each location
US20080259731A1 (en) 2007-04-17 2008-10-23 Happonen Aki P Methods and apparatuses for user controlled beamforming
US8488803B2 (en) 2007-05-25 2013-07-16 Aliphcom Wind suppression/replacement component for use with electronic systems
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US20080304677A1 (en) 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
JP5009082B2 (ja) 2007-08-02 2012-08-22 シャープ株式会社 表示装置
DE602007004217D1 (de) 2007-08-31 2010-02-25 Harman Becker Automotive Sys Schnelle Schätzung der Spektraldichte der Rauschleistung zur Sprachsignalverbesserung
US7986228B2 (en) 2007-09-05 2011-07-26 Stanley Convergent Security Solutions, Inc. System and method for monitoring security at a premises using line card
KR101409169B1 (ko) 2007-09-05 2014-06-19 삼성전자주식회사 억제 폭 조절을 통한 사운드 줌 방법 및 장치
US8694310B2 (en) 2007-09-17 2014-04-08 Qnx Software Systems Limited Remote control server protocol system
US7522074B2 (en) 2007-09-17 2009-04-21 Samplify Systems, Inc. Enhanced control for compression and decompression of sampled signals
US8175871B2 (en) 2007-09-28 2012-05-08 Qualcomm Incorporated Apparatus and method of noise and echo reduction in multiple microphone audio systems
US8358787B2 (en) 2007-11-07 2013-01-22 Apple Inc. Method and apparatus for acoustics testing of a personal mobile device
KR101238362B1 (ko) 2007-12-03 2013-02-28 삼성전자주식회사 음원 거리에 따라 음원 신호를 여과하는 방법 및 장치
US8433061B2 (en) 2007-12-10 2013-04-30 Microsoft Corporation Reducing echo
US8219387B2 (en) 2007-12-10 2012-07-10 Microsoft Corporation Identifying far-end sound
US8175291B2 (en) 2007-12-19 2012-05-08 Qualcomm Incorporated Systems, methods, and apparatus for multi-microphone based speech enhancement
KR101456570B1 (ko) 2007-12-21 2014-10-31 엘지전자 주식회사 디지털 이퀄라이저를 구비한 이동 단말기 및 그 제어방법
US8326635B2 (en) 2007-12-25 2012-12-04 Personics Holdings Inc. Method and system for message alert and delivery using an earpiece
WO2009093161A1 (en) 2008-01-24 2009-07-30 Koninklijke Philips Electronics N.V. Remote control device for lighting systems
US8554551B2 (en) 2008-01-28 2013-10-08 Qualcomm Incorporated Systems, methods, and apparatus for context replacement by audio level
US8200479B2 (en) 2008-02-08 2012-06-12 Texas Instruments Incorporated Method and system for asymmetric independent audio rendering
WO2009109373A2 (en) 2008-03-04 2009-09-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for mixing a plurality of input data streams
US20090323655A1 (en) 2008-03-31 2009-12-31 Cozybit, Inc. System and method for inviting and sharing conversations between cellphones
US8457328B2 (en) 2008-04-22 2013-06-04 Nokia Corporation Method, apparatus and computer program product for utilizing spatial information for audio signal enhancement in a distributed network environment
DE102008021160A1 (de) 2008-04-28 2009-10-29 Beckhoff Automation Gmbh Fernbedienung
US8369973B2 (en) 2008-06-19 2013-02-05 Texas Instruments Incorporated Efficient asynchronous sample rate conversion
US8300801B2 (en) 2008-06-26 2012-10-30 Centurylink Intellectual Property Llc System and method for telephone based noise cancellation
US8189807B2 (en) 2008-06-27 2012-05-29 Microsoft Corporation Satellite microphone array for video conferencing
CN101304391A (zh) 2008-06-30 2008-11-12 腾讯科技(深圳)有限公司 一种基于即时通讯系统的语音通话方法及系统
US8774423B1 (en) 2008-06-30 2014-07-08 Audience, Inc. System and method for controlling adaptivity of signal modification using a phantom coefficient
BRPI0910792B1 (pt) 2008-07-11 2020-03-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. "sintetizador de sinal de áudio e codificador de sinal de áudio"
US8538749B2 (en) 2008-07-18 2013-09-17 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for enhanced intelligibility
EP2151822B8 (de) 2008-08-05 2018-10-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Verarbeitung eines Audiosignals zur Sprachverstärkung unter Anwendung einer Merkmalsextraktion
EP2151821B1 (de) 2008-08-07 2011-12-14 Nuance Communications, Inc. Rauschunterdrückende Verarbeitung von Sprachsignalen
JP2012502562A (ja) 2008-09-03 2012-01-26 スニフ ラブス,インコーポレーテッド 発見プロトコル
US8401178B2 (en) * 2008-09-30 2013-03-19 Apple Inc. Multiple microphone switching and configuration
US8189429B2 (en) 2008-09-30 2012-05-29 Apple Inc. Microphone proximity detection
JP5608660B2 (ja) 2008-10-10 2014-10-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) エネルギ保存型マルチチャネルオーディオ符号化
US8130978B2 (en) 2008-10-15 2012-03-06 Microsoft Corporation Dynamic switching of microphone inputs for identification of a direction of a source of speech sounds
US9779598B2 (en) 2008-11-21 2017-10-03 Robert Bosch Gmbh Security system including less than lethal deterrent
US20100157168A1 (en) 2008-12-23 2010-06-24 Dunton Randy R Multiple, Independent User Interfaces for an Audio/Video Device
US8515707B2 (en) 2009-01-07 2013-08-20 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration using a Kalman filter
US8467891B2 (en) 2009-01-21 2013-06-18 Utc Fire & Security Americas Corporation, Inc. Method and system for efficient optimization of audio sampling rate conversion
US20100210975A1 (en) 2009-01-21 2010-08-19 SwimSense, LLC Multi-state performance monitoring system
EP2394270A1 (de) 2009-02-03 2011-12-14 University Of Ottawa Verfahren und system zur mehrfach-mikrofon-rauschminderung
EP2222091B1 (de) 2009-02-23 2013-04-24 Nuance Communications, Inc. Verfahren zum Bestimmen eines Satzes von Filterkoeffizienten für ein Mittel zur Kompensierung von akustischem Echo
US8184180B2 (en) 2009-03-25 2012-05-22 Broadcom Corporation Spatially synchronized audio and video capture
US8613496B2 (en) 2009-03-25 2013-12-24 The Regents Of The University Of Michigan Compact organic vapor jet printing print head
EP2237271B1 (de) 2009-03-31 2021-01-20 Cerence Operating Company Verfahren zur Bestimmung einer Signalkomponente zum Reduzieren von Rauschen in einem Eingangssignal
JP5535198B2 (ja) 2009-04-02 2014-07-02 三菱電機株式会社 雑音抑圧装置
US8416715B2 (en) 2009-06-15 2013-04-09 Microsoft Corporation Interest determination for auditory enhancement
US8626344B2 (en) 2009-08-21 2014-01-07 Allure Energy, Inc. Energy management system and method
EP2285112A1 (de) 2009-08-07 2011-02-16 Canon Kabushiki Kaisha Verfahren zum Senden von komprimierten Daten, die ein digitales Bild darstellen, und entsprechende Vorrichtung
US8233352B2 (en) 2009-08-17 2012-07-31 Broadcom Corporation Audio source localization system and method
US8644517B2 (en) 2009-08-17 2014-02-04 Broadcom Corporation System and method for automatic disabling and enabling of an acoustic beamformer
JP5397131B2 (ja) 2009-09-29 2014-01-22 沖電気工業株式会社 音源方向推定装置及びプログラム
US8571231B2 (en) 2009-10-01 2013-10-29 Qualcomm Incorporated Suppressing noise in an audio signal
US9372251B2 (en) 2009-10-05 2016-06-21 Harman International Industries, Incorporated System for spatial extraction of audio signals
US20110107367A1 (en) 2009-10-30 2011-05-05 Sony Corporation System and method for broadcasting personal content to client devices in an electronic network
US8615392B1 (en) 2009-12-02 2013-12-24 Audience, Inc. Systems and methods for producing an acoustic field having a target spatial pattern
US9210503B2 (en) 2009-12-02 2015-12-08 Audience, Inc. Audio zoom
DE112010005020B4 (de) 2009-12-28 2018-12-13 Mitsubishi Electric Corporation Sprachsignal-Wiederherstellungsvorrichtung und Sprachsignal-Wiederherstellungsverfahren
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
WO2011092549A1 (en) 2010-01-27 2011-08-04 Nokia Corporation Method and apparatus for assigning a feature class value
WO2011129725A1 (en) 2010-04-12 2011-10-20 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for noise cancellation in a speech encoder
US8538035B2 (en) * 2010-04-29 2013-09-17 Audience, Inc. Multi-microphone robust noise suppression
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US8712069B1 (en) * 2010-04-19 2014-04-29 Audience, Inc. Selection of system parameters based on non-acoustic sensor information
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US8639516B2 (en) 2010-06-04 2014-01-28 Apple Inc. User-specific noise suppression for voice quality improvements
KR101285391B1 (ko) 2010-07-28 2013-07-10 주식회사 팬택 음향 객체 정보 융합 장치 및 방법
US9071831B2 (en) 2010-08-27 2015-06-30 Broadcom Corporation Method and system for noise cancellation and audio enhancement based on captured depth information
US9274744B2 (en) 2010-09-10 2016-03-01 Amazon Technologies, Inc. Relative position-inclusive device interfaces
US9226069B2 (en) * 2010-10-29 2015-12-29 Qualcomm Incorporated Transitioning multiple microphones from a first mode to a second mode
US8451315B2 (en) 2010-11-30 2013-05-28 Hewlett-Packard Development Company, L.P. System and method for distributed meeting capture
US20120169482A1 (en) 2011-01-05 2012-07-05 Ian Chen System and Method for Selecting a Device for Remote Control Based on Determined Navigational State of a Remote Control Device
US8525868B2 (en) 2011-01-13 2013-09-03 Qualcomm Incorporated Variable beamforming with a mobile platform
US8756173B2 (en) 2011-01-19 2014-06-17 Qualcomm Incorporated Machine learning of known or unknown motion states with sensor fusion
US20120202485A1 (en) 2011-02-04 2012-08-09 Takwak GmBh Systems and methods for audio roaming for mobile devices
US8606249B1 (en) 2011-03-07 2013-12-10 Audience, Inc. Methods and systems for enhancing audio quality during teleconferencing
US9007416B1 (en) 2011-03-08 2015-04-14 Audience, Inc. Local social conference calling
JP5060631B1 (ja) 2011-03-31 2012-10-31 株式会社東芝 信号処理装置及び信号処理方法
US8811601B2 (en) 2011-04-04 2014-08-19 Qualcomm Incorporated Integrated echo cancellation and noise suppression
US8989411B2 (en) 2011-04-08 2015-03-24 Board Of Regents, The University Of Texas System Differential microphone with sealed backside cavities and diaphragms coupled to a rocking structure thereby providing resistance to deflection under atmospheric pressure and providing a directional response to sound pressure
US10088317B2 (en) 2011-06-09 2018-10-02 Microsoft Technologies Licensing, LLC Hybrid-approach for localization of an agent
US8667012B2 (en) 2011-06-09 2014-03-04 Salesforce.Com, Inc. Methods and systems for using distributed memory and set operations to process social networks
US8363823B1 (en) 2011-08-08 2013-01-29 Audience, Inc. Two microphone uplink communication and stereo audio playback on three wire headset assembly
US9386147B2 (en) 2011-08-25 2016-07-05 Verizon Patent And Licensing Inc. Muting and un-muting user devices
US9176819B2 (en) 2011-09-23 2015-11-03 Fujitsu Limited Detecting sensor malfunctions using compression analysis of binary decision diagrams
US8942386B2 (en) * 2011-11-30 2015-01-27 Midas Technology, Inc. Real-time quality monitoring of speech and audio signals in noisy reverberant environments for teleconferencing systems
US8750526B1 (en) 2012-01-04 2014-06-10 Audience, Inc. Dynamic bandwidth change detection for configuring audio processor
US9197974B1 (en) 2012-01-06 2015-11-24 Audience, Inc. Directional audio capture adaptation based on alternative sensory input
US8615394B1 (en) 2012-01-27 2013-12-24 Audience, Inc. Restoration of noise-reduced speech
US20130282373A1 (en) * 2012-04-23 2013-10-24 Qualcomm Incorporated Systems and methods for audio signal processing
US20130325616A1 (en) 2012-06-01 2013-12-05 Rakesh Ramde Location-based and context-aware advertising platform
US9479275B2 (en) 2012-06-01 2016-10-25 Blackberry Limited Multiformat digital audio interface
US20130332156A1 (en) 2012-06-11 2013-12-12 Apple Inc. Sensor Fusion to Improve Speech/Audio Processing in a Mobile Device
WO2013188562A2 (en) 2012-06-12 2013-12-19 Audience, Inc. Bandwidth extension via constrained synthesis
US9119012B2 (en) 2012-06-28 2015-08-25 Broadcom Corporation Loudspeaker beamforming for personal audio focal points
US9584642B2 (en) * 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
US8775128B2 (en) 2012-11-07 2014-07-08 Sensor Platforms, Inc. Selecting feature types to extract based on pre-classification of sensor measurements
US20140181715A1 (en) 2012-12-26 2014-06-26 Microsoft Corporation Dynamic user interfaces adapted to inferred user contexts
US9031573B2 (en) 2012-12-31 2015-05-12 Qualcomm Incorporated Context-based parameter maps for position determination
CN104335600B (zh) 2013-02-25 2017-08-08 展讯通信(上海)有限公司 多麦克风移动装置中检测及切换降噪模式的方法

Also Published As

Publication number Publication date
WO2016123560A1 (en) 2016-08-04
DE112016000545B4 (de) 2019-08-22
US9668048B2 (en) 2017-05-30
CN107210824A (zh) 2017-09-26
US20160227336A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
DE112016000545B4 (de) Kontextabhängiges schalten von mikrofonen
DE112015004185T5 (de) Systeme und Verfahren zur Wiederherstellung von Sprachkomponenten
DE112016000287T5 (de) Verwendung von digitalen Mikrofonen zur Niedrigleistung-Schlüsselworterkennung und Rauschunterdrückung
DE102014225808B4 (de) Bluetooth-Kopplungs-System und Verfahren
DE112013002838B4 (de) Abstimmen der Audio-Beamforming-Einstellungen auf der Grundlage des Systemzustands
DE102016118680B4 (de) Situationsabhängiges Aufheben eines Weckwortes zum Aktivieren einer Sprachbefehlseingabe
DE112016006133B4 (de) Verfahren und System zur Bereitstellung von Umgebungswahrnehmung
US20140112496A1 (en) Microphone placement for noise cancellation in vehicles
DE112015003945T5 (de) Mehrquellen-Rauschunterdrückung
DE112017002299T5 (de) Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen
DE102017116528B4 (de) Verfahren und Vorrichtung zur Audiosignal-Qualitätsverbesserung basierend auf quantitativer SNR-Analyse und adaptiver Wiener-Filterung
DE102016109561B4 (de) Bestimmung eines Geräts, an dem das Audiomaterial einer Telefonkommunikation vorzulegen ist
DE102014117344A1 (de) Gerät und Verfahren zum Empfangen einer Eingabe und Darstellen als Antwort eine Ausgabe auf einem von dem ersten Gerät unterschiedlichen zweiten Gerät
DE102015110935A1 (de) Adaptive Fahrzeugzustandsbasierte Freisprechtelefon-Geräuschreduktion mit Lernfähigkeit
DE112016006126T5 (de) Okklusionsreduzierung und Rauschunterdrückung auf der Grundlage einer Dichtqualität
DE102018109937A1 (de) Aktive Tondesensibilisierung für tonale Geräusche in einem Fahrzeug
DE112014003337T5 (de) Sprachsignaltrennung und Synthese basierend auf auditorischer Szenenanalyse und Sprachmodellierung
DE112012005643T5 (de) Kontextwahrnehmung für Computervorrichtungen
DE102015111400A1 (de) Fahrzeugzustandsbasierte Freisprechtelefon-Geräuschreduktion mit Lernfähigkeit
DE102015118553A1 (de) Systeme und Verfahren zum Auswählen von Audiofiltermethoden
DE112012001174T5 (de) Verbessern von Fahrzeug-Infotainmentsystemen durch Hinzufügen von Fernsensoren von einer tragbaren Einrichtung
DE112018002871T5 (de) System und verfahren zur audiomustererkennung
DE102018124769A1 (de) Systeme, Vorrichtungen und Verfahren zur Drohnenaudiogeräuschreduzierung
EP4102499A1 (de) Aufwachprüfverfahren und -gerät, elektronisches gerät und lesbares speichermedium
DE102015117380A1 (de) Selektive Geräuschunterdrückung während automatischer Spracherkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee