DE60208223T2 - Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells - Google Patents

Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells Download PDF

Info

Publication number
DE60208223T2
DE60208223T2 DE60208223T DE60208223T DE60208223T2 DE 60208223 T2 DE60208223 T2 DE 60208223T2 DE 60208223 T DE60208223 T DE 60208223T DE 60208223 T DE60208223 T DE 60208223T DE 60208223 T2 DE60208223 T2 DE 60208223T2
Authority
DE
Germany
Prior art keywords
unknown
classifying
class
classifier
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60208223T
Other languages
English (en)
Other versions
DE60208223D1 (de
Inventor
V. R. Srinivas GUTTA
Vasanth Philomin
Miroslav Trajkovic
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE60208223D1 publication Critical patent/DE60208223D1/de
Publication of DE60208223T2 publication Critical patent/DE60208223T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Description

  • Die vorliegende Erfindung bezieht sich auf Gesichtserkennungssysteme und insbesondere auf ein System und ein Verfahren zum Durchführen von Gesichtserkennung unter Verwendung von Verhältnissen des gelernten Modells.
  • Bestehende Gesichtserkennungssysteme versuchen ein unbekanntes Gesicht dadurch zu erkennen, dass es mit vorherigen Exemplaren des Gesichtes dieses Subjektes verglichen wird. Dies geschieht typischerweise dadurch, dass ein Klassifizierer gegenüber vorherigen Exemplaren des Gesichtes eines Subjektes trainiert wird und dass danach der trainierte Klassifizierer das Subjekt dadurch erkennt, dass es mit neunen Exemplaren des Gesichtes dieses Subjektes verglichen wird. Bekanntlich erfordert das Trainieren eines Klassifizierers das Lernen eines Modells des Gesichtes des Subjektes. Bestehende Systeme benutzen das ganze Modell während der Klassifizierung.
  • Während das schlussendliche Ziel des Entwurfs eines Mustererkennungssystems ist, die möglichst beste (vorhersagbare) Klassifizierungsleistung zu erreichen, hat diese Aufgabe bisher zu der Entwicklung verschiedener Klassifizierungsschemen für ein zu lösendes Mustererkennungsproblem geführt. Die Ergebnisse einer versuchsweise durchgeführten Beurteilung der verschiedenen Entwürfe wäre dann die Basis einen der Klassifizierer als eine Endlösung des Problems zu wählen (Modellselektion). Es hat sich bei derartigen Entwurfsstudien herausgestellt, dass obschon einer der Entwürfe die beste Leistung ergeben würde, die Sätze mit von den verschiedenen Klassifizierern falsch klassifizierten Mustern einander nicht notwendigerweise überlappen, wie von Kittler J, Hatef, H und Duin R.P. W. in dem bezugsmaterial mit dem Titel: "Combining Classifiers in Proceedings of the 13th International Conference on pattern Recognition" Heft II, Seiten 897-901, Wien, Österreich 1996 erkannt. Dieses Material schlug vor, dass verschiedene Entwürfe von Klassifizierern eventuell komplementäre Information über die zu klassifizierenden Muster boten, die angeschirrt werden könnten um die Gesamtleistung zu verbessern.
  • Es war in der Anwendung von neuralen Netzwerken üblich, viele verschiedene Kandidatnetzwerke zu trainieren und dann das beste zu selektieren, und zwar auf Basis beispielsweise der Leistung bei einem unabhängigen Bewertungssatz und nur dieses Netzwerk beizubehalten und den Rest weg zu werfen. Es gibt zwei Nachteile bei einer der artigen Annäherung. Erstens ist die ganze Anstrengung beim Training der restlichen Netzwerk Verschwendung. Zweitens hat die Verallgemeinerungsleistung bei dem Bewertungssatz einen beliebigen Anteil, und zwar wegen der Störung in den Daten, und folglich könnte es sein dass das Netzwerk mit der besten Leistung in dem Bewertungssatz nicht das Netzwerk ist, das die beste Leistung bei neuen oder nicht gesehenen Daten hat. Diese Nachteile können dadurch überwunden werden, dass die Netzwerke kombiniert werden um einen Ausschuss von Netzwerken zu bilden. Die Bedeutung einer derartigen Annäherung ist, dass dies zu einer wesentlichen Verbesserung der Vorhersage bei neunen Daten führen kann, während dazu wenig zusätzlicher Rechenaufwand erforderlich ist. Im Wesentlichen kann die Leistung eines Ausschusses besser sein als die Leistung des besten einzelnen Netzwerkes, das isoliert verwendet wird, wie von Bishop C.M. in dem Bezugsmaterial mit dem Titel: "Neural Networks for Pattern Recognition", Oxford Press, Oxford UK, Seiten 364-377, 1997 erkannt.
  • Um Gesichter zu erkennen, haben Erkennungssysteme viele Klassifizierer benutzt, die auf Profile eines einzelnen Gesichtes trainiert waren. Bei der Präsentation eines Testers (Testbild) wird der Tester mit jedem gelernten Modell zusammengebracht und die von jedem Klassifizierer erhaltenen Ergebnisse werden benutzt um eine übereinstimmende Entscheidung zu treffen. Ein wesentlicher Nachteil des Trainings vieler Klassifizierer ist, dass viel Zeit und Raum verschwendet wird beim Training und bei der Speicherung der Modelldateien.
  • Es wäre sehr erwünscht, ein Gesichtserkennungssystem und eine Methodologie zu schaffen, wobei stattdessen, dass es viele Klassifizierer gibt, die auf mehrere Profile eines einzelnen Gesichtes trainiert werden, einen einzigen Klassifizierer gibt, der auf entweder eine Vorderansicht eines Gesichtes oder auf mehrere Profile eines Gesichtes einer Person trainiert ist.
  • Es wäre weiterhin sehr erwünscht, ein Gesichtserkennungssystem und ein Verfahren zu schaffen, wobei Teile eines Modells eines Subjektes implementiert und benutzt wird um mit verschiedenen Teilen des Gesichtes einer Person verglichen zu werden. Das heißt, beim testen wird ein unbekanntes Gesichtsbild dadurch identifiziert, dass verschiedene Teile des gelernten Modells mit dem unbekannten Gesichtsbild verglichen werden.
  • Auf entsprechende Art und Weise ist es nun u. a. eine Aufgabe der vorliegenden Erfindung, ein System und ein Verfahren zu schaffen, wobei ein Klassifizierer (beispielsweise RBF Netzwerke) implementiert wird, der trainiert werden kann, entweder eine Vorderansicht eines Gesichtes oder mehrere Profile eines Gesichtes einer Person zu erkennen.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein Gesichtserkennungssystem und ein Verfahren zu schaffen, wobei eine einzige Klassifizieranordnung implementiert wird, die auf ein Frontalprofil des Gesichtes einer Person trainiert ist und beim Testen ein unbekanntes Testbild nimmt und dies unter Verwendung verschiedener Teile mit dem gelernten Modell vergleicht.
  • Vorzugsweise wird nach dem Vergleich mit jedem Teil eine Übereinstimmungswahrscheinlichkeit ermittelt und die Ergebnisse werden danach kombiniert zum Erzielen einer übereinstimmenden Entscheidung. So wird beispielsweise jeder klassifizierte Teil ein Wahlresultat ergeben. Das heißt, wenn zehn (10) Teile verwendet werden, würden 10 Ergebnisse erhalten. Danach wird eine einfache Abstimmregel angewandt (beispielsweise wenn sechs (6) von zehn (10) für "A" sind, dann ist die Identität der Person "A") um die Identität des Individuums zu bestätigen.
  • Nach den Grundlagen der vorliegenden Erfindung wird ein System und ein Verfahren zum Klassifizieren von Gesichtsbilddaten geschaffen, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: das Trainieren einer Klassifizieranordnung zum Erkennen eines oder mehrerer Gesichtsbilder und zum Erhalten entsprechender gelernter Modelle der zur Training verwendeten Gesichtsbilder; das Eingeben eines Vektors mit Daten, die einen Teil eines unbekannten zu erkennenden Gesichtsbildes darstellen, in die genannte Klassifizieranordnung; das Klassifizieren des genannten Teils des genannten unbekannten Gesichts entsprechend einem Klassifizierungsverfahren; das Wiederholen des Eingabeschrittes und des Klassifizierschrittes unter Verwendung eines anderen Teils des genannten unbekannten Gesichtsbildes bei jeder Wiederholung; und das Identifizieren eines einfachen Klassenergebnisses von den genannten verschiedenen Teilen, die in den genannten Klassifizierer eingegeben worden sind.
  • Auf vorteilhafte Weise dürfte es einleuchten, obschon ein RBF-Klassifizierer verwendet wird, dass auch andere Verfahren angewandt werden könnten, einschließlich Kombinationen von mehreren wahrscheinlichen/zufälligen Verfahren.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 eine allgemeine Darstellung der Architektur eines herkömmlichen dreischichtigen Backpropagation-Netzwerkes 10, entsprechend dem ein RBF-Netzwerk, implementiert nach den Grundlagen der vorliegenden Erfindung, strukturiert ist,
  • 2 eine Darstellung eines Mustersatzes von Gesichtsbildern, die dem Netzwerk zugeführt wurden.
  • Zwecks der Beschreibung ist ein RBF-Klassifizierer ("Radial Basis Function") implementiert worden, obschon jede beliebige Klassifizierungsmethode/Anordnung implementiert werden kann. Eine Beschreibung einer RBF-Klassifizieranordnung ist aus der ebenfalls von der Anmelderin eingereichten US Patentanmeldung Nr. 09/794.443, veröffentlicht unter der Nummer 02065267 mit dem Titel: "Classification of objects through model ensembles", eingereicht am 27. Februar 2001 bekannt.
  • Die Konstruktion eines RBF-Netzwerkes, wie in der ebenfalls von der Anmelderin eingereichten US Patentanmeldung Nr. 09/794.443, beschrieben, wird nun anhand der 1 näher beschrieben. Wie in 1 dargestellt, ist der Basisklassifizierer 10 des RBF-Netzwerkes entsprechend einem herkömmlichen dreischichtigen Backpropagation-Netzwerk 10, das eine erste Eingabeschicht 12 aufweist, bestehend aus Quellenknotenpunkten (beispielsweise, k Abtasteinheiten); eine zweite oder versteckte Schicht 14 mit i Knotenpunkten, deren Funktion es ist, die Daten zu gruppieren und die Räumlichkeit zu reduzieren; und eine dritte oder Ausgangsschicht 18 mit j Knotenpunkten, deren Funktion es ist, die Reaktionen 20 des Netzwerkes 10 auf die Aktivierungsmuster zu liefern, die auf die Eingabeschicht 12 angewandt werden. Die Transformation von dem Eingaberaum zu dem versteckten Raum ist nicht linear, während die Transformation von dem versteckten-Einheitraum zu dem Ausgangsraum linear ist. Insbesondere, wie anhand des Artikels von C.M. Bishop "Neural Networks for Pattern Recognition", Clarendon Press, Oxford, 1997 beschrieben, kann ein RBF Klassifiziernetzwerk 10 auf zweierlei Weise gesehen werden:
    • 1) zum Interpretieren des RBF Klassifizierers als einen Satz von Kernfunktionen, die Eingangsvektoren in einen hochdimensionalen Raum expandieren, damit der Vorteil der mathematischen Tatsache erhalten wird, dass es wahrscheinlicher ist, dass ein Klassifikationsproblem in einem hochdimensionalen Raum linear getrennt werden kann als ein Problem in einem niedrigdimensionalen Raum; und
    • 2) zum Interpretieren des RBF Klassifizierers als eine Funkfionsabbildungsinterpolationsmethode, die versucht Hypersurfaces zu konstruieren, eine für jede Klasse, und zwar dadurch, dass die linear Kombination der Basisfunktionen (BF) genommen wird. Diese Hypersurfaces können als diskriminierende Funktionen gesehen werden, wobei die Oberfläche einen hohen Wert hat für die Klasse, die sie darstellt und einen niedrigen Wert für alle anderen. Ein unbekannter Eingangsvektor wird als zu der Klasse gehörend klassifiziert, die mit der Hypersurface mit dem größten Ausgang an diesem Punkt assoziiert ist. in diesem Fall dienen die BFs nicht als eine Basis für einen hochdimensionalen Raum, sondern als Komponenten in einer endlichen Expansion der gewünschten Hypersurface, wo die zusammensetzenden Koeffizienten (die Gewichtungen) trainiert werden müssen.
  • Weiterhin haben in der 1 der RBF Klassifizierer 10, die Verbindungen 22 zwischen der Eingangsschicht 12 und der versteckten Schicht 14 einfache Gewichtungen, wodurch sie nicht trainiert zu werden brauchen. Die Knotenpunkte in der versteckten Schicht 14, d.h. die als Basisfunktionsknotenpunkte (BF) bezeichnet, haben eine Gaußsche Impulsnichtlinearität, spezifiziert durch einen bestimmte Mittelvektor μi (d.h. zentraler Parameter) und einen Varianzvektor σ 2 / i (d.h. Breitenparameter), wobei i = 1, ...., F ist und F die Anzahl BF Knotenpunkte ist. Es sei bemerkt, dass σ 2 / i die diagonalen Eingaben der Kovarianzmatrix des Gaußschen Impulses (i) darstellt. Wenn ein D-dimensionaler Eingangsvektor X gegeben ist, liefert jeder BF Knotenpunkt (i) einen skalaren Wert yi, der die Aktivierung der BF darstellt, verursacht durch diesen Eingang, wie durch die Gleichung (1) wie folgt dargestellt:
    Figure 00050001
  • Wenn h eine Proportionalitätskonstante für die Varianz ist, ist xk die k. Komponente des Eingangsvektors X = [x1, x2, ..., xD], und μik und σ 2 / i sind die k. Komponenten des mittleren bzw. Varianzvektors des Basisknotenpunktes (i). Eingaben, die nahe bei der Mitte der Gaußschen Funktion liegen, führen zu höheren Aktivierungen, während diejenigen, die weiter weg liegen, zu niedrigeren Aktivierungen führen. Da jeder Ausgangsknotenpunkt 18 des RBF Netzwerkes eine lineare Kombination der BF Knotenpunktaktivierungen bildet, ist der Teil des Netzwerkes, der die zweite (versteckte) und die Ausgangsschichten miteinander verbindet, wie durch die Gleichung (2) dargestellt, wie folgt:
    Figure 00060001
    wobei zj der Ausgang des j. Ausgangsknotenpunktes ist, wobei yi die Aktivierung des i. BF Knotenpunktes ist, wobei wij die Gewichtung 24 ist, die den i. BF Knotenpunkt mit dem j. Ausgangsknotenpunkt verbindet, und wobei woj die Vorspannung oder die Schwelle des j. Ausgangsknotenpunktes ist. Diese Vorspannung rührt von den Gewichtungen her, die mit einem BF Knotenpunkt assoziiert sind, der einen konstanten einfachen Ausgang hat, ungeachtet des Eingangs.
  • Ein unbekannter Vektor X wird klassifiziert als zu der Klasse gehörend, die mit dem Ausgangsknotenpunkt j mit dem größten Ausgang zj assoziiert ist. Die Gewichtungen wij in dem linearen Netzwerk werden unter Anwendung iterativer Minimierungsverfahren, wie Gradientenabfall nicht gelöst. Sie werden schnell und genau unter Anwendung einer pseudoinversen Matrixtechnik, wie in dem oben genannten Bezugsmaterial von C.M. Bishop "Neural Networks for Pattern Recognition", Clarendon Press, Oxford, 1997 beschrieben.
  • Eine detaillierte Algorithmusbeschreibung des bevorzugter RBF Klassifizierers, der in der vorliegenden Erfindung implementiert werden kann, ist hierin in den Tabellen 1 und 2 vorgesehen. Wie in der Tabelle 1 dargestellt, wird die Größe des RBF Netzwerkes 10 durch Selektion von F, der Anzahl BF Knotenpunke, bestimmt. Der geeignete Wert von F ist problemspezifisch und ist meistens von der Dimensionalität des Problems und der Komplexität der zu bildenden Entscheidungsgebiete abhängig. Im Allgemeinen kann F empirisch dadurch bestimmt werden, dass eine Varietät von Fs versucht wird, oder F kann auf eine bestimmte konstante Zahl gesetzt werden, die meistens größer ist als die Eingangsgröße des Problems. Nachdem F eingestellt ist, können der mittlere μI und der Varianzvektor σ 2 / i der BFs unter Anwendung einer Anzahl Methoden bestimmt werden. Sie können zusammen mit den Ausgangsgewichtungen trainiert werden, und zwar unter Anwendung einer Backpropagation-Abfalltechnik, dies erfordert aber meistens eine lange Trainingszeit und kann zu suboptimalen örtlichen Minima führen. Auf alternative Weise können die Mittel und die Varianzen vor dem Training der Ausgangsgewichtungen bestimmt werden. Training der Netzwerke würde dann nur eine Bestimmung der Gewichtungen erfordern.
  • Die BF Mittel (Mitten) und Varianzen (Breiten) werden normalerweise derart gewählt, dass sie den betreffenden Raum bedecken. Es können verschiedene bekannte Techniken angewandt werden: so implementiert eine bestimmte Technik beispielsweise ein Gitter in gleichen Abständen voneinander liegender BFs, die den Eingangsraum abtasten; eine andere Technik implementiert einen Gruppierungsalgorithmus, wie k-Mittel zum bestimmen des Satzes mit BF Zentren; andere Techniken implementieren gewählte beliebige Vektoren aus dem Trainingssatz als BF Zentren, wobei sicher gestellt wird, dass jede Klasse dargestellt wird.
  • Wenn die BF Zentren oder Mittel einmal bestimmt worden sind, können die BF Varianzen oder Breiten σ 2 / i eingestellt werden. Sie können auf einen globalen Wert festgelegt oder derart eingestellt werden, dass sie die Dichte der Datenvektoren in der Nähe des BF Zentrums reflektieren. Außerdem wird ein globaler Proportionalitätsfaktor H für die Varianzen eingeschlossen, damit eine Neuskalierung der BF Breiten ermöglicht wird. Dadurch, dass der Raum von H für Werte, die zu einer guten Leistung führen, gesucht wird, wird der geeignete Wert bestimmt.
  • Nachdem die BF Parameter eingestellt sind, ist der nächste Schritt das Training der Ausgangsgewichtungen wij in dem linearen Netzwerk. Einzelne Trainingsmuster X(p) und deren Klassenanhänger C(p) werden dem Klassifizierer präsentiert und die resultierenden BF Knotenpunktausgänge yI(p) werden berechnet. Diese und gewünschte Ausgänge dj(p) werden danach benutzt um die F × F Korrelationsmatrix "R" und die F × M Ausgangsmatrix "B" zu bestimmen. Es sei bemerkt, dass jedes Trainingsmuster eine R und eine B Matrix erzeugt. Die endgültigen R und B Matrizen sind das Ergebnis der Summe von N einzelnen R und M Matrizen, wobei N die gesamte Anzahl Trainingsmuster ist. Wenn alle N Muster dem Klassifizierer präsentiert worden sind, werden die Ausgangsgewichtungen wij bestimmt. Die endgültige Korrelationsmatrix R wird invertiert und wird zum bestimmen von jedem wij benutzt.
  • Figure 00080001
    Tabelle 1
  • Wie in der Tabelle 2 dargestellt, erfolgt die Klassifizierung durch Präsentation eines unbekannten Eingangsvektors Xtest zu dem trainierten Klassifizierer und durch Berechnung der resultierenden BF Knotenpunktausgänge yi. Diese Werte werden danach zusammen mit den Gewichtungen wij verwendet um die Ausgangswerte zj zu berechnen. Der Eingangsvektor Xtest wird danach als zu der Klasse gehörend, die mit dem Ausgangsknotenpunkt j mit dem größten zj Ausgang assoziiert ist.
  • Figure 00090001
    Tabelle 2
  • Bei dem Verfahren nach der vorliegenden Erfindung besteht der RBF Eingang aus auf n-Größe normalisierten Grauskala-Gesichtsbildern, die dem Netzwerk als eindimensional zugeführt werden, d.h. als 1-D Vektoren. Die versteckte (nicht überwachte) Schicht 14 implementiert eine "verbesserte" k-Mittelgruppierungsprozedur, wie die beschrieben worden ist in dem Artikel von S. Gutta J. Huang, P. Jonathon und H. Wechsler: "Mixture of Experts for Classification of Gender, Etnic, Origin and Pose of Human Faces", IEEE Transaction on Neural Networks" 11 (4):948-960, Juli 2000, wobei die Anzahl Gaußschen Gruppenknotenpunkte und deren Varianzen dynamisch eingestellt werden. Die Anzahl Gruppen kann variieren, in Fünferschritten, beispielsweise von 1/5 der Anzahl Trainingsbilder bis N, die gesamte Anzahl Trainingsbilder. Die Größe σ der Gaußschen für jede Gruppe wird auf Maximum gesetzt (den Abstand zwischen der Mitte der Gruppe und dem am weitesten entfernt liegenden Mitglied innerhalb des Klassendurchmesser, den Ab stand zwischen der Mitte der Gruppe und dem am nächsten liegenden Muster von allen andern Mustern) multipliziert mit einem Überlappungsfaktor o, hier gleich 2. Die Größe wird weiterhin dynamisch verfeinert, und zwar unter Verwendung verschiedener Proportionalitätskonstanten h. Die versteckte Schicht 14 ergibt das Äquivalent einer funktionellen Formbasis, wobei jeder Gruppenknotenpunkt einige gemeinsame Kennzeichen über den Formraum codiert. Die Ausgangsschicht (überwacht) bildet Gesichtscodierungen (Expansionen) in einem derartigen Raum zu den entsprechenden ID Klassen ab und findet die entsprechende Expansionskoeffizienten (Gewichtung) unter Anwendung von Pseudoinvertierten Techniken. Es sei bemerkt, dass die Anzahl Gruppen für diese Konfiguration gestoppt wurde (Anzahl Gruppen und spezifische Proportionalitätskonstante h), was 100% Genauigkeit bei der ID Klassifizierung gibt, wenn an denselben Trainingsbildern getestet.
  • Nach der vorliegenden Erfindung sind die Eingangsvektoren, die zum Training verwendet werden, komplette Gesichtsbilder, beispielsweise die Gesichtsbilder 30 aus 2, die je beispielsweise 64 × 72 Pixel enthalten. Nach der vorliegenden Erfindung wird eine einziger Klassifizierer (RBF Netzwerk) 10 mit diesen kompletten Bildern trainiert. Aber während des wirklichen Testvorgangs werden verschiedene Teile des Testbildes mit verschiedenen Teilen des Modells verglichen. So ist beispielsweise der Schritt 2 des in der Tabelle 2 dargestellten Klassifizierungsalgorithmus ein iterativer Prozess, der eine Subtrahierung des unbekannten Testbildes von einem anderen Teil des gelernten Modells in jeder Iteration durchführt. Das Training ist, dass bei der ersten Wiederholung an einem kompletten Gesicht ein komplettes Bild und ein Xtest (komplettes Bild) eingegeben werden. Es wird dann ein erstes Ausgangsergebnis erhalten, das ein Vertrauensmaß (Wahrscheinlichkeitsmaß) umfasst, beispielsweise wie in dem Schritt 2(c) in der Tabelle 2 dargestellt, mit einem Wert zwischen 0 und 1, und einen Anhänger, der den Klassenanhänger (gelerntes Modell) identifiziert. Bei jeder Wiederholung werden drei Schritte wiederholt, wobei jedes Mal ein anderer Prozentsatz des Bildes verwendet wird, d.h. Teile des gelernten Modells. So kann beispielsweise in einer nächsten Wiederholung ein kleinerer Teil des unbekannten Bildes, beispielsweise 90% verwendet werden, dies im Vergleich zu den entsprechenden 90% des gelernten Modellbildes für jede Klasse, usw. Durch jeden Vergleich wird ein weiteres Vertrauensmaß (Wahrscheinlichkeit) und ein Anhänger, der die Klasse (gelerntes Modell) identifiziert durch die Klassifizieranordnung bestimmt. Auf diese Weise befindet sich, wie in der Tabelle 2 angegeben, das Ganze des Schrittes 2(a) in einer Schleife, wobei der Prozess viele Male wiederholt wird, und zwar je nach der Anzahl gewünschter Teile. So können beispielsweise je nach Selektion eines Benutzers die verwendeten Xtest Bildteile von maximal (beispielsweise 100% des kompletten Bildes) bis minimal (beispielsweise 50% des kompletten Bildes reichen mit einem 10% oder 5% Teilreduktion bei jeder Wiederholung. Wie in der ebenfalls von der Anmelderin eingereichten US Patentanmeldung Nr. 09/966436, veröffentlicht als US02001/966436 mit dem Titel "System and method of face recognition through ½ faces" wenn das minimale Bild verwendet wird, d.h. 50%, ist es unbedingt erforderlich, dass wenigstens ein Auge, eine halbe Nase und ein halber Mund des Gesichtsbildes eingefangen wird, beispielsweise ein vertikaler Teil des Bildes. Die Körnigkeit der Teilreduktion bei jeder Wiederholung kann eine vom Benutzer selektierbare Option sein und kann davon abhängig sein, wie gut die Daten sind sowie von den Rechenkosten. Es sei bemerkt, dass es zwischen der Leistung und den Kosten ein Kompromiss gibt. So ist beispielsweise je nach dem erwünschten Sicherheitspegel, d.h. je sicherer die Applikation, umso feinere Körnigkeit der Teilreduktion bei jeder Wiederholung und umso größer die Anzahl Vergleiche zu mehr Kosten durchgeführt werden müssen. Für den Fall von 100% bis 50% in 10% Bildreduktionsteilen bei jedem Schritt werden insgesamt sechs (6) Vertrauensergebnisse und Klassenanhänger geschaffen, wobei bei 5% Bildreduktionsteilen bei jedem Schritt insgesamt zwölf (12) für jede Klasse entstehen. Nachdem die Ergebnisse akkumuliert worden sind, können Regeln angewandet werden um die Klasse für dieses Testbild zu bestimmen. So können beispielsweise die Ergebnisse kombiniert werden um zu einer übereinstimmenden Entscheidung zu gelangen. Eine einfache Klasse kann aber Hauptregel sein, anspruchsvollere Regeln können aber auch angewandt werden, beispielsweise wie in dem Bezugsmaterial von J. Kittler, M.Hateg, und R.P.W. Duin mit dem Titel: "Combining Classifiers", "Proc. Of the 13th International Conference on Pattern Recognition, II" 897-901, Wien, Österreich, August 1996 beschrieben. So wird beispielsweise jeder klassifizierte Teil eine Bewertung erzeugen und wenn zehn (10) Teile verwendet werden, werden 10 Bewertungen erhalten. Danach wird eine einfache Hauptentscheidungsregel angewandt (beispielsweise wenn sechs (6) von zehn (10) für "A" sind, dass ist die Identität des Subjektes "A"), um die Identität der Person (Klasse) zu bestätigen. In Reaktionen darauf werden viele Bewertungen erzeugt und in dem Klassifizierer ist, wie in 1 dargestellt, eine Selektionsanordnung 28 mit Logik versehen zum Anwenden von Bewertungsregeln zum Erzielen einer geeigneten Entscheidung.
  • Während dargestellt und beschrieben worden ist, was als bevorzugte Ausführungsformen der vorliegenden Erfindung betrachtet wird, dürfte es selbstverständlich einleuchten, dass mehrere Modifikationen und Änderungen in Form und Einzelheit im Rahmen der vorliegenden Erfindung durchgeführt werden können. Deswegen beschränkt sich die vorliegende Erfindung nicht auf die exakt beschriebenen und dargestellten Formen, sondern sie soll alle Modifikationen decken, die in den Rahmen der beiliegenden Patentansprüche fallen.
  • Text in der Zeichnung
  • 1
    • Selektion des Maximums
    • Lineare Gewichtungen
    • Ausgangsknotenpunkte
    • Basisknotenpunkte einfache Gewichtungen
    • Eingangsknotenpunkte

Claims (13)

  1. Verfahren zum Klassifizieren von Gesichtsbilddaten, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: a) das Trainieren einer Klassifizieranordnung (10) zum Erkennen eines oder mehrerer Gesichtsbilder und zum Erhalten entsprechender gelernter Modelle der zur Training verwendeten Gesichtsbilder; b) das Eingeben eines Vektors mit Daten, die einen Teil eines unbekannten zu erkennenden Gesichtsbildes darstellen, in die genannte Klassifizieranordnung (10), c) das Klassifizieren des genannten Teils des genannten unbekannten Gesichts entsprechend einem Klassifizierungsverfahren, d) das Wiederholen des Schrittes b) und c) unter Verwendung eines anderen Teils des genannten unbekannten Gesichtsbildes bei jeder Wiederholung; und e) das Identifizieren (28) eines einfachen Klassenergebnisses von den genannten verschiedenen Teilen, die in den genannten Klassifizierer eingegeben worden sind.
  2. Verfahren nach Anspruch 1, wobei der genannte Klassifizierungsschritt (c) Folgendes umfasst: – bei jeder Wiederholung, das Vergleichen eines Teils des unbekannten Gesichtes mit einem entsprechenden Teil des gelernten Modellbildes für jede Klasse; und – das Erhalten einer Vertrauensauswertung für jeden klassifizierten Teil.
  3. Verfahren nach Anspruch 2, wobei der genannte Klassifizierungsschritt e) das Anwenden einer Regel auf die genannten Vertrauensauswertungen zum Erhalten des genannten einzelnen Klassenergebnisses umfasst.
  4. Verfahren nach Anspruch 2, wobei die genannte Vertrauensauswertung ein Wahrscheinlichkeitsmaß ist, dass ein aktueller Teil eines unbekannten Gesichtsbildes mit einer Klasse identifiziert ist, wobei die angewandte Regel das Erhalten einer Klasse umfasst, die eine Vielheit von Klassenbezeichnungen hat, ermittelt für jedes unbekannte Ge sichtsbild.
  5. Verfahren nach Anspruch 2, wobei der genannte Klassifizierungsschritt c) Folgendes umfasst: das Abnehmen, bei jeder Wiederholung, des Teils des unbekannten Bildes, das getestet werden soll, und das Vergleichen des abgenommenen Teils des unbekannten Bildes mit einem entsprechenden abgenommenen Teil des gelernten Modellbildes für jede Klasse.
  6. Verfahren nach Anspruch 5, wobei mit gleichen Minderungsstufen die genannten Teile von 100% des unbekannten Gesichtsbildes auf 50% des unbekannten Gesichtsbildes reduziert werden.
  7. Verfahren nach Anspruch 1, wobei ein radiales Basisfunktionsnetzwerk (10) zum Training und zur Klassifizierung jedes Teils implementiert wird.
  8. Verfahren nach Anspruch 7, wobei der genannte Trainingsschritt Folgendes umfasst: (a) das Initialisieren des radialen Basisfunktionsnetzwerkes, wobei der Initialisierungsschritt die nachfolgenden Schritte umfasst: – das Fixieren der Netzwerkstruktur durch Selektion einer Anzahl Basisfunktionen F, wobei jede Basisfunktion I den Ausgang einer Gaußschen Nicht-Linearität hat, – das Ermitteln der Basisfunktionsmittel μI, wobei I = 1, ..., F ist, und zwar unter Verwendung eines K-Mittel Gruppierungsalgorithmus, – das Ermitteln der Basisfunktionsvarianzen σ 2 / I; und – das Ermitteln eines globalen Proportionalitätsfaktors H, für die Basisfunktionsvarianzen durch empirische Suche; (b) das Präsentieren des Trainings, wobei der Präsentationsschritt die nachfolgenden Schritte umfasst: – das Eingeben von Trainingsmustern X(p) und der Klassenbezeichnungen C(p) un das Klassifizierungsverfahren, wobei der Musterindex p = 1, ..., N ist, – das Berechnen des Ausgang der Basisfunktionsknotenpunkte y1(p), F, herrührend von dem Muster X(p), – das Berechnen der F × F Korrelationsmatrix R der Basisfunktionsausgänge; und – das Berechnen der F × M Ausgangsmatrix B, wobei dj der gewünschte Ausgang ist und M die Anzahl Ausgangsklassen ist und j = 1, ..., M ist, und (c) das Ermitteln von Gewichtungen (24), wobei der Ermittlungsschritt die nachfolgenden Schritte umfasst: – das Invertieren der F × F Matrix R um R–1 zu erhalten; und – das Lösen der Gewichtungen in dem Netzwerk.
  9. Verfahren nach Anspruch 8, wobei der Klassifizierungsschritt c) weiterhin Folgendes umfasst: – das Präsentieren jeder Xtest Teils bei jeder Wiederholung zu dem Klassifizierungsverfahren, – das Klassifizieren jedes Xtest durch: * Berechnung der Basisfunktionsausgänge, für alle F Basisfunktionen, * das Berechnen von Ausgangsknotenpunktaktivierungen (20); und * das Selektieren des Ausgangs Zj mit dem größten Wert und Klassifizierung des Xtest Teils als eine Klasse j.
  10. Verfahren nach Anspruch 1, wobei der Klassifizierungsschritt c) das Ausliefern einer Klassenbezeichnung umfasst, die eine Klasse bezeichnet, mit der der detektierte unbekannte Gesichtsbildteil übereinstimmt, und eines Wahrscheinlichkeitswertes, der die Wahrscheinlichkeit angibt, mit der das unbekannte Gesichtsbildmuster zu der Klasse gehört.
  11. Gerät zum Klassifizieren Gesichtsbilddaten, wobei dieses Gerät die nachfolgenden Elemente umfasst: – eine Klassifizierungsanordnung (10) trainiert zum Erkennen eines oder mehrerer Gesichtsbilder und zum Erzeugen entsprechender gelernter Modelle, die mit den Gesichtsbildern assoziiert sind, die zum Training verwendet werden, – Mittel zum wiederholten in den Klassifizierer Eingeben eines Vektors, die je Daten enthalten, die einen Teil eines zu erkennenden unbekannten Gesichtsbildes (30) darstellen, wobei bei jeder Wiederholung ein anderer Bildteil in den Klassifizierer eingegeben wird, wobei die genannte Klassifizieranordnung jeden genannten Teil des genannten unbekannten Gesichtsbildes entsprechend einem Klassifizierungsverfahren klassifiziert; – Mittel zum Identifizieren eines einzigen Klassenergebnisses aus den genannten verschiedenen Teilen, die in den genannten Klassifizierer eingegeben wurden.
  12. Gerät nach Anspruch 11, wobei der genannte Klassifizierer Mechanismen enthält zum Vergleichen eines Teils des unbekannten Bildes mit einem entsprechenden Teil des gelernten Modellbildes für jede Klasse bei jeder Wiederholung; und zum Erhalten einer Vertrauensauswertung für jeden klassifizierten Teil.
  13. Programmspeicheranordnung, auslesbar durch eine Maschine, die greifbar ein Programm von Instruktionen verkörpert, durchführbar durch die Maschine zum Durchführen von Verfahrensschritten zur Klassifizierung von Gesichtsbilddaten, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: a) das Trainieren einer Klassifizieranordnung (10) zum Erkennen eines oder mehrerer Gesichtsbilder und zum Erhalten entsprechender gelernter Modelle der Gesichtsbilder, die zum Trainieren verwendet werden, b) das Eingeben eines Vektors, der Daten enthält, die einen Teil eines unbekannten Gesichtsbildes (30) in den genannten Klassifizierer, c) das Klassifizieren des genannten Teils des genannten unbekannten Gesichtsbildes nach einem Klassifizierungsverfahren, d) das Wiederholen des Schrittes b) und c) unter Verwendung eines anderen Teils des genannten unbekannten Gesichtsbildes bei jeder Wiederholung, und e) das Identifizieren (28) eines einzigen Klassenergebnisses von den genannten verschiedenen Teilen, das in den gekannten Klassifizierer eingegeben wurde.
DE60208223T 2001-09-28 2002-09-10 Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells Expired - Fee Related DE60208223T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US966408 2001-09-28
US09/966,408 US7308133B2 (en) 2001-09-28 2001-09-28 System and method of face recognition using proportions of learned model
PCT/IB2002/003697 WO2003030085A1 (en) 2001-09-28 2002-09-10 System and method of face recognition using portions of learned model

Publications (2)

Publication Number Publication Date
DE60208223D1 DE60208223D1 (de) 2006-01-26
DE60208223T2 true DE60208223T2 (de) 2006-08-10

Family

ID=25511354

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60208223T Expired - Fee Related DE60208223T2 (de) 2001-09-28 2002-09-10 Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells

Country Status (8)

Country Link
US (1) US7308133B2 (de)
EP (1) EP1433118B1 (de)
JP (1) JP2005505062A (de)
KR (1) KR20040037180A (de)
CN (1) CN1276380C (de)
AT (1) ATE313831T1 (de)
DE (1) DE60208223T2 (de)
WO (1) WO2003030085A1 (de)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7389280B2 (en) * 2002-02-22 2008-06-17 Lifecom, Inc. Computer-based intelligence method and apparatus for assessing selected subject-area problems and situations
US7362892B2 (en) * 2003-07-02 2008-04-22 Lockheed Martin Corporation Self-optimizing classifier
TW200539046A (en) * 2004-02-02 2005-12-01 Koninkl Philips Electronics Nv Continuous face recognition with online learning
US7653261B2 (en) * 2004-11-12 2010-01-26 Microsoft Corporation Image tapestry
US7529429B2 (en) 2004-11-12 2009-05-05 Carsten Rother Auto collage
US7532771B2 (en) * 2004-11-12 2009-05-12 Microsoft Corporation Image processing system for digital collage
EP1864245A2 (de) * 2005-03-18 2007-12-12 Philips Intellectual Property & Standards GmbH Verfahren zur durchführung der gesichtserkennung
US20060217925A1 (en) * 2005-03-23 2006-09-28 Taron Maxime G Methods for entity identification
US20060257834A1 (en) * 2005-05-10 2006-11-16 Lee Linda M Quantitative EEG as an identifier of learning modality
EP1921986A4 (de) 2005-09-02 2011-11-30 Emsense Corp Vorrichtung und verfahren zur messung der elektrischen aktivität in gewebe
US7684595B2 (en) * 2006-06-23 2010-03-23 The United States Of America As Represented By The Secretary Of The Navy Method of facial recognition
US8195734B1 (en) 2006-11-27 2012-06-05 The Research Foundation Of State University Of New York Combining multiple clusterings by soft correspondence
US8230457B2 (en) 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
US20090253996A1 (en) * 2007-03-02 2009-10-08 Lee Michael J Integrated Sensor Headset
US20090070798A1 (en) * 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US9215996B2 (en) * 2007-03-02 2015-12-22 The Nielsen Company (Us), Llc Apparatus and method for objectively determining human response to media
US8473044B2 (en) * 2007-03-07 2013-06-25 The Nielsen Company (Us), Llc Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals
US20080221969A1 (en) * 2007-03-07 2008-09-11 Emsense Corporation Method And System For Measuring And Ranking A "Thought" Response To Audiovisual Or Interactive Media, Products Or Activities Using Physiological Signals
US8782681B2 (en) * 2007-03-08 2014-07-15 The Nielsen Company (Us), Llc Method and system for rating media and events in media based on physiological data
US8764652B2 (en) * 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
US7853081B2 (en) * 2007-04-02 2010-12-14 British Telecommunications Public Limited Company Identifying data patterns
KR100886557B1 (ko) 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
KR100870724B1 (ko) * 2007-05-25 2008-11-27 인하대학교 산학협력단 t―test를 이용한 영상 인식시스템 및 그 방법
US8376952B2 (en) * 2007-09-07 2013-02-19 The Nielsen Company (Us), Llc. Method and apparatus for sensing blood oxygen
US8327395B2 (en) 2007-10-02 2012-12-04 The Nielsen Company (Us), Llc System providing actionable insights based on physiological responses from viewers of media
JP2011505175A (ja) 2007-10-31 2011-02-24 エムセンス コーポレイション 視聴者からの生理的反応の分散収集および集中処理を提供するシステムおよび方法
WO2009073634A1 (en) * 2007-11-30 2009-06-11 Emsense Corporation Correlating media instance information with physiological responses from participating subjects
US8347326B2 (en) 2007-12-18 2013-01-01 The Nielsen Company (US) Identifying key media events and modeling causal relationships between key events and reported feelings
KR100981832B1 (ko) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Boosting 알고리즘 및 특징벡터분할 기법을 이용한얼굴특징 선택방법 및 장치
US9405995B2 (en) * 2008-07-14 2016-08-02 Lockheed Martin Corporation Method and apparatus for facial identification
US8213689B2 (en) * 2008-07-14 2012-07-03 Google Inc. Method and system for automated annotation of persons in video content
KR100998842B1 (ko) 2009-02-03 2010-12-06 인하대학교 산학협력단 부스팅 기법을 통한 얼굴 인식 방법 및 장치
JP2010266983A (ja) * 2009-05-13 2010-11-25 Sony Corp 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム
US20110066431A1 (en) * 2009-09-15 2011-03-17 Mediatek Inc. Hand-held input apparatus and input method for inputting data to a remote receiving device
US8498455B2 (en) 2010-06-03 2013-07-30 Microsoft Corporation Scalable face image retrieval
CN102147812A (zh) * 2011-03-31 2011-08-10 中国科学院自动化研究所 基于三维点云模型的地标建筑图像分类方法
KR101130817B1 (ko) * 2011-09-27 2012-04-16 (주)올라웍스 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9235782B1 (en) 2012-12-24 2016-01-12 Google Inc. Searching images and identifying images with similar facial features
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US10127475B1 (en) * 2013-05-31 2018-11-13 Google Llc Classifying images
WO2015078018A1 (en) * 2013-11-30 2015-06-04 Xiaoou Tang Method and system for face image recognition
CN104751198B (zh) 2013-12-27 2018-04-27 华为技术有限公司 图像中的目标物的识别方法及装置
US10043112B2 (en) * 2014-03-07 2018-08-07 Qualcomm Incorporated Photo management
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
BR102014023780B1 (pt) * 2014-09-25 2023-04-18 Universidade Estadual De Campinas - Unicamp (Br/Sp) Método para classificação multiclasse em cenários abertos e usos do mesmo
CN110826530B (zh) * 2014-11-15 2023-06-30 北京旷视科技有限公司 使用机器学习进行面部检测
CN105512679A (zh) * 2015-12-02 2016-04-20 天津大学 一种基于极限学习机的零样本分类方法
CN106650806B (zh) * 2016-12-16 2019-07-26 北京大学深圳研究生院 一种用于行人检测的协同式深度网络模型方法
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
US10706324B2 (en) * 2017-01-19 2020-07-07 Hrl Laboratories, Llc Multi-view embedding with soft-max based compatibility function for zero-shot learning
EP3571627A2 (de) 2017-01-19 2019-11-27 Mindmaze Holding S.A. Systeme, verfahren, vorrichtungen und einrichtungen zur detektion von gesichtsausdrücken und zur verfolgung der bewegung und des standorts mit mindestens einem system für virtuelle und erweiterte realität
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
US20200042825A1 (en) * 2018-08-02 2020-02-06 Veritone, Inc. Neural network orchestration
CN109345515B (zh) * 2018-09-17 2021-08-17 代黎明 样本标签置信度计算方法、装置、设备及模型训练方法
JP7400959B2 (ja) * 2020-05-11 2023-12-19 日本電気株式会社 判定装置、判定方法およびプログラム
KR102436314B1 (ko) 2020-06-25 2022-08-24 정여빈 안면 인식 최적화를 위한 클라우드 시스템
EP4185976A4 (de) * 2020-07-21 2024-01-03 Royal Bank Of Canada Tokenisierung zur gesichtserkennung
KR102612941B1 (ko) 2020-12-24 2023-12-12 주식회사 유인원테크 디지털 합성 안면 및 디지털 위조 안면 검증 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778705B2 (en) * 2001-02-27 2004-08-17 Koninklijke Philips Electronics N.V. Classification of objects through model ensembles

Also Published As

Publication number Publication date
CN1276380C (zh) 2006-09-20
US7308133B2 (en) 2007-12-11
KR20040037180A (ko) 2004-05-04
ATE313831T1 (de) 2006-01-15
EP1433118A1 (de) 2004-06-30
JP2005505062A (ja) 2005-02-17
US20030063780A1 (en) 2003-04-03
WO2003030085A1 (en) 2003-04-10
EP1433118B1 (de) 2005-12-21
CN1559051A (zh) 2004-12-29
DE60208223D1 (de) 2006-01-26

Similar Documents

Publication Publication Date Title
DE60208223T2 (de) Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells
DE69333811T2 (de) Verfahren und Gerät zur Erzeugung und Einstellung eines Neurones
DE60316227T2 (de) Bewertung der Eigenartigkeit eines Dokuments
DE112016006360T5 (de) Verbessern eines lernens einer abstandsmetrik mit einem n-paar-verlust
EP0604476B1 (de) Verfahren zur erkennung von mustern in zeitvarianten messsignalen
DE112018002166T5 (de) Zyklisches gegnerisches Erzeugungsnetz für die unüberwachte domänen-übergreifende Bilderzeugung
DE102006010607A1 (de) Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen
DE102014223226A1 (de) Diskriminator, Unterscheidungsprogramm und Unterscheidungsverfahren
DE102005040306B4 (de) System und Verfahren zur biologischen Datenanalyse unter Verwendung eines Bayes'schen Netzwerks in Verbindung mit einer Support-Vektor Maschine
EP0978088B1 (de) Verfahren und anordnung zur mustererkennung auf statistischer basis
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE112017007492T5 (de) System und Verfahren zur Erfassung von Objekten in einem digitalen Bild und System und Verfahren zur Neubewertung von Objekterfassungen
DE112020005572T5 (de) Tiefe Gesichtserkennung basierend auf Clustern über unbezeichnete Gesichtsdaten
DE112013002654T5 (de) Verfahren zum Klassifizieren von Text
EP3798922A1 (de) Vorrichtung und verfahren zum maschinenlernen und ansteuern einer maschine
DE69333247T2 (de) Trainingsverfahren und Gerät zur Erzeugung eines neues Neurons
DE102021209171A1 (de) System zum wählen eines lernenden modells
DE69828888T2 (de) Sprecherbeweissystem
DE4407998C2 (de) Verfahren und Vorrichtung zur Erkennung eines Musters auf einem Beleg
DE10047718A1 (de) Verfahren zur Spracherkennung
DE19942223A1 (de) Klassifikationsverfahren mit Rückweisungsklasse
DE202022107266U1 (de) Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern
DE69734507T2 (de) Verfahren zur optimierung eines erkennungswörterbuchs, so das ähnliche muster besser unterschieden werden können
EP0965088B1 (de) Sichere identifikation mit vorauswahl und rückweisungsklasse
DE202022104461U1 (de) Syntaxgeleitetes Erkennungssystem für mathematische Termini

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee