DE202010018551U1 - Automatische Bereitstellung von Inhalten, die mit erfassten Informationen, wie etwa in Echtzeit erfassten Informationen, verknüpft sind - Google Patents

Automatische Bereitstellung von Inhalten, die mit erfassten Informationen, wie etwa in Echtzeit erfassten Informationen, verknüpft sind Download PDF

Info

Publication number
DE202010018551U1
DE202010018551U1 DE202010018551.3U DE202010018551U DE202010018551U1 DE 202010018551 U1 DE202010018551 U1 DE 202010018551U1 DE 202010018551 U DE202010018551 U DE 202010018551U DE 202010018551 U1 DE202010018551 U1 DE 202010018551U1
Authority
DE
Germany
Prior art keywords
text
information
document
user
query
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202010018551.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202010018551U1 publication Critical patent/DE202010018551U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/197Version control

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Computerlesbares Medium, dessen Inhalte ein oder mehrere erste Computervorrichtungen, die jeweils einen Prozessor und einen Speicher beinhalten, veranlassen, relevante Informationen bereitzustellen, wobei die Inhalte Folgendes umfassen: die wiederholte automatische Ausführung von folgenden Aktionen durch mindestens eine der einen oder mehreren ersten Computervorrichtungen, während vom Benutzer bereitgestellter Text empfangen wird: Überwachen (510) des empfangenen Textes; Auswählen (515) von einem Teil des Textes; Erstellen (520) einer Abfrage basierend auf mindestens einem Teil des ausgewählten Teils des Textes; Auswählen (525) von mindestens einem Index für die Suche; Übermitteln (530), ohne spezifische Aufforderung zur Übermittlung durch den Benutzer, der Abfrage an mindestens eine von einer oder mehreren zweiten Computervorrichtungen, die basierend auf mindestens einem Teil des ausgewählten Index ausgewählt wurden; Empfangen (535) von Informationen, die relevant für die Abfrage sind, von mindestens einer der einen oder mehreren zweiten Computervorrichtungen; und Anzeigen (540) der relevanten Informationen durch mindestens eine der einen oder mehreren ersten Computervorrichtungen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht Priorität gegenüber der vorläufigen US-Patentanmeldung Nr. 61/159,757, eingereicht am 12. März 2009, mit dem Titel DOCUMENT INTERACTION SYSTEM AND METHOD, der vorläufigen US-Patentanmeldung Nr. 61/184,273, eingereicht am 4. Juni 2009, mit dem Titel DOCUMENT INTERACTION, SUCH AS INTERACTION USING A MOBILE DEVICE, der vorläufigen US-Patentanmeldung Nr. 61/301,576, eingereicht am 4. Februar 2010, mit dem Titel PROVIDING ADDITIONAL INFORMATION BASED ON CONTENT OF AUDIO DATA, SUCH AS RELEVANT INFORMATION REGARDING TOPICS RAISED IN A LIVE AUDIO STREAM, und der vorläufigen US-Patentanmeldung Nr. 61/301,572, eingereicht am 4. Februar 2010, mit dem Titel PROVIDING RELEVANT INFORMATION, die hiermit alle unter Bezugnahme in ihrer Gesamtheit aufgenommen sind.
  • Zu schützen und Gegenstand des Gebrauchsmusters sind, gemäß den Anforderungen des Gebrauchsmustergesetzes, ausschließlich Vorrichtungen, wie sie in den beigefügten Patentansprüchen definiert sind, jedoch keine Verfahren. Sollte in der Beschreibung Bezug auf Verfahren genommen werden, dienen diese Bezüge lediglich dazu, die Vorrichtung oder die Vorrichtungen, für welche mit den beigefügten Ansprüchen Schutz beantragt wird, zu veranschaulichen.
  • ALLGEMEINER STAND DER TECHNIK
  • Personen erhalten fortlaufend Informationen, die möglicherweise von Interesse für sie sind. Informationen werden in vielen Formen dargestellt, von Papierdokumenten (Zeitungen, Bücher, Zeitschriften und so weiter) bis hin zu anderen Gegenständen in der Umgebung (Schilder, Werbetafeln, Bildschirme und so weiter). Häufig werden Informationen zumindest teilweise mittels Text präsentiert, entweder gedruckt in einem Dokument, angezeigt durch ein Objekt, präsentiert in einem Audio- oder Videostream und so weiter.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1A ist ein Datenflussdiagramm, das den Informationsfluss in einigen Ausführungsformen des Systems darstellt.
  • 1B ist ein Datenflussdiagramm, das den Informationsfluss in einigen Ausführungsformen des Systems darstellt.
  • 2 ist ein Komponentendiagramm der in einer typischen Implementierung des Systems im Rahmen einer typischen Betriebsumgebung enthaltenen Komponenten.
  • 3 ist ein Blockdiagramm, das eine geeignete Erfassungsvorrichtung zur Verwendung mit dem System veranschaulicht.
  • 4 ist ein Anzeigediagramm, das eine beispielhafte Anzeige zeigt, die von einem System zur Bereitstellung relevanter Informationen im Zusammenhang mit der Anzeige der relevanten Informationen präsentiert wird.
  • 5 ist ein Flussdiagramm, das eine Routine zur Bereitstellung von Informationen veranschaulicht, die relevant für den empfangenen Text sind.
  • 6 ist ein Datenstrukturdiagramm, das eine Datenstruktur zeigt, die von dem System in Verbindung mit der Speicherung von Daten, die von dem System verwendet werden, genutzt wird.
  • 7 ist ein Blockdiagramm, das eine Umgebung zeigt, in der das System betrieben wird.
  • 8 ist ein Flussdiagramm, das eine Routine zur automatischen Präsentation von Informationen veranschaulicht, die aus einem wiedergegebenen Dokument erfasst wurden.
  • 9 ist ein Flussdiagramm, das eine Routine zur Bestimmung der Inhaltsquellen veranschaulicht, die mit einem identifizierten wiedergegebenen Dokument verknüpft sind.
  • 10 ist ein Blockdiagramm von Komponenten oder Modulen zur Interaktion mit audiobasierten Informationen.
  • 11 ist ein Flussdiagramm, das ein Beispiel einer Aktion veranschaulicht, die basierend auf dem Inhalt des empfangenen Audio durchgeführt werden soll.
  • 12 ist ein Flussdiagramm, das ein Beispiel einer Subroutine für eine Aktion veranschaulicht, und zwar für eine Aktion zur Identifizierung von Begriffen in empfangenem Audio und zur Bereitstellung einer Ausgabe basierend auf diesen Begriffen.
  • 13 ist ein schematisches Diagramm, das eine Benutzeroberfläche zur Anzeige von visuellen Inhalten, die mit Audioinhalten verknüpft sind, die innerhalb eines 30-minütigen Zeitraums empfangen wurden, veranschaulicht.
  • BESCHREIBUNG
  • Überblick
  • Die Erfinder haben erkannt, dass es nützlich wäre, nach Informationen, Inhalten und/oder durchzuführenden Aktionen zu suchen, diese zu empfangen und/oder anzuzeigen, wenn Texte oder Informationen bereitgestellt, erzeugt, erstellt und/oder zu anderen Zwecken übertragen werden, wie beispielsweise zum Zwecke der Erstellung von Dokumenten oder Präsentation von Informationen.
  • In einigen Beispielen wird das Erfassen von Informationen und das Präsentieren von Inhalten, die mit den erfassten Informationen verknüpft sind, beschrieben. Das System stellt automatisch relevante Informationen in Reaktion auf von einem Benutzer bereitgestellten Text bereit, der vom System überwacht werden kann, wie beispielsweise vom Benutzer eingegebener Text. Das System überwacht den bereitgestellten Text und wählt automatisch einen Teil des Textes aus, wie beispielsweise einen Betreff, ein Objekt, ein Verb eines Satzes, einen Abschnitt oder eine zufällige oder gesammelte Gruppe von Wörtern usw. Das System erzeugt auf Basis des ausgewählten Teils des Textes eine Abfrage, wählt einen Index aus, der unter Verwendung der Abfrage durchsucht werden soll, überträgt die Abfrage an den ausgewählten Index und empfängt Suchergebnisse, die für die Abfrage relevant sind. Das System zeigt mindestens eines der Suchergebnisse an, sodass der Benutzer die Informationen ansehen kann, die für den vom Benutzer bereitgestellten Text relevant sind.
  • In einigen Beispielen wird das Erfassen von Informationen und das Zuordnen der erfassten Informationen zu zahlreichen Inhaltsquellen beschrieben. Das System identifiziert ein wiedergegebenes Dokument basierend auf den aus dem Dokument erfassten Informationen und nutzt das Dokument als Zugangspunkt zu einem oder mehreren Kanälen mit zugehörigem Inhalt. Das System identifiziert Inhaltsquellen und stellt Informationen im Zusammenhang mit Inhaltsquellen zusammen mit den erfassten Informationen bereit.
  • In einigen Beispielen stellt das System Informationen bereit, die im Zusammenhang mit Inhalten stehen, die aus einem empfangenen Audiosignal extrahiert wurden. Das System empfängt ein Live-Audiosignal, z. B. von einem Lautsprecher eines Radios oder einem Live-Gespräch, das im Rahmen eines Telefongesprächs oder an einem gemeinsam genutzten physischen Ort stattfindet, erfasst Informationen aus dem Audiosignal und führt eine Aktion im Zusammenhang mit den erfassten Informationen durch. Bei der durchzuführenden Aktion kann es sich beispielsweise um die Identifizierung von Suchbegriffen und die Durchführung einer Abfrage oder Suche auf Basis dieser Begriffe handeln. Anschließend empfängt das System Informationen, die mit den Audioinhalten in Zusammenhang stehen bzw. verknüpft sind, und gibt diese an den Benutzer aus, etwa indem es diese an ein Mobilgerät oder eine separate Anzeigevorrichtung ausgibt, um sie dem Benutzer anzuzeigen.
  • Beispielszenarien
  • Die folgenden Szenarien stellen mögliche Anwendungen der offenbarten Technologie dar. Durchschnittsfachleute werden erkennen, dass diese Szenarien bereitgestellt sind, um zu lehren, wie die offenbarte Technologie implementiert sein kann, und dass die offenbarte Technologie auf andere Szenarien anwendbar ist, die hierin nicht explizit beschrieben sind.
  • Eine Person schreibt einen Artikel über die Weltmeisterschaft 2010 und beendet einen Absatz über das Gastgeberland Südafrika. Das System, das in dem vom Schreiber verwendeten Textverarbeitungsprogramm integrierte ist, aktualisiert fortlaufend Links zu Informationen, die in einem Seitenbereich des Verarbeitungsprogramms angezeigt werden, während der Schreiber den Absatz zu Ende schreibt. Sowie die Person mit der Eingabe des Satzes „Als Gastgeberland musste sich Südafrika ...” beginnt, zeigt das System Links zu verschiedenen Seiten an, die Informationen über Südafrika beinhalten. Wenn die Person mit der Eingabe des nächsten Satzteils „... nicht qualifizieren, und die Spieler sind daher erpicht darauf, ...” fortfährt, zeigt das System Links zu den Biografien und Statistiken der verschiedenen Spieler an. Wenn die Person den Satz beendet mit „... mit dem Training zu beginnen und zu einer starken Einheit zusammenzuwachsen.”, verlinkt das System weitere Artikel, die die Herausforderungen beschreiben, vor denen die Gastgeberländer vorheriger Weltmeisterschaften standen.
  • Eine Kuratorin liest einen Zeitschriftenartikel über die Ausstellung Whitney Biennial und ist daran interessiert, mehr darüber zu erfahren. Die Kuratorin erfasst einen Teil des Textes von dem Artikel mit ihrem Smartphone, z. B. in dem sie ein Bild von dem Textteil aufnimmt. In Reaktion auf die Aufnahme identifiziert das System den Artikel, identifiziert ein Tag „whitney biennial” für den Artikel und ermittelt, dass der Artikel mit drei verschiedenen Twitter-Feeds von prominenten Kunstkritikern verknüpft ist, die ähnliche Tags aufweisen. Das System präsentiert Hinweise auf die Twitter-Feeds über die Anzeige des Smartphones und präsentiert einen der Feeds, sobald es eine Auswahl vom Benutzer für den Feed empfängt.
  • Ein Student befindet sich in einer Vorlesung zur amerikanischen Geschichte Ende der 1700er-Jahre. Der Student zeichnet die Vorlesung mithilfe seines Mobiltelefons auf und erlaubt dem System, Inhalte zu identifizieren und abzurufen, die möglicherweise im Zusammenhang mit dem stehen, was in der Vorlesung erzählt wird. Während sich der Student auf die Vorlesung konzentriert, macht das System für ihn Notizen, wobei es in der Vorlesung zitierte Passagen, Biografien zu in der Vorlesung erwähnten Personen usw. aufzeichnet und abruft. So identifiziert das System beispielsweise während eines Teils der Vorlesung, in dem die relative Größe und Einwohnerzahl von Philadelphia und New York City im Jahr 1789 behandelt werden, elektronische Versionen von Karten und Diagrammen, die ähnliche Informationen beinhalten, und ruft diese für den Studenten ab. Der Student kann die automatisch erzeugten Inhalte auch als einen Index bei der Wiedergabe der Audiodatei der Vorlesung verwenden.
  • Natürlich sind auch andere Szenarien als die mit den hierin beschriebenen Verfahren und Techniken im Zusammenhang stehenden Szenarien möglich.
  • Es werden nun verschiedene Ausführungsformen des Systems beschrieben. Die folgende Beschreibung liefert spezifische Details für ein gründliches Verständnis und ermöglicht die Beschreibung dieser Ausführungsformen. Fachleute werden jedoch verstehen, dass das System auch ohne viele dieser Details umgesetzt werden kann. Zudem können einige allgemein bekannte Strukturen oder Funktionen nicht im Detail gezeigt oder beschrieben sein, um eine unnötige Verschleierung der relevanten Beschreibung der verschiedenen Ausführungsformen zu vermeiden.
  • Die Terminologie, die in der nachfolgend präsentierten Beschreibung verwendet wird, sollte in einer möglichst umfassenden angemessenen Weise interpretiert werden, auch wenn sie in Verbindung mit einer detaillierten Beschreibung bestimmter Ausführungsformen der Erfindung verwendet wird. Auch können nachstehend bestimmte Begriffe hervorgehoben sein; jedoch wird jegliche Terminologie, die in beliebiger einschränkender Weise interpretiert werden soll, in diesem detaillierten Beschreibungsabschnitt offenkundig und spezifisch als solche definiert.
  • TEIL I – EINFÜHRUNG
  • 1. Das System und seine Benutzer
  • Personen konsumieren Informationen von wiedergegebenen (gedruckten und angezeigten) Medien visuell, einschließlich Informationen, die in Texten, Bildern, Videos und anderen Formen präsentiert werden. Personen lesen beispielsweise Zeitungen, Zeitschriften, Bücher, Blogs, Textnachrichten, Werbetafeln, Kassenzettel, Notizen und so weiter; betrachten Fotos, Bilder, Objekte, Werbeanzeigen und so weiter; und schauen sich Filme, Videos, Vorführungen, andere Personen und so weiter an. Ebenso konsumieren Personen Informationen auf akustische Weise von vielen Quellen, wie beispielsweise einem Radio oder Fernseher. In der Tat empfangen und konsumieren Personen ständig Informationen, in dem sie lediglich ihre Umwelt beobachten und der Welt um sie herum zuhören.
  • Ein derartiger Konsum von Informationen kann aktiv (der Benutzer ist sich der Informationen bewusst und interagiert häufig mit ihnen) oder passiv (der Benutzer ist sich der Informationen nicht bewusst, empfängt sie aber) sein. Eine Person kann Informationen gewollt, zum Beispiel, indem Personen diese häufig „pullen”, oder ungewollt, wenn sie zu ihnen „gepusht” werden (passiver Konsum), beziehen. In gewisser Hinsicht ähneln Personen hinsichtlich ihrer Interaktion mit der Umwelt Vorrichtungen (Computern, Mobiltelefonen und anderen Vorrichtungen), die Informationen anziehen und an sie herangetragene Informationen empfangen.
  • Vorrichtungen sind jedoch keine Menschen und aktuelle Vorrichtungen leisten eher schlechte Arbeit bei der Erfassung von Informationen innerhalb einer umliegenden Umgebung oder in der Nähe der Vorrichtung. Die hierin offenbarte Technologie beschreibt Systeme und Verfahren, die die Wahrnehmung in Vorrichtungen ermöglichen und begünstigen. Die Technologie kann eine Wahrnehmung von textbasierten Informationen nahe einer Vorrichtung, eine Wahrnehmung von bildbasierten Informationen nahe einer Vorrichtung, eine Wahrnehmung von einer Anzeige von Informationen nahe einer Vorrichtung (wie etwa einem wiedergegebenen Dokument) und so weiter begünstigen. Unter Verwendung der offenbarten Technologie können Vorrichtungen Personen darin, wie sie mit der Welt interagieren, nachahmen. Auch wenn das System nachfolgend allgemein als interagierend mit visuell wahrnehmbaren Dokumenten beschrieben wird, kann das System ebenfalls so konfiguriert werden, dass es audiobasierte Informationen sammelt und verarbeitet.
  • 1.1. Physische/digitale Interaktionen
  • Nahezu jede physische Anzeige von Informationen ist mit zusätzlichen digitalen Informationen verknüpft oder kann damit verknüpft werden. Zum Beispiel kann ein Bild mit einer Beschreibung (z. B. Metadaten), einer Webseite und so weiter verbunden sein; ein einzelnes Wort kann mit einer Definition, einem Wikipedia-Eintrag, einer Werbeanzeige und so weiter verbunden sein; ein Dokument kann mit seinem elektronischen Gegenstück, einer Webseite, einer Slideshow und so weiter verbunden sein; ein geografischer Standort (oder ein Objekt an dem Standort) kann mit Metadaten, Bildern, Informationen zu dem Standort verbunden sein; ein Audiostream kann mit einer Slideshow verbunden sein; und so weiter. In Gegenwart einer physischen Anzeige von Informationen muss das System nur die Anzeige von Informationen (oder Teilaspekte der Anzeige von Informationen, wie etwa Text in der Anzeige von Informationen) identifizieren, um Zugang zu verbundenen Informationen zu erhalten. Das System ermöglicht es der physischen Anzeige von Informationen, als Plattform zu fungieren, aus der eine reichhaltige, digitale, dritte Interaktivitätsdimension erzeugt wird, die Benutzer und Inhalte umspannt.
  • 1.2. Identifikation eines wiedergegebenen Dokuments
  • In einigen Fällen kann das Identifizieren eines wiedergegebenen Dokuments einem Leser Zugriff auf eine Fülle zusätzlicher Informationen ermöglichen, welche das Dokument selbst ergänzen und das Lesererlebnis bereichern. Bei jedem wiedergegebenen Dokument, das ein elektronisches Gegenstück aufweist, können Teile der Informationen in dem wiedergegebenen Dokument verwendet werden, um das elektronische Gegenstück zu identifizieren. In einigen Beispielen erfasst und verwendet das System ein Muster von Text aus einem wiedergegebenen Dokument, um ein elektronisches Gegenstück des Dokuments zu identifizieren und ausfindig zu machen. In einigen Fällen ist die Stichprobe des Textes, die vom System benötigt wird, sehr klein, da ein paar Wörter oder Teilwörter aus einem Dokument oft als Erkennungsmarke für das gerenderte Dokument und als Link zu dessen elektronischem Gegenstück fungieren können. Darüber hinaus kann das System diese wenigen Wörter nicht nur verwenden, um das Dokument, sondern auch eine Position innerhalb des Dokuments zu identifizieren. Somit können wiedergegebene Dokumente und deren digitale Gegenstücke unter Verwendung des hierin besprochenen Systems in vielerlei nutzbringender Hinsicht verknüpft werden.
  • Daher können die wiedergegebenen Dokumente und ihre elektronischen Gegenstücke unter Verwendung des hierin offenbarten Systems in vielerlei nutzbringender Hinsicht verknüpft werden.
  • Wenn ein Benutzer ein paar Wörter, Zeichen oder Bereiche in einem wiedergegebenen Dokument scannt, kann das System einfach das elektronische Dokumentgegenstück oder einige Teile davon abrufen, das elektronische Gegenstück oder Teile davon anzeigen, per E-Mail an jemanden versenden, erwerben, drucken, auf einer Webseite hochladen oder andere Aktionen ausführen, über die ein Benutzer mit dem Dokument oder den zugehörigen Inhalten interagieren kann. Beispielsweise kann ein Benutzer sein mobiles Gerät (und dessen Kamera) über einen Teil eines Zeitungs- oder Zeitschriftenartikels halten, wodurch bewirkt wird, dass das mobile Gerät des Benutzers eine elektronische Version des Artikels auf dem Touchscreen des mobilen Geräts anzeigt und dem Benutzer Optionen bereitgestellt werden, die es dem Benutzer ermöglichen, mit dem Artikel weiter zu interagieren. In einigen Fällen kann das Halten über dem Artikel das Mobilgerät veranlassen, in einen Dokumenterkennungs- oder Interaktionsmodus zu wechseln, wie etwa wenn das Mobilgerät eine bestimmte Nähe zu dem Artikel erkennt.
  • Das System implementiert diese und viele andere Beispiele der Integration von Papierinformationen und digitalen Informationen, ohne dass die aktuellen Prozesse zum Schreiben, Drucken und Veröffentlichen von Dokumenten und anderen Informationsanzeigen geändert werden müssen, wodurch wiedergegebene Dokumente und physische Objekte eine ganze neue Ebene digitaler Funktionalität erhalten.
  • Sobald das System einen Textteil in einem wiedergegebenen Dokument mit einer bestimmten digitalen Entität verknüpft hat, ist das System in der Lage, eine Vielzahl an Funktionen für diese Verknüpfung bereitzustellen.
  • Die meisten wiedergegebenen Dokumente verfügen über ein elektronisches Gegenstück, das über das Internet oder über eine andere Online-Datenbank oder den Dokumentenkorpus zugänglich ist oder zugänglich gemacht werden kann, z. B. in Reaktion auf die Zahlung einer Gebühr oder eines Abonnements. Im einfachsten Fall kann das System anschließend, wenn ein Benutzer einige Wörter in einem wiedergegebenen Dokument erfasst, dieses elektronische Dokument oder einen Teil davon abrufen, es anzeigen, es jemandem per E-Mail zuschicken, es erwerben, es drucken und/oder es auf eine Webseite posten. Darüber hinaus könnte beispielsweise das Erfassen einiger Worte eines Buches, das von einer Person während des Frühstücks gelesen wird, dazu führen, dass die Audio-Buchversion in dem Auto der Person ab dem Punkt vorgelesen wird, ab dem sie zur Arbeit fährt, oder das Erfassen der Seriennummer einer Druckerpatrone könnte den Bestellungsvorgang einer Ersatzpatrone einleiten.
  • Eine typische Nutzung des Systems beginnt mit dem Einsatz einer Erfassungsvorrichtung zum Erfassen von Text von einem wiedergegebenen Dokument, wobei es jedoch wichtig ist anzumerken, dass andere Verfahren zur Erfassung von anderen Arten von Objekten gleichermaßen anwendbar sind. Daher wird das System gelegentlich als Erfassen oder Scannen von Text aus einem wiedergegebenen Dokument beschrieben, wobei diese Begriffe folgendermaßen definiert sind:
  • Ein wiedergegebenes Dokument ist ein ausgedrucktes Dokument oder ein in einer Anzeige oder auf einem Monitor angezeigtes Dokument. Es ist ein Dokument, das für einen Menschen wahrnehmbar ist, egal ob in permanenter Form oder auf einer flüchtigen Anzeige. Es ist ein physisches Objekt, das Informationen mittels einer Präsentationsebene bereitstellt. Wiedergegebene Dokumente beinhalten Papierdokumente, Werbetafeln, Schilder, Informationen, die mittels einer Präsentationsebene einer Computervorrichtung bereitgestellt sind, Informationen, die durch eine Welle ausgebreitet werden, wie etwa ein Audio- oder Videostream von Informationen, und/oder physische Objekte, die Informationen präsentieren oder anzeigen.
  • Das Erfassen oder Scannen ist ein Prozess zur systematischen Untersuchung, um Informationen von einem wiedergegebenen Dokument zu erhalten. Der Prozess kann optische Erfassung, beispielsweise unter Verwendung einer Kamera in einem Mobiltelefon oder eines optischen Handscanners, beinhalten oder kann Vorlesen aus dem Dokument in eine Audioerfassungsvorrichtung oder seine Eingabe auf einem Tastenfeld oder einer Tastatur beinhalten. Für weitere Beispiele siehe Abschnitt 15.
  • Zusätzlich zum Erfassen von Text aus wiedergegebenen Dokumenten erfasst das System möglicherweise Informationen von anderen Quellen, wie beispielsweise von RFID(Radio Frequency Identification)-Tags, QR-Codes, Barcodes, anderen physischen Objekten (z. B. Bildern, Skulpturen), Informationen, die direkt von der Präsentationsebene einer Computervorrichtung stammen, usw. Auch wenn das System hierin allgemein so beschrieben wird, dass es mit Daten von gedruckten oder angezeigten Dokumenten interagiert und diese erfasst, kann das System bereits so konfiguriert sein, dass es alternativ oder ergänzend mit audiobasierten Informationen (beispielsweise über das Radio oder TV-Sendungen empfangene Informationen) interagieren und diese erfassen kann. Daher können andere Informationsquellen audio- und/oder videobasierte Daten (wie Radioprogramme und andere Inhalte auf Radiokanälen), Videoinhalte und andere Inhalte auf Videokanälen, (einschließlich TV-Shows, TV-Werbesendungen, Filme usw.), egal, ob sie von einem lokalen Medium wie einer Video-Disk oder per Streaming von einem entfernten Server wiedergegeben werden, usw. beinhalten. Als ein Beispiel kann das System Informationen aus einer Audioquelle erfassen und Informationen oder ergänzende Inhalte in Verbindung mit der Audioquelle oder den Inhalten des von der Quelle erzeugten Audiostreams anzeigen.
  • 2. Einführung in das System
  • In diesem Abschnitt werden einige der Vorrichtungen, Prozesse und Systeme beschrieben, aus denen sich ein System zur Integration von Papierinformationen und digitalen Informationen zusammensetzt. In verschiedenen Beispielen baut das System eine breite Palette von Diensten und Anwendungen auf diesem zugrunde liegenden Kern auf, welcher die Basisfunktionalität zur Verfügung stellt.
  • 2.1. Die Prozesse
  • 1A ist ein Datenflussdiagramm, das den Informationsfluss in einigen Beispielen eines geeigneten Systems veranschaulicht. Andere Beispiele verwenden eventuell nicht alle hier dargestellten Stufen oder Elemente, wohingegen einige viele weitere verwenden.
  • Eine Erfassungsvorrichtung, wie ein Mobilgerät mit einer Kamera und/oder einem Sprachrekorder, erfasst 100 Text und/oder andere Informationen aus einem wiedergegebenen Dokument oder von Informationen, die in der Nähe der Vorrichtung angezeigt werden. Die Vorrichtung kann die erfassten Daten verarbeiten 102, zum Beispiel, um Artefakte des Erfassungsprozesses zu entfernen und das Signal-Rausch-Verhältnis zu verbessern, um gewünschte Informationen innerhalb der Daten zu identifizieren oder aufzufinden und so weiter. Mittels einer Erkennungskomponente (wie etwa einer OCR-Vorrichtung, Spracherkennungsvorrichtung, Autokorrelationseinheit oder anderen hierin beschriebenen Techniken) konvertiert 104 das System die Daten optional zu einer oder mehreren Signaturen, wie etwa Textsegmenten, Textoffsets oder anderen Symbolen oder Zeichen. Alternativ führt das System eine alternative Form des Extrahierens von einer oder mehreren Dokumentsignaturen aus dem wiedergegebenen Dokument durch. In einigen Fällen stellt die Signatur einen Satz von möglichen Texttranskriptionen dar. In einigen Fällen kann der Prozess durch Feedback aus anderen zuvor oder nachfolgend durchgeführten Schritten beeinflusst oder eingeschränkt werden. Wenn das System beispielsweise zuvor bereits Kandidatendokumente, aus denen die Erfassung wahrscheinlich entstanden ist, erzeugt hat, ist es in der Lage, die möglichen Interpretationen der ursprünglichen Erfassung zu begrenzen.
  • Nachverarbeitungskomponenten empfangen möglicherweise Daten vom Erkennungsprozess und Filtern 106 die Daten oder führen je nach Wunsch andere Operationen aus. In einigen Beispielen kann das System sofort und ohne Ausführen der nächsten Schritte in der Routine direkte Aktionen 107 ableiten, bestimmen, identifizieren und/oder auführen, z. B. wenn das System eine Wortverbindung oder ein Symbol erfasst, die oder das ausreichend Informationen enthält, um auf die Absicht des Benutzers schließen zu können. In diesen Fällen muss das System nicht notwendigerweise ein digitales Dokument als Gegenstück identifizieren oder referenzieren, um die Wünsche des Benutzers durchzuführen.
  • In Schritt 108 kann das System dann eine Abfrage oder einen Satz an Abfragen erzeugen, die oder der bei der Suche nach einem elektronischen Gegenstück oder anderen Inhalten verwendet wird, die mit den erfassten Informationen verknüpft sind. Einige Aspekte der Abfrageerstellung können von dem verwendeten Suchprozess abhängig sein und das System kann sie in einem späteren Schritt durchführen (wie etwa, nachdem eine Suche durchgeführt wird), wobei es jedoch typischerweise einige Operationen gibt, wie etwa die Entfernung von offensichtlich falsch erkannten oder irrelevanten Zeichen, die das System im Voraus durchführen kann.
  • Das System leitet 110 die Abfrage oder die Abfragen an eine Such- und Kontextanalyse-Komponente weiter. Das System kann versuchen, das Dokument zu identifizieren, aus dem die ursprünglichen Daten erfasst worden sind. Dazu verwendet das System unter Umständen Suchindizes und Suchmaschinen 112, etwaige Kenntnisse über den Benutzer 114 und/oder Kenntnisse über den Benutzerkontext oder den Kontext, in dem die Informationen erfasst wurden 116. Das System kann zum Beispiel mit einer Suchmaschine 112 interagieren, die Informationen speziell über wiedergegebene Dokumente, über deren digitale Dokument-Gegenstücke und/oder über Dokumente, die über eine Web(Internet)-Präsenz verfügen, nutzt oder indexiert. Das System kann Informationen mit diesen Informationsquellen hin- und hertransferieren und kann identifizierte Informationen in verschiedene andere Schritte der Routine einspeisen. Das System kann, basierend auf einem Empfang von Kenntnissen über Kandidatendokumente während Schritt 110, beispielsweise Informationen über die Sprache, Schriftart, Darstellung und voraussichtlich folgende Wörter einer Erfassung empfangen.
  • In Schritt 120 kann das System eine Kopie des Dokuments oder der Dokumente abrufen, die zuvor als elektronische Gegenstücke für das wiedergegebene Dokument identifiziert wurden. Das System kann einen direkten Zugriff auf Dokumentquellen und -archive 124 (z. B. ein lokales Archiviersystem oder eine Datenbank oder einen Webserver) haben, oder das System kann einen Zugriffsdienst 122 kontaktieren, um ein Dokument oder Dokumente abzurufen. Der Zugriffsdienst 122 kann eine Authentifizierung, einen Schutz oder Zahlungen für Dokumente verlangen oder kann andere Dienste bereitstellen, wie etwa, neben anderen Dingen, eine Konvertierung des Dokuments in ein gewünschtes Format oder eine gewünschte Sprache.
  • Anwendungen des Systems nutzen möglicherweise die Vorteile der Verknüpfung von zusätzlicher Funktionalität oder Daten mit einem Teil des Dokuments oder dem gesamten Dokument. Werbeanwendungen beispielsweise können bestimmte Werbenachrichten oder -themen mit Teilen eines Dokuments, wie etwa Schlüsselwörtern, Wortverbindungen oder Nähe zu bestimmten Inhalten, verknüpfen. Diese zusätzlich verknüpfte Funktionalität oder Daten, die spezifizieren, dass sie in Verbindung mit bestimmen Teilen des Dokuments verfügbar sein sollte, kann als eine oder mehrere Überlagerungen auf dem Dokument angesehen werden und wird hierin als Markup bezeichnet. Somit identifiziert das System, in Schritt 130, jegliches Markup, das für die erfassten Daten und/oder ein identifiziertes elektronisches Gegenstück relevant ist. In einigen Fällen wird das Markup durch den Benutzer, den Urheber, den Herausgeber des Dokuments, andere Benutzer des Dokuments und so weiter bereitgestellt und kann auf einer direkt zugänglichen Quelle 132 gespeichert sein oder durch einen Markup-Dienst 134 dynamisch erzeugt werden. In einigen Beispielen kann das Markup mit einem wiedergegebenen Dokument und/oder dem digitalen Gegenstück eines wiedergegebenen Dokuments oder mit Gruppen aus einem oder beiden dieser Dokumente verknüpft werden und auf diese anwendbar sein.
  • Als Folge einiger oder aller der vorherigen Schritte kann das System 140 Aktionen einleiten oder durchführen. Die Aktionen können Standard-Systemaktionen, wie etwa einfaches Aufzeichnen der gefundenen Informationen sein, können von den Daten oder dem Dokument abhängig sein oder können von der Markup-Analyse abgeleitet sein. In einigen Fällen kann das System Daten einfach an ein anderes System übermitteln. In einigen Fällen werden die möglichen Aktionen, die für eine Erfassung an einer bestimmten Stelle in einem wiedergegebenen Dokument geeignet sind, dem Benutzer als ein Menü auf einer verbundenen Anzeige, wie etwa der Anzeige einer Erfassungsvorrichtung (dem Touchscreen eines Mobilgerätes), oder einer verbundenen Anzeige (dem Laptopbildschirm des Benutzers) präsentiert. Das System kann eine Aktion oder Aktionen in Reaktion auf die Erfassung als Reaktion auf eine Benutzeranfrage zur Durchführung von einer Aktion oder Aktionen oder zu einem späteren Zeitpunkt identifizieren oder durchführen.
  • Als Beispiel für die Art und Weise, wie die Erfassungsvorrichtung verwendet werden kann, erfasst ein Leser möglicherweise einen Text aus einem Zeitungsartikel mit einer Kamera, die zu einem Mobilgerät gehört. Der Text wird über die Kamera als Bitmap-Bild erfasst. Die Logik speichert das gerasterte Bild im Speicher, versieht das Bild mit einem Zeitstempel und erfasst andere Daten, die mit der Aufzeichnung verknüpft sind (z. B. Position eines Geräts, Geo-Lokalisierungsdaten usw.). Die Logik führt außerdem eine optische Zeichenerkennung (OCR) durch und konvertiert das Bild zu Text. Das System lädt den Text in einen Index von Inhalten, die mit der Zeitung in Verbindung stehen, und identifiziert und ruft ein elektronisches Gegenstück für den Artikel ab. Anschließend zeigt die Erfassungsvorrichtung das elektronische Gegenstück über einen verbundenen Touchscreen an, zusammen mit einer oder mehreren durchzuführenden Aktionen, wie etwa Herunterladen und Anschauen von verbundenen Artikeln oder von Artikeln, die zusätzliche Hintergrundinformationen bereitstellen, Hervorheben bestimmter Begriffe innerhalb eines Artikels und Bereitstellen von Links zu Definitionen für diese Begriffe oder Anschauen von Werbeanzeigen oder Kaufinformationen für in oder um den Artikel herum besprochene Produkte.
  • Weitere Einzelheiten zu den Systemprozessen, Komponenten und/oder Vorrichtungen können in den hierin durch Bezugnahme aufgenommenen Anwendungen gefunden werden. Auch wenn das System wie zuvor beschrieben hierin allgemein so beschrieben wird, dass es mit Daten von gedruckten oder angezeigten Dokumenten interagiert und diese erfasst, kann das System bereits so konfiguriert sein, dass es alternativ oder ergänzend mit audiobasierten Informationen interagieren und diese erfassen kann, wie Fachleute auf dem Gebiet leicht nachvollziehen können.
  • 1B ist ein Datenflussdiagramm, das den Informationsfluss in einem Beispiel eines geeigneten Systems veranschaulicht. Eine Erfassungsvorrichtung 155 erfasst präsentierte Informationen wie Text, Audio, Video, GPS-Koordinaten, Benutzergesten, Barcodes und so weiter aus Informationsquellen 150 und anderen Quellen, wie etwa Quellen in drahtloser Kommunikation mit der Vorrichtung (nicht gezeigt). Bei Schritt 160 sammelt und speichert die Informationssicherungskomponente von der Erfassungsvorrichtung 155 erfasste Informationen. Bei Schritt 165 übergibt das System die aus der Erfassungsvorrichtung zusammengetragenen Informationen einer Verarbeitungskomponente für erfasste Informationen. Die Verarbeitungskomponente für erfasste Informationen 165 ist konfiguriert, die Gegenwart von wiedergegebenen Dokumenten zu erkennen, Textbereiche aus Dokumenten zu extrahieren und die Dokumentinformationen zu analysieren, um Dokument- und Textmerkmale, wie etwa absolute und relative Layout-Informationen, Absatz, Zeilen- und Wortschatten oder -profile, zeichenbezogene Merkmale und Zeichencodierungen zu erkennen. In einigen Beispielen kann die Verarbeitungskomponente für erfasste Informationen konfiguriert sein, Typen von Daten zu verarbeiten, die kein Text sind, wie etwa Audio, Kompassdaten, GPS, Beschleunigung, Verlauf, Temperatur, Feuchtigkeit, Körperwärme usw. In einigen Beispielen wird die Verarbeitungseinheit für erfasste Informationen Informationen in Laufe der Zeit akkumulieren und die akkumulierten Informationen zusammensetzen, um beispielsweise größere oder höherauflösende Bilder der Informationsquelle zu bilden, während die Erfassungsvorrichtung weitere Informationen erfasst oder sendet. In einigen Beispielen kann die Verarbeitungskomponente für erfasste Informationen den Kontext, wie etwa vorherige von einem Benutzer erfasste Informationen, nutzen (siehe Abschnitt 13 und 14), um die Verarbeitung erfasster Informationen zu lenken, z. B. durch Einschränken oder Ausweiten des Verarbeitungsumfangs und Lenken der Annahmen darüber, was verarbeitet wird. Wenn das System zum Beispiel kürzlich identifiziert hat, dass der Benutzer Informationen aus einer bestimmten Quelle erfasst hat, kann im Anschluss weniger Verarbeitung erforderlich sein, um ein ähnliches Maß an Gewissheit über die neu erfassten Informationen zu erhalten, da eine Suche innerhalb eines begrenzten Möglichkeitsraums schnell zu einer Übereinstimmung führen kann, welche anschließend, wenn erwünscht, noch weiter bestätigt werden kann. Die Verarbeitungskomponente für erfasste Informationen kann die identifizierten Informationen verifizieren. wie etwa durch automatisches Bestätigen oder Ablehnen von Vorhersagen in den Informationen basierend auf vorläufigen Annahmen oder durch Nutzen eines Concierge-Dienstes 170 (siehe Abschnitt 19.8) oder durch Anfordern von Benutzerfeedback. In Schritt 175 speichert das System die erfassten und verarbeiteten Informationen als einen Teil von Systemverlauf und Kontext.
  • In Schritt 180 führt das System eine Suche basierend auf den verarbeiteten Informationen und dem Kontext durch (siehe Abschnitt 42.2. 13 und 14). In einigen Beispielen können Suchergebnisse im Laufe der Zeit akkumuliert und korreliert werden, z. B., sich überschneidende Suchergebnisse basierend auf Teilsätzen der im Laufe der Zeit erfassten Informationen, um Mehrdeutigkeiten aufzulösen (wie etwa mehrere Teile einer Audioaufnahme, Audio aus mehreren Frequenzbändern, mehrere Bilder usw.). In einigen Beispielen können die Suchergebnisse durch die Verarbeitungskomponente für erfasste Informationen noch weiter verifiziert werden, z. B. basierend auf dem Prinzip, dass die Bildverarbeitungskomponente eine zusätzliche Analyse der Suchergebnisse (oder der von der Dokumentenverwaltungskomponente 185 abgerufenen Dokumentinformationen) und der erfassen Informationen durchführen kann. Wenn die Suchkomponente beispielsweise 10 mögliche Ergebnisse erzeugt, kann die Verarbeitungskomponente für erfasste Informationen bestimmen, dass 6 davon, wie etwa das Muster vertikaler Striche in dem Text, sehr unwahrscheinlich mit den Suchergebnissen übereinstimmen. In Schritt 185 kann eine Dokumentenverwaltungskomponente des Systems, wenn ein Dokument identifiziert wurde, eine Darstellung des Dokuments abrufen. In Schritt 190 kann eine Markup-Komponente des Systems ein dynamisches und/oder statisches Markup, das sich auf die Textausgabe bezieht, aus dem Verarbeitungsschritt der erfassten Informationen und/oder dem ermittelten Dokument oder der abgerufenen Darstellung des Dokuments berechnen und/oder abrufen. Für weitere Informationen zu statischem und dynamischem Markup siehe Abschnitt 5. In einigen Beispielen erzeugt die Markup-Komponente Markup parallel zu der Dokumentenidentifikation basierend auf identifiziertem Text, sobald dieser erkannt ist.
  • In Schritt 195 werden die Informationen unter Umständen dem Benutzer präsentiert. In einigen Beispielen können diese Informationen Folgendes beinhalten: Feedback, wie etwa einen Hinweis, die Erfassungsvorrichtung für besseren Fokus zu bewegen; das Überlegen von Hervorhebungen über die erfassten Bilder, um mögliche Bereiche von Interesse anzuzeigen, möglicherweise einschließlich des Bereichs von Interesse, der implizit ausgewählt werden würde, wenn der Benutzer die Erfassungsvorrichtung über demselben Bereich hält; eine saubere, neu wiedergegebene Version des abgebildeten Textes, der mit Bildskalierung, Layout, Aufbau usw. des Sichtfeldes der Erfassungsvorrichtung übereinstimmt; eine Liste mit auf den aktuellen Bereichen von Interesse basierenden verfügbaren Optionen; die Resultate der Durchführung einer einzelnen Aktion basierend auf den aktuellen Bereichen von Interesse, wie etwa ein automatisches Wählen einer Telefonnummer; Präsentieren von audiovisuellem Material unter Verwendung von einem Template, das für den Typ oder die Typen von Informationen angemessen ist, die von dem Benutzer als Interessengebiete angegeben wurden; Präsentieren einer Informationsanzeige und/oder eines Audios basierend auf den Interessengebieten. In einigen Beispielen können sich Bereiche von Interesse aus einem Bereich, der durch den Benutzer implizit oder explizit angegeben wird, und aus sukzessive größeren Bereichen, wie etwa Wortverbindungen, Sätze, Zeilen, Absätzen, Spalten, Artikeln, Seiten, Ausgaben, Veröffentlichungen usw., die den zentralen Bereich von Interesse umgeben, zusammensetzen. In einigen Beispielen wird eine Hauptregion von Interesse vom System basierend auf der Position im Bild vorgeschlagen, beispielsweise die Mitte eines Bildschirms einer Erfassungsvorrichtung, und durch eine explizite Benutzerinteraktion, durch Zeigen mit der Maus auf eine Stelle nahe derselben Region für eine kurze Zeitspanne oder durch eine Benutzerinteraktion mit einem Bildschirm (z. B. Wischen mit einem Finger über die Region von Interesse oder Tippen an eine Stelle innerhalb einer vorgeschlagenen Region von Interesse) ausgewählt.
  • 2.2. Die Komponenten
  • Wie hierin beschrieben beinhaltet ein geeignetes System oder eine geeignete Betriebsumgebung eine Reihe von verschiedenen Komponenten. Zum Beispiel kann das System eine oder mehrere optische Erfassungsvorrichtungen oder Stimmerfassungsvorrichtungen beinhalten (wie etwa Mobiltelefone und andere mobile Multifunktions-Computervorrichtungen, Handscanner-Vorrichtungen und so weiter). Die Erfassungsvorrichtungen kommunizieren mit anderen Komponenten des Systems, wie etwa einem Computer oder anderen Mobilgeräten, entweder unter Verwendung von drahtgebundenen oder drahtlosen Verbindungen oder über ein Netzwerk.
  • Die Erfassungsvorrichtung, Computer und andere Komponenten im Netzwerk beinhalten unter Umständen einen Speicher, der vom Computer ausführbare Anweisungen zur Verarbeitung der empfangenen Daten oder Informationen enthält, die aus wiedergegebenen Dokumenten und anderen Quellen (wie z. B. auf einer Anzeige oder auf einem Monitor angezeigte Informationen) erfasst werden.
  • 2 ist ein Komponentendiagramm, das die in einer typischen Implementierung des Systems im Rahmen einer typischen Betriebsumgebung enthaltenen Komponenten angibt. Wie dargestellt beinhaltet die Betriebsumgebung eine oder mehrere Erfassungsvorrichtungen 216. In einigen Beispielen unterstützt ein Erfassungsgerät entweder das optische Erfassen oder das Kopieren mithilfe von „Audiodaten”. Jede Erfassungsvorrichtung ist in der Lage, mit anderen Teilen des Systems, wie etwa einem Computer 212, entweder unter Verwendung von einer direkten drahtgebundenen oder drahtlosen Verbindung oder über das Netzwerk 220 zu kommunizieren, mit welchem sie unter Verwendung einer drahtlosen oder drahtgebundenen Verbindung kommunizieren kann, wobei letztere typischerweise eine drahtlose Basisstation 214 beinhaltet. In einigen Beispielen kommuniziert die Erfassungsvorrichtung mit anderen Komponenten des Systems über ein Mobilfunk-Telekommunikationsnetz (z. B. GSM oder CDMA). In einigen Beispielen ist die Erfassungsvorrichtung in ein Mobilgerät integriert und teilt sich optional einige der Audio- und/oder optischen Komponenten, die in dem Gerät für Sprachkommunikationen und zum Aufnehmen von Bildern verwendet werden.
  • Der Computer 212 kann einen Speicher beinhalten, der vom Computer ausführbare Anweisungen zum Verarbeiten eines Auftrags von Erfassungsvorrichtung 216 enthält. Als ein Beispiel kann ein Auftrag eine Kennung (wie etwa eine Seriennummer der Erfassungsvorrichtung 216 oder eine Kennung, die den Benutzer der Erfassungsvorrichtung teilweise oder eindeutig identifiziert), Erfassungskontextinformationen (z. B. Zeit der Erfassung, Ort der Erfassung usw.) und/oder erfasste Informationen (wie etwa eine Textfolge) beinhalten, die verwendet wird, um die Quelle, aus welcher Daten erfasst werden, eindeutig zu identifizieren. In alternativen Beispielen kann die Betriebsumgebung mehr oder weniger Komponenten beinhalten.
  • Ebenfalls Teil des Netzwerks 220 sind Suchmaschinen 232, Dokumentenquellen 234, Benutzerkontendienste 236, Markup-Dienste 238 und andere Netzwerkdienste 239. Das Netzwerk 220 kann ein firmeneigenes Intranet sein, das öffentliche Internet, ein Mobilfunknetz oder ein anderes Netzwerk oder eine beliebige Vernetzung dieser sein. Unabhängig von der Art, in der die Vorrichtungen und Komponenten miteinander verbunden sind, können sie alle gemäß allgemein bekannten kommerziellen Transaktion- und Kommunikationsprotokollen (z. B. Transmission Control Protocol (TCP), Internet Protocol (IP)) betreibbar sein. In einigen Beispielen können viele der Funktionen und Fähigkeiten des Systems in die Erfassungsvorrichtung eingebunden oder integriert sein.
  • In zahlreichen Beispielen können die Funktionen und Funktionalitäten der Erfassungsvorrichtung 216 und des Computers 212 komplett oder teilweise in einer Vorrichtung integriert sein. Somit können sich die Begriffe Erfassungsvorrichtung und Computer, abhängig davon, ob die Vorrichtung Funktionen oder Fähigkeiten von der Erfassungsvorrichtung 216 und dem Computer 212 einbindet, auf dieselbe Vorrichtung beziehen. Zudem können einige oder alle der Funktionen der Suchmaschinen 232, Dokumentenquellen 234, Benutzerkontodienste 236, Markup-Dienste 238 und anderer Netzwerkdienste 239 in jedweder Vorrichtung und/oder anderen, nicht gezeigten Vorrichtungen implementiert sein.
  • 2.3. Die Erfassungsvorrichtung
  • Die Erfassungsvorrichtung kann Text mithilfe einer optischen oder Abbildungskomponente, die Bilddaten von einem Objekt, einer Informationsanzeige und/oder einem wiedergegebenen Dokument erfasst, oder mithilfe einer Audioaufzeichnungsvorrichtung, die vom Benutzer vorgelesenen Text eines angezeigten Texts erfasst, oder mithilfe anderer Verfahren erfassen. In einigen Beispielen kann die Erfassungsvorrichtung außerdem Bilder, Filme, grafische Zeichen und Symbole und so weiter erfassen, einschließlich maschinenlesbarer Codes wie etwa Barcodes, RFID-Tags usw., obgleich diese nicht erforderlich sind, um ein Dokument zu erkennen oder Aktionen in Verbindung mit dem Dokument oder erfasstem Text durchzuführen. In einigen Fällen kann die Erfassungsvorrichtung Bilder aus der Umgebung der Vorrichtung aufnehmen, einschließlich Bilder von Objekten, die die Vorrichtung umgeben. Die Vorrichtung kann außerordentlich einfach sein und wenig mehr als einen Wandler, ein wenig Speicher und eine Datenschnittstelle beinhalten und auf andere Funktionalität angewiesen sein, die anderswo in dem System liegt, oder sie kann eine umfangreicher ausgestattete Vorrichtung, wie etwa ein Smartphone, sein. In einigen Fällen kann die Vorrichtung ein Mobilgerät mit Bild- und Videoerfassungs- sowie Abspielfähigkeiten sein, das eine oder mehrere Anwendungen, die einen Teil oder die Gesamtheit der hierin beschriebenen Funktionalität erbringen, in einem Speicher speichert und startet oder ausführt.
  • Die Erfassungsvorrichtung beinhaltet ein Erfassungselement, das Texte, Symbole, Grafiken usw. aus wiedergegebenen Dokumenten und anderen Informationsanzeigen erfasst. Das Erfassungselement kann eine Abbildungskomponente, wie etwa einen optischen Abtastkopf, eine Kamera, optische Sensoren und so weiter, beinhalten.
  • In einigen Beispielen handelt es sich bei der Erfassungsvorrichtung um einen tragbaren Scanner, der zum Scannen von Texten, Grafiken oder Symbolen aus wiedergegebenen Dokumenten dient. Der tragbare Scanner beinhaltet ein Abtastelement, das Text, Symbole, Grafiken und so weiter aus wiedergegebenen Dokumenten erfasst. Neben Dokumenten, die auf Papier gedruckt sind, beinhalten wiedergegebene Dokumente in einigen Beispielen Dokumente, die auf einem Bildschirm, wie etwa einem CRT-Monitor oder einer LCD-Anzeige, angezeigt wurden.
  • 3 ist ein Blockdiagramm, das ein Beispiel einer Erfassungsvorrichtung 300 veranschaulicht. Die Erfassungsvorrichtung 300, die ein Mobiltelefon und/oder eine andere mobile oder tragbare Vorrichtung oder Reihe von Kommunikationsvorrichtungen, einschließlich eines Laptops, eines Tablets oder Netbooks, von Personen getragener Gegenstände (Brillen, Kleidung, Hüte, Accessoires und so weiter), sein kann, kann eine Erfassungskomponente 310 beinhalten, wie etwa eine Kamera, eine Abbildungskomponente, einen Abtastkopf, ein Mikrofon oder einen anderen Audiorecorder und so weiter. In Fällen, in denen die Erfassungsvorrichtung 300 ein Mobiltelefon ist, kann die Erfassungskomponente 310 die Kamera sein, die mit dem Telefon verbunden ist, wie etwa ein bildbasierter CMOS-Sensor, der in vielen kommerziell verfügbaren Telefonen verwendet wird. In Fällen, in denen die Erfassungsvorrichtung 300 eine Digitalkamera ist, kann die Erfassungskomponente 310 Spiegelsystem, Prisma, Linse und/oder Sucher der Kamera beinhalten. In anderen Fällen kann die Erfassungskomponente eine getrennte Komponente oder zusätzliche Komponenten sein, die nicht in die Kamera des Telefons (nicht gezeigt) integriert sind, einschließlich, in einigen Fällen, nichtoptischer Komponenten.
  • Die Erfassungsvorrichtung 300 kann auch eine Anzeigekomponente 320 wie beispielsweise eine Benutzeroberfläche, einen Touchscreen und/oder andere Komponenten beinhalten, die in der Lage sind, Benutzern der Vorrichtung 300 Informationen anzuzeigen. Die angezeigten Informationen können von der Erfassungskomponente 310 aufgenommene Bilder, Bilder innerhalb eines Sichtfelds der Erfassungskomponente 310, Inhalte im Zusammenhang mit erfassten Informationen (wie etwa elektronische Gegenstücke erfasster Dokumente oder Inhalte, die die erfassten Informationen ergänzen), Inhalte, die Markierungen und andere Informationen für Inhalte im Sichtfeld der Erfassungskomponente 310 hervorheben oder überlagern, Auswahlmenüs, die Aktionen anzeigen, die in Reaktion auf das Erfassen von Informationen durchgeführt werden sollen, und so weiter beinhalten. Die Anzeigekomponente 320 kann außerdem Informationen von einem Benutzer empfangen, wie etwa über durch den Benutzer auswählbare Optionen, die auf der Anzeige präsentiert werden.
  • In einigen Beispielen des Systems beinhaltet die Erfassungsvorrichtung 300 eine oder mehrere Komponenten, die in der Lage sind, den Betrieb der Erfassungsvorrichtung 300 und/oder von anderen Computervorrichtungen und Systemen zu transformieren. Die Erfassungsvorrichtung 300 kann außerdem eine Erkennungskomponente 330 beinhalten, die erkennt, wann die Vorrichtung in der Nähe von Informationen ist, die von der Vorrichtung 300 erfasst werden können. Die Erkennungskomponente 330 kann Teil der Erfassungskomponente 310 oder darin integriert sein (wie etwa eine Komponente, die Text innerhalb von Bildern identifiziert, die von einer Abbildungskomponente aufgenommen wurden), kann ein Abstandssensor sein, der Abstände zwischen der Erfassungsvorrichtung 300 und Objekten (Dokumenten, Werbetafeln usw.) in der Umgebung der Vorrichtung misst, kann ein Ausrichtungssensor sein, der die Ausrichtung (Neigungswinkel in Bezug auf die x-, y- oder z-Achse und so weiter) der Erfassungsvorrichtung 300 misst, und so weiter. Weitere Details hinsichtlich der Interaktionen zwischen der Erfassungskomponente 310, der Anzeigekomponente und/oder der Erkennungskomponente 330, einschließlich Routinen, die durch diese Komponenten durchgeführt werden, sind hierin beschrieben.
  • Die Erkennungskomponente 330 kann auch Informationen von einer Zeitsteuerungskomponente (nicht dargestellt) beinhalten oder abrufen, die die Dauer bestimmter Zustande der Erfassungsvorrichtung misst. Zum Beispiel kann die Laufzeitkomponente, die Teil der Erkennungskomponente 330 sein kann, messen, wie lange die Erfassungsvorrichtung 300 parallel zu einer Achse gehalten wird, die durch ein wiedergegebenes Dokument, das auf einem Tisch platziert ist, definiert ist, oder kann messen, wie lange die Erfassungsvorrichtung 300 innerhalb einer bestimmten Nähe zu einem Straßenschild ist, und so weiter.
  • Die Erfassungsvorrichtung 300 kann zudem eine Betriebsanpassungskomponente 340 beinhalten, die den Betrieb oder den Modus der Erfassungsvorrichtung 300 ändert. In einigen Beispielen des Systems ändert die Betriebsanpassungskomponente 340 (automatisch) den Betriebsmodus der Erfassungsvorrichtung 300 bei Empfangen einer Angabe oder eines Signals von der Erkennungskomponente 330 darüber, dass die Erfassungsvorrichtung 300 in der Nähe von aufzunehmenden Informationen ist, von einem Standardmodus zu einem Informationserfassungsmodus (wie etwa einem Texterfassungsmodus). Zusätzlich kann die Betriebsanpassungskomponente den Betriebsmodus der Erfassungsvorrichtung 300 bei Empfangen einer Angabe oder eines Signals von der Erkennungskomponente 330 darüber, dass die Erfassungsvorrichtung 300 nicht länger in der Nähe von etwaigen Informationen ist, zurück zu einem Standardmodus ändern. In einigen Fällen startet die Betriebsanpassungskomponente 340, ohne den Betriebsmodus der Vorrichtung zu ändern, eine Anwendung, wie etwa eine Anwendung, die konfiguriert ist, Informationen zu erfassen und eine Aktion für einen Benutzer der Erfassungsvorrichtung 300 durchzuführen.
  • Wenn die Erfassungsvorrichtung 300 im Informationserfassungsmodus betrieben oder von einer laufenden Anwendung gesteuert wird, die von der Betriebsanpassungskomponente 340 gestartet wurde, kann es beispielsweise einige oder alle der hierin beschriebenen Routinen und Verfahren ausführen, einschließlich der Identifizierung von mit den erfassten Informationen verknüpften Dokumenten und Informationen und der Ausführung von mit den erfassten Informationen verknüpften Aktionen (z. B. Kaufen von Produkten, Anzeigen von Werbeanzeigen, Präsentieren von ergänzenden Informationen, Aktualisieren von Weblogs usw.). Die Erfassungsvorrichtung 300 kann einige oder alle der Routinen und Verfahren über Programme durchführen, die in dem Speicher der Erfassungsvorrichtung 300 gespeichert sind. wie etwa Programme, die auf die Erfassungsvorrichtung 300 heruntergeladen wurden, Programme, die in das Betriebssystem der Erfassungsvorrichtung 300 integriert sind, und so weiter.
  • Die Erfassungsvorrichtung 300 kann neben anderen hierin beschriebenen Teilen auch andere Komponenten beinhalten, wie Gerätebetriebskomponenten 350, die mit dem Betrieb der Vorrichtung verknüpft sind (Verarbeitungskomponenten, Speicherkomponenten, Stromkomponenten, SIM- und andere Sicherheitskomponenten, Eingabekomponenten wie Tastenfelder und Tasten usw.), Kommunikationskomponenten 360 (drahtlose Funkmodule, GSM-/Zellenkomponenten, SMS/MMS- und andere Messaging-Komponenten, BluetoothTM-Komponenten, RFID-Komponenten usw.) für die Kommunikation mit einem externen Netzwerk und/oder einer anderen Computervorrichtung, Komponenten 370, die der Vorrichtung Kontextinformationen bereitstellen (GPS und andere Geo-Positionssensoren, Beschleunigungssensor und andere Bewegungssensoren, Richtungssensoren, Temperatur-Messkomponenten und andere Komponenten zur Messung von Umgebungsbedingungen usw.) und andere Komponenten 380, wie einen Audio-Messwandler, externe Leuchten oder Vibrationskomponenten, um einem Benutzer Rückmeldung zu geben, und/oder Tasten, Scrollräder oder taktile Sensoren, um Eingaben von einem Benutzer zu erhalten, oder einen Touchscreen, um Informationen an Benutzer weiterzugeben und Eingaben von Benutzern zu erhalten.
  • Die Erfassungsvorrichtung 300 kann auch eine Logikkomponente (nicht dargestellt) zur Interaktion mit den verschiedenen anderen Komponenten beinhalten, um möglicherweise die empfangenen Signale zu verarbeiten und in verschiedene Formate und/oder Interpretationen umzuwandeln. Die Logikkomponente kann betreibbar sein, um Daten und Programmanweisungen, die in einem verbundenen Speicher (nicht gezeigt) wie etwa RAM, ROM, Flash- oder anderem geeigneten Speicher gespeichert sind, zu lesen und zu schreiben. Die Erfassungsvorrichtung 300 kann Informationen in Form von Datenstrukturen, Routinen, Algorithmen, Skripten und so weiter in einem Speicher oder anderen Speicherkomponenten, wie etwa computerlesbaren Medien, speichern oder enthalten.
  • Die Logikkomponente kann ein Zeitsignal von einer Takteinheit (nicht dargestellt) lesen. In einigen Beispielen kann die Erfassungsvorrichtung eine eingebaute Stromversorgung (nicht gezeigt) aufweisen. In anderen Beispielen kann der Scanner 302 über eine kabelgebundene Verbindung mit einer anderen Vorrichtung, wie etwa einer Universal Serial Bus(USB)-Verbindung, mit Strom versorgt werden. In einigen Beispielen kann die Erfassungsvorrichtung 300 auf mehrere einzelne Vorrichtungen verteilt sein.
  • 2.3.1. Informationserkennende Erfassungsvorrichtungen
  • sDas System kann eine Komponente zur Bestimmung, dass sich eine Erfassungsvorrichtung in der Nähe von Informationen wie z. B. einem wiedergegebenen Dokument befindet, und zur Änderung des Betriebs der Erfassungsvorrichtung basierend auf der Bestimmung beinhalten. In einigen Beispielen beinhaltet die Erfassungsvorrichtung eine Kamera, die Bilder wiedergegebener Dokumente oder anderer Informationsanzeigen erfasst, und eine Lagekomponente, die eine Nähe zu wiedergegebenen Dokumenten oder den anderen Informationsanzeigen erkennt. Die Lagekomponente kann eine optische Komponente innerhalb der Kamera sein oder verwenden, oder kann eine eigenständige Komponente, wie etwa ein Abstandssensor, sein. Das System kann, bei Bestimmen, dass die Erfassungsvorrichtung in der Nähe von Informationen ist, die Erfassungsvorrichtung veranlassen, den Modus zu einem zu andern, der Text, Dokumente und/oder andere Informationsanzeigen, wie etwa Objekte, die Text anzeigen, erkennt und damit interagiert. In einem Dokumenterfassungsmodus kann das System zum Beispiel, mittels der Erfassungsvorrichtung, einen oder mehrere Prozesse initiieren, die Bilder von wiedergegebenen Dokumenten oder Informationsanzeigen erfassen und Aktionen basierend auf diesen Erfassungen durchführen.
  • TEIL II – ÜBERBLICK ZU DEN BEREICHEN DES SYSTEMS
  • Die Integration von Papierinformationen und digitalen Informationen nimmt immer mehr zu, sodass es viele Aspekte vorhandener Technologien gibt, die verändert werden können, um diese Integration besser nutzen oder effektiver implementieren zu können. Dieser Abschnitt beleuchtet einige dieser Themen.
  • 3. Suche
  • Das Durchsuchen eines Korpus von Dokumenten, selbst so einen großen Korpus wie das World Wide Web, hat Einzug in den Alltag normaler Benutzer gehalten, die eine Tastatur zum Erzeugen einer Suchabfrage verwenden, die an eine Suchmaschine gesendet wird. Dieser und der folgende Abschnitt besprechen Aspekte sowohl hinsichtlich des Ausbaus einer Abfrage, die durch eine Erfassung eines wiedergegebenen Dokuments veranlasst wird, als auch der Suchmaschine, die eine solche Abfrage bearbeitet.
  • 3.1. Erfassen/Sprechen/Eintippen als Suchabfrage
  • Die Nutzung des beschriebenen Systems beginnt üblicherweise mit ein paar Worten, die von einem wiedergegebenen Dokument mithilfe eines der verschiedenen Verfahren; einschließlich der zuvor erwähnten, erfasst werden. Wenn die Eingabe eine Deutung erfordert, um sie in Text umzuwandeln, wie beispielsweise im Fall von OCR oder Spracheingabe, kann es in dem System ein End-to-End-Feedback geben, sodass der Dokumentenkorpus verwendet werden kann, um den Erkennungsprozess zu verbessern. End-to-End-Feedback kann durch Durchführen einer Approximation der Erkennung oder Deutung, Identifizieren eines Satzes von einem oder mehreren übereinstimmenden Kandidatendokumenten und anschließendem Verwenden von Informationen aus den möglichen Übereinstimmungen in den Kandidatendokumenten, um die Erkennung oder Deutung weiter zu verfeinern oder zu beschränken, angewendet werden. Unterlagen von Bewerbern können nach ihrer wahrscheinlichen Relevanz (z. B. basierend auf der Anzahl der anderen Benutzer, die Informationen aus diesen Dokumenten erfasst haben, oder deren Popularität im Internet) gewichtet werden, wobei diese Gewichtungen in diesem iterativen Erkennungsprozess angewendet werden können.
  • 3.2. Suchen nach kurzen Wortverbindungen
  • Da die selektive Leistung einer Suchabfrage, die auf ein paar Wörtern basiert, erheblich erhöht wird, wenn die relativen Positionen dieser Wörter bekannt ist, muss nur wenig Text erfasst werden, damit das System die Position des Textes in einem Korpus identifizieren kann. In den meisten Fällen wird der Eingabetext eine zusammenhängende Wortfolge sein, wie etwa ein kurzer Satz.
  • 3.2.1 Lokalisieren eines Dokuments und einer Position in einem Dokument bei Erfassung kurzer Phrasen
  • Neben dem Auffinden des Dokuments, aus dem eine Wortverbindung stammt, kann das System die Position in diesem Dokument identifizieren und Maßnahmen basierend auf diesem Wissen ergreifen.
  • 3.2.2. Sonstige Verfahren zum Auffinden einer Position
  • Das System kann auch andere Verfahren zur Ermittlung des Dokuments und der Position einsetzen, z. B. kann es Wasserzeichen oder andere spezielle Markierungen in dem wiedergegebenen Dokument verwenden.
  • 3.3. Einbindung anderer Faktoren in Suchabfragen
  • Neben dem erfassten Text können andere Faktoren (d. h. Informationen zur Identität, zum Profil und zum Kontext des Benutzers) Bestandteil der Suchabfrage sein, wie beispielsweise die Zeit der Erfassung, die Identität und der geografische Standort des Benutzers, Kenntnisse über die Gewohnheiten des Benutzers und kürzliche Aktivitäten usw.
  • Die Identität des Dokuments und andere Informationen in Zusammenhang mit vorherigen erfassten Informationen, insbesondere wenn sie erst kürzlich erfasst wurden, können Bestandteil einer Suchabfrage sein.
  • Die Identität des Benutzers kann anhand einer eindeutigen Kennung, die mit einer Erfassungsvorrichtung verknüpft ist, und/oder biometrischen oder anderen ergänzenden Informationen (Sprachmuster, Fingerabdrücke usw.) bestimmt werden.
  • 3.4. Kenntnisse über die Art von Unzuverlässigkeiten in Suchabfragen (OCR-Fehler usw.)
  • Bei der Erstellung der Suchabfrage können die Arten von Fehlern berücksichtigt werden, die wahrscheinlich beim entsprechenden verwendeten Erfassungsverfahren auftreten. Ein Beispiel dafür ist eine Anzeige vermuteter Fehler bei der Erkennung spezieller Zeichen; in diesem Fall kann eine Suchmaschinen diese Zeichen als Platzhalter behandeln oder ihnen eine geringere Priorität zuweisen.
  • 3.5. Lokale Zwischenspeicherung des Index für bessere Leistung/Offline-Nutzung
  • Manchmal kann es sein, dass die Erfassungsvorrichtung zum Zeitpunkt der Datenerfassung nicht mit der Suchmaschine oder dem Korpus kommunizieren kann. Aus diesem Grund können Informationen, die für die Offline-Verwendung der Vorrichtung hilfreich sind, im Voraus auf die Vorrichtung oder eine Entität, mit der die Vorrichtung kommunizieren kann, heruntergeladen werden. In einigen Fällen kann die Gesamtheit oder ein wesentlicher Teil eines Indexes, der mit einem Korpus assoziiert ist, heruntergeladen werden. Dieses Thema wird in Abschnitt 15.3 näher besprochen.
  • 3.6. Abfragen in jedweder Form können aufgezeichnet und später ausgeführt werden
  • Falls es aller Wahrscheinlichkeit zu Verzögerungen oder Kosten in Zusammenhang mit der Übertragung einer Abfrage oder dem Empfang der Ergebnisse kommt, können diese vorgeladenen Informationen die Leistung der lokalen Vorrichtung verbessern, die Kommunikationskosten senken und dem Benutzer hilfreiches und zeitnahes Feedback geben.
  • Wenn keine Kommunikation möglich ist (das lokale Gerät ist offline), können die Abfragen gespeichert und dann an den Rest des Systems übermittelt werden, sobald die Kommunikation wiederhergestellt ist.
  • In diesen Fällen kann es wichtig sein, einen Zeitstempel mit jeder Abfrage zu übermitteln. Die Erfassungszeit kann einen erheblichen Faktor bei der Auslegung der Abfrage darstellen. Abschnitt 13.1 bespricht beispielsweise die Bedeutung der Erfassungszeit im Verhältnis zu früheren Erfassungen. Es ist wichtig zu beachten, dass der Erfassungszeitpunkt nicht immer derselbe sein wird wie der Zeitpunkt, zu dem die Abfrage ausgeführt wird.
  • 3.7. Parallele Suche
  • Aus Leistungsgründen können in Reaktion auf eine einzelne Erfassung mehrere Abfragen nacheinander oder parallel gestartet werden. In Reaktion auf eine einzelne Erfassung können etliche Abfragen gesendet werden, beispielsweise wenn neue Wörter zu der Erfassung hinzugefügt werden, oder um mehrere Suchmaschinen parallel abzufragen.
  • In einigen Beispielen sendet das System beispielsweise Abfragen an einen speziellen Index für das aktuelle Dokument, an eine Suchmaschine auf einer lokalen Maschine, an eine Suchmaschine in einem Unternehmensnetzwerk und an entfernte Suchmaschinen im Internet.
  • Den Ergebnissen bestimmter Suchen kann eine höhere Priorität als den Ergebnissen von anderen Suchen zugewiesen werden.
  • Die Antwort auf eine gegebene Abfrage kann anzeigen, dass andere ausstehende Abfragen überflüssig sind; diese werden unter Umständen vor Abschluss abgebrochen.
  • 4. Papier und Suchmaschinen
  • Häufig ist es wünschenswert, dass eine Suchmaschine, die herkömmliche Online-Abfragen verarbeitet, auch solche Abfragen verarbeiten kann, die aus wiedergegebenen Dokumenten stammen. Herkömmliche Suchmaschinen können auf vielfältige Weise verbessert oder modifiziert werden, damit sie sich besser zur Verwendung mit dem beschriebenen System eignen.
  • Die Suchmaschine und/oder andere Komponenten des Systems können Indizes erstellen und beibehalten, die andere oder zusätzliche Funktionen aufweisen. Das System kann eine eingehende, aus Papier stammende Abfrage modifizieren oder die Art verändern, wie die Abfrage in der resultierenden Suche bearbeitet wird, und diese aus Papierdokumenten stammenden Abfragen somit von denen unterscheiden, die aus Abfragen, die in einen Webbrowser eingetippt wurden, und aus anderen Quellen stammen. Zudem kann das System, wenn die Ergebnisse ausgegeben werden, die aus den aus Papier stammenden Suchen hervorgegangen sind, unterschiedliche Aktionen im Vergleich zu denen aus anderen Quellen einleiten oder unterschiedliche Optionen anbieten. Jeder dieser Ansätze wird nachstehend besprochen.
  • 4.1. Indexierung
  • Häufig kann derselbe Index mithilfe von papierbasierten oder herkömmlichen Abfragen durchsucht werden, der Index kann jedoch auf verschiedenste Weise für die Verwendung im aktuellen System optimiert werden.
  • 4.1.1. Kenntnisse über die Papierform
  • Solch einem Index können zusätzliche Felder hinzugefügt werden, die bei einer papierbasierten Suche helfen.
  • Indexeintrag, der Dokumentenverfügbarkeit in Papierform angibt
  • Das erste Beispiel ist ein Feld. Dieses zeigt an, dass bekannt ist, dass das Dokument in Papierform vorhanden ist oder verteilt wurde. Das System kann solchen Dokumenten eine höhere Priorität geben, wenn die Abfrage papierbasiert ist.
  • Kenntnisse über die Beliebtheit der Papierform
  • In diesem Beispiel wurden die statistischen Daten bezüglich der Popularität von Papierdokumenten (und optional bezüglich der Teilbereiche innerhalb dieser Dokumente), wie beispielsweise die Anzahl der Erfassungsaktivitäten, die vom Herausgeber oder anderen Quellen bereitgestellten Umlaufnummern usw., verwendet, um diesen Dokumenten eine höhere Priorität zuzuweisen und so die Priorität von digitalen Dokumentgegenstücken zu erhöhen (z. B. für browserbasierte Abfragen oder Websuchen) usw.
  • Kenntnisse über wiedergegebenes Format
  • In einem weiteren wichtigen Beispiel werden unter Umständen die Informationen über das Layout einer spezifischen Wiedergabe eines Dokuments aufgezeichnet.
  • Beispielsweise kann der Index für eine bestimmte Ausgabe eines Buches Informationen darüber enthalten, wo Zeilen- und Seitenumbrüche eingefügt wurden, welche Schriften verwendet wurden oder wo spezielle Großschreibungen verwendet wurden.
  • Der Index kann auch Informationen zur Lage von anderen Elementen auf der Seite beinhalten, wie z. B. Bilder, Textfelder, Tabellen und Werbeanzeigen.
  • Verwendung semantischer Informationen im Original
  • Zuletzt können auch semantische Informationen im Index aufgezeichnet werden, die aus dem Quellenmarkup abgeleitet werden können, aber nicht im Papierdokument zu sehen sind, wie z. B. ein bestimmter Textteil, der sich auf ein Element bezieht, das zum Kauf angeboten wird, oder ein bestimmter Absatz, der Programmcode enthält.
  • 4.1.2. Indexierung, wenn das Erfassungsverfahren bekannt ist
  • Ein zweiter Faktor, der die Art des Indexes verändern kann, ist die Kenntnis von der Art der Erfassung, die wahrscheinlich verwendet wird. Eine Suche, die von einem erfassten Bild eines Textes initiiert wird, kann nützlich sein, wenn der Index Zeichen berücksichtigt, die häufig im OCR-Prozess verwechselt werden, oder Angaben über die im Dokument verwendeten Schriften beinhaltet. Beispielsweise kann die Reihenfolge des Buchstabens „r”, gefolgt von dem Buchstaben „n”, mit dem Buchstaben „m” im OCR-Prozess verwechselt werden. Dementsprechend können die Zeichenfolgen „m” oder „m” mit denselben Dokumentgruppen im Index verknüpft sein. Gleichermaßen kann, wenn die Abfrage aus einer Spracherkennung hervorgeht, ein Index, der auf ähnlich klingenden Phonemen basiert, wesentlich effizienter durchsucht werden. Als weiteres Beispiel kann das System ein Dokument vor Indexieren des Dokuments künstlich verwackeln, um die Unschärfe, die wahrscheinlich auftreten wird, wenn ein Benutzer Bilder des Dokuments durch Bewegen einer Erfassungsvorrichtung über dem Dokument aufnimmt, widerzuspiegeln. Ähnliche Techniken können das System widerstandsfähig gegenüber schlechter Optik, Rauschen usw. machen. Ein weiterer Faktor, der sich auf die Verwendung des Indexes in dem beschriebenen Modell auswirken kann, ist die Bedeutung iterativen Feedbacks während des Erkennungsprozesses. Wenn die Suchmaschine in der Lage ist, Feedback von dem Index bereitzustellen, während der Text erfasst wird, kann sie die Genauigkeit der Erfassung erheblich erhöhen.
  • Indexierung unter Verwendung von Offsets
  • Wenn der Index wahrscheinlich mithilfe der in einigen Beispielen in Abschnitt 9 beschriebenen OCR-Verfahren mit Offset/Autokorrelation durchsucht wird, speichert das System die entsprechenden Offset- oder Signatur-Informationen in einem Index.
  • 4.1.3. Mehrere Indizes
  • Schließlich kann es im beschriebenen System häufig vorkommen, dass Suchen in vielen Indizes durchgeführt werden. Indizes können auf mehreren Maschinen in einem Unternehmensnetzwerk verwaltet werden. Teilindizes können auf die Erfassungsvorrichtung oder auf eine Maschine in der Nähe der Erfassungsvorrichtung heruntergeladen werden. Für Benutzer oder Gruppen von Benutzern mit bestimmten Interessen, Gewohnheiten oder Berechtigungen können getrennte Indizes erstellt werden. Für jedes Dateisystem, jedes Verzeichnis, selbst für jede Datei auf der Festplatte eines Benutzers kann ein Index vorhanden sein. Indizes werden von Benutzern und von Systemen veröffentlicht und abonniert. Es wird daher wichtig sein, Indizes zu erstellen, die effizient verteilt, hochgeladen, zusammengeführt und getrennt werden können.
  • 4.2. Verarbeiten von Abfragen
  • 4.2.1. Kenntnis, dass es sich um eine papierbasierte Erfassung handelt
  • Eine Suchmaschine kann andere Aktionen ausführen, wenn sie erkennt, dass die Suchabfrage anhand eines Papierdokuments erstellt wurde. Die Maschine kann die Abfrage derart bearbeiten, dass sie beispielsweise toleranter gegenüber Fehlertypen ist, die bei bestimmten Erfassungsverfahren eher auftreten.
  • Sie kann dies möglicherweise von einigen in der Abfrage enthaltenen Indikatoren (z. B. ein Kennzeichen, das die Art der Erfassung wiedergibt) oder aber von der Abfrage selbst ableiten (z. B. anhand der Erkennung von Fehlern oder Unklarheiten, die typisch für den OCR-Prozess sind).
  • Alternativ können Abfragen von einer Erfassungsvorrichtung über einen anderen Kanal, Port oder Verbindungstyp als jene von anderen Quellen an die Maschine gesendet werden und so auf diese Weise von anderen unterschieden werden. Einige Beispiele des Systems leiten Abfragen beispielsweise mittels eines dedizierten Gateways an die Suchmaschine weiter. Somit weiß die Suchmaschine, dass alle Abfragen, die über das dedizierte Gateway laufen, aus einem Papierdokument stammen.
  • 4.2.2. Verwendung von Kontext
  • Im nachfolgenden Abschnitt 13 werden eine Vielzahl von unterschiedlichen Faktoren beschrieben, die nicht Bestandteil des erfassten Textes selbst sind, jedoch wesentlich zur Identifizierung eines Dokuments beitragen können. Dazu gehören solche Dinge wie der Verlauf kürzlich erfolgter Erfassungen, die längerfristigen Lesegewohnheiten eines bestimmten Benutzers, der geografische Standort eines Benutzers und die kürzlich erfolgte Verwendung von bestimmten elektronischen Dokumenten. Diese Faktoren werden hierin als „Kontext” bezeichnet.
  • Ein Teil des Kontextes kann von der Suchmaschine selbst verarbeitet werden und in den Suchergebnissen wiedergegeben werden. Beispielsweise kann die Suchmaschine der Erfassungsverlauf eines Benutzers verfolgen und kann dieser Erfassungsverlauf außerdem mit einem Querverweis auf herkömmliche tastaturbasierte Abfragen versehen. In diesen Fällen kann die Suchmaschine mehr Zustandsinformationen als die meisten herkömmlichen Suchmaschinen über jeden einzelnen Benutzer verwalten und verwenden, und jede Interaktion mit einer Suchmaschine kann derart angesehen werden, dass sie sich über mehrere Suchen und einen längeren Zeitraum als heutzutage üblich erstreckt.
  • Ein Teil des Kontextes kann in der Suchabfrage (Abschnitt 3.3) an die Suchmaschine übertragen und möglicherweise in der Maschine gespeichert werden, um so bei zukünftigen Abfragen verwendet werden zu können. Zuletzt wird ein Teil des Kontextes besser anderswo bearbeitet und wird so zu einem Filter oder einer sekundären Suche, die auf die Ergebnisse der Suchmaschine angewendet wird.
  • Beitrat eines Datenstroms zur Suche
  • Eine wichtige Eingangsgröße im Suchprozess ist der weitere Kontext darüber, wie die Gemeinschaft der Benutzer mit der wiedergegebenen Version des Dokuments interagiert – beispielsweise, welche Dokumente am meisten gelesen werden und von wem. Es gibt Analogien zu einer Websuche, die die Seiten, auf die am häufigsten verlinkt wird, oder solche, die aus vergangenen Suchergebnissen am häufigsten ausgewählt wurden, ausgibt. Für weitere Diskussion zu diesem Thema siehe Abschnitt 13.4 und 14.2.
  • 4.2.3. Dokument-Teilbereiche
  • Das beschriebene System kann nicht nur Informationen zu Dokumenten als Ganzes, sondern auch Informationen über Teilbereiche von Dokumenten, bis hin zu einzelnen Wörtern, ausgeben und verwenden. Viele bereits vorhandene Suchmaschinen konzentrieren sich hauptsächlich auf das Auffinden eines Dokuments oder einer Datei, die für eine bestimmte Abfrage relevant ist. Diejenigen, die mit einer feineren Körnung arbeiten und eine Stelle innerhalb eines Dokuments identifizieren können, bieten einen erheblichen Vorteil für das beschriebene System.
  • 4.3. Ausgeben von Ergebnissen
  • Die Suchmaschine kann einige der weiteren Informationen, die sie nun verwaltet, verwenden, um die ausgegebenen Ergebnisse zu beeinflussen.
  • Das System kann außerdem bestimmte Dokumente ausgeben, auf die der Benutzer nur aufgrund der Tatsache, dass er im Besitz der Papierkopie ist, zugreifen kann (Abschnitt 7.4).
  • Des Weiteren kann die Suchmaschine über den einfachen Abruf von Text hinaus neue Aktionen oder Optionen anbieten, die für das beschriebene System geeignet sind.
  • 5. Markup Anmerkungen. Verbesserung. Metadaten
  • Neben dem Durchführen des Erfassen-Suchen-Abrufen-Prozesses, verknüpft das beschriebene System außerdem zusätzliche Funktionalität mit einem Dokument, und insbesondere mit spezifischen Stellen oder Segmenten von Text innerhalb eines Dokuments. Diese zusätzliche Funktionalität ist oftmals, wenn auch nicht exklusiv, mit dem wiedergegebenen Dokument verbunden, indem es mit dessen elektronischem Gegenstück verknüpft ist. Als ein Beispiel könnten Hyperlinks auf einer Webseite dieselbe Funktionalität aufweisen, wenn ein Ausdruck dieser Webseite erfasst wird. In einigen Fällen ist diese Funktionalität nicht in dem elektronischen Dokument definiert, sondern ist gespeichert oder wird anderswo erzeugt.
  • Diese Ebene zusätzlicher Funktionalität wird hierin als „Markup” bezeichnet.
  • 5.1. Statische oder dynamische Überlagerungen
  • Eine Möglichkeit, sich das Markup vorzustellen, ist als eine „Überlagerung” auf dem Dokument, welche weitere Informationen über das Dokument oder einen Teil davon bereitstellt – und Aktionen spezifizieren kann, die damit in Verbindung stehen. Das Markup kann für Menschen lesbare Inhalte beinhalten, ist für einen Benutzer aber oftmals unsichtbar und/oder zur Maschinennutzung bestimmt. Zu Beispielen gehören Optionen, die in einem Popup-Menü auf einer nahegelegenen Anzeige angezeigt werden sollen, wenn ein Benutzer Text aus einem bestimmten Bereich in einem wiedergegebenen Dokument erfasst, oder Audiosamples, die die Aussprache einer bestimmten Wortverbindung veranschaulichen. Als ein weiteres Beispiel kann das System einen Jingle abspielen, der mit einer Werbeanzeige assoziiert ist, wenn ein Benutzer die Werbeanzeige aus dem wiedergegebenen Dokument erfasst.
  • 5.1.1 Mehrere Ebenen, möglicherweise aus mehreren Quellen
  • Jedes Dokument kann mehrere Überlagerungen gleichzeitig aufweisen, und diese können aus einer Reihe von Speicherorten stammen. Markup-Daten können von dem Autor des Dokuments oder vom Benutzer oder von Dritten erstellt oder bereitgestellt werden.
  • Markup-Daten können an das elektronische Dokument angehängt oder darin eingebettet sein. Sie können sich an einem herkömmlichen Ort befinden (zum Beispiel an dem selben Ort wie das Dokument, jedoch mit einer anderen Dateinamenendung). Markup-Daten können in den Suchergebnissen der Abfrage enthalten sein, die das Originaldokument gefunden hat, oder können durch eine separate Abfrage an dieselbe oder eine andere Suchmaschine gefunden werden. Markup-Daten können unter Verwendung des ursprünglichen erfassten Textes und anderer Erfassungsinformationen oder Kontextinformationen gefunden werden, oder können unter Verwendung bereits abgeleiteter Informationen über das Dokument und den Ort der Erfassung gefunden werden. Markup-Daten können selbst dann an einem Ort gefunden werden, der in dem Dokument spezifiziert ist, wenn das Markup selbst nicht in dem Dokument enthalten ist.
  • Das Markup kann, in ähnlicher Weise dazu, wie Links auf einer herkömmlichen HTML-Webseite oftmals als statische Daten innerhalb des HTML-Dokuments eingebettet sind, größtenteils statisch und spezifisch für das Dokument sein, wobei Markup jedoch auch dynamisch erzeugt und/oder auf eine große Anzahl von Dokumenten angewendet werden kann. Ein Beispiel für dynamisches Markup sind an ein Dokument angehängte Informationen, die aktuelle Aktienpreise von Unternehmen beinhalten, die in diesem Dokument erwähnt werden. Ein Beispiel für ein vielseitig angewendetes Markup sind Übersetzungsinformationen, die in mehreren Dokumenten oder Abschnitten von Dokumenten automatisch in einer bestimmten Sprache verfügbar sind.
  • 5.1.2. Persönliche „Plugin”-Ebenen
  • Benutzer können Markupdaten auch installieren oder bestimmte Quellen dafür abonnieren und somit die Reaktion des Systems auf bestimmte Erfassungen personalisieren.
  • 5.2. Schlüsselwörter und Wortverbindungen, Marken und Logos
  • Einige Elemente in Dokumenten können ein bestimmtes „Markup” oder eine Funktionalität aufweisen, die mit ihnen basierend auf ihren eigenen Eigenschaften anstatt auf ihrer Position in einem bestimmten Dokument assoziiert sind. Zu Beispielen gehören spezielle Markierungen, die in dem Dokument nur zu dem Zweck abgedruckt sind, erfasst zu werden, sowie Logos und Handelsmarken, die den Benutzer mit weiteren Informationen über die betreffende Organisation verbinden können. Dasselbe gilt für „Schlüsselwörter” oder „Schlüsselwortverbindungen” in dem Text. Organisationen können bestimmte Wortverbindungen registrieren, mit denen sie assoziiert sind oder mit denen sie gerne assoziiert sein würden, und diesen bestimmtes Markup beifügen, das überall dort verfügbar wäre, wo diese Wortverbindung erfasst wird.
  • Jedes Wort, jede Wortverbindung usw. kann dazugehöriges Markup aufweisen. Zum Beispiel kann das System bestimmte Items zu einem Popup-Menü (z. B. einen Link auf eine Online-Buchhandlung) immer dann hinzufügen, wenn der Benutzer das Wort „Buch” oder den Titel eines Buches oder eines Themas im Zusammenhang mit Büchern erfasst. In einigen Beispielen des Systems werden digitale Dokumentgegenstücke oder Indizes herangezogen, um zu bestimmen, ob eine Erfassung in der Nähe des Wortes „Buch” oder des Titels eines Buches oder eines Themas im Zusammenhang mit Büchern stattgefunden hat – und das Systemverhalten wird gemäß dieser Nähe zu Schlüsselwort-Elementen verändert. In dem vorstehenden Beispiel ist zu beachten, dass das Markup Daten, die aus einem nicht kommerziellen Text oder Dokumenten erfasst wurden, ermöglicht, eine kommerzielle Transaktion auszulösen.
  • 5.3. Vom Benutzer bereitgestellte Inhalte
  • 5.3.1. Benutzerkommentare und Anmerkungen, einschließlich Multimedia
  • Anmerkungen sind eine weitere Art von elektronischen Informationen, die mit einem Dokument verknüpft sein können. Zum Beispiel kann ein Benutzer eine Audiodatei seiner Überlegungen zu einem bestimmten Dokument als Sprachanmerkungen zum späteren Abrufen anfügen. Als ein anderes Beispiel für eine Multimedia-Anmerkung kann ein Benutzer Fotos von Orten anfügen, auf die in dem Dokument Bezug genommen wird. Der Benutzer stellt im Allgemeinen Anmerkungen für das Dokument bereit, doch das System kann Anmerkungen aus anderen Quellen assoziieren (andere Benutzer in einer Arbeitsgruppe können beispielsweise Anmerkungen teilen).
  • 5.3.2. Notizen vom Korrekturlesen
  • Ein wichtiges Beispiel für von Benutzern stammendes Markup ist die Kommentierung auf Papierdokumenten im Zuge eines Korrekturlese-, Bearbeitungs- oder Überprüfungsvorgangs.
  • 5.4. Inhalte Dritter
  • Wie zuvor erwähnt kann Markup häufig durch Dritte bereitgestellt werden, z. B. durch andere Leser des Dokuments. Ein gutes Beispiel sind Onlineunterhaltungen und Rezensionen, sowie von einer Community verwaltete Informationen im Zusammenhang mit bestimmten Werken, von Freiwilligen beigesteuerte Übersetzungen und Erklärungen.
  • Ein weiteres Beispiel für Markup Dritter ist das, das von Werbekunden bereitgestellt wird.
  • 5.5. Dynamisches Markup auf Basis von Datenströmen anderer Benutzer
  • Durch Analysieren der Daten, die von Dokumenten von mehreren oder allen Benutzern des Systems erfasst wurden, kann Markup erstellt werden, das auf den Aktivitäten und Interessen einer Gemeinschaft basiert. Ein Beispiel kann eine Online-Buchhandlung sein, die Markup oder Anmerkungen erstellt, die dem Benutzer faktisch mitteilen „Personen, denen dieses Buch gefallen hat, haben auch Gefallen gefunden an ...”. Das Markup kann weniger anonym sein und kann dem Benutzer mitteilen, welche der Personen in seiner Kontaktliste dieses Buch ebenfalls vor Kurzem gelesen haben. Weitere Beispiele für die Datenstromanalyse sind in Abschnitt 14 enthalten.
  • 5.6. Markup auf Basis von externen Ereignissen und Datenquellen
  • Oftmals wird Markup auf externen Ereignissen und Datenquellen, wie etwa Eingaben aus einer Unternehmensdatenbank, Informationen aus dem öffentlichen Internet oder Statistiken, die von dem lokalen Betriebssystem zusammengetragen wurden, basiert sein.
  • Datenquellen können auch lokaler sein und können insbesondere Informationen über den Benutzerkontext bereitstellen – über seine Identität, Standort und Aktivitäten. Das System kann zum Beispiel mit einer Mobiltelefonkomponente der Erfassungsvorrichtung des Benutzers kommunizieren und eine Markup-Ebene bereitstellen, die dem Benutzer die Option gibt, ein Dokument an jemanden zu senden, mit dem der Benutzer vor Kurzem am Telefon gesprochen hat.
  • 5.7 Bildverbesserungen und Kompensation
  • In einigen Beispielen stellt das System durch Überlagern mit einer Darstellung, die das Dokument mit verschiedenen Anzeigeelementen zeigt, eine erweiterte Ansicht eines Dokuments bereit. Die erweiterte Ansicht kann ein Echtzeitbild eines Abschnitts des Dokuments innerhalb des Sichtfelds einer Erfassungsvorrichtung mit verschiedenen Anzeigeelementen in Verbindung mit dem Dokument überlagern oder kann verknüpfte elektronische Versionen oder Bilder des Dokuments, die durch das System abgerufen oder erzeugt wurden, mit verschiedenen Anzeigeelementen in Verbindung mit dem Dokument darstellen oder überlagern. In einigen Beispielen stellt das System Dokumentinteraktionstechniken bereit, die verschiedene Hardware-Konfigurationen von Erfassungsvorrichtungen, wie etwa die Anordnung von Kameras und anderen Abbildungskomponenten in Bezug auf die Anzeige oder einen Mittelpunkt eines Dokuments, die Größe einer Erfassungsvorrichtung und/oder die Anzeige der Erfassungsvorrichtung ausgleichen. Das System kann Dokumentinteraktionstechniken bereitstellen, die es einem Benutzer ermöglichen, Papierdokumente zu navigieren, Markup in Verbindung mit Dokumenten zu identifizieren, Papierdokumente heran- oder herauszuzoomen und so weiter. Das System kann zum Beispiel auf Gesten reagieren, die von einem Benutzer einer Erfassungsvorrichtung durchgeführt werden, wie etwa Gesten, die eine Erfassungsvorrichtung im Verhältnis zu einem Papierdokument in verschiedenen Richtungen bewegen. Neben anderen Vorteilen ermöglicht das System Benutzern somit, mit Papierdokumenten. Zielobjekten und anderen Anzeigen von Informationen unter Verwendung von Multifunktionsmobilgeräten zu interagieren, die nicht notwendigerweise nur dafür hergestellt wurden, mit Informationen zu interagieren oder Informationen aus der Umgebung um die Vorrichtung herum zu erfassen.
  • 6. Authentifizierung Personalisierung und Sicherheit
  • In vielen Situationen ist die Identität des Benutzers bekannt. Diese kann gelegentlich eine „anonyme Identität” sein, wobei der Benutzer beispielsweise nur über die Seriennummer der Erfassungsvorrichtung identifiziert wird. Normalerweise wird jedoch davon ausgegangen, dass das System über wesentlich detailliertere Kenntnisse über den Benutzer verfügt, die verwendet werden können, um das System zu personalisieren und zu erlauben, dass Aktivitäten und Transaktionen im Namen des Benutzers durchgeführt werden.
  • 6.1. Benutzerchronik und „Lebensbibliothek”
  • Eine der einfachsten und doch hilfreichsten Funktionen, die das System durchführen kann, ist das Anlegen eines Datensatzes für einen Benutzer von dem Text, den er erfasst hat, und allen anderen Informationen, die mit diesen erfassten Informationen verknüpft sind, einschließlich der Details von allen gefundenen Dokumenten, der Stelle innerhalb dieses Dokuments und allen infolgedessen ausgeführten Aktionen. In einigen Beispielen kann das System erfasste Informationen an eine benutzerdefinierte E-Mail-Adresse senden, wobei ein Benutzer mittels eines E-Mail-Clients über ein E-Mail-Protokoll, wie etwa POP3, IMAP usw., auf die erfassten Informationen zugreifen kann. Darüber hinaus können die erfassen Informationen, die als E-Mail gespeichert werden, einen Link zu einer umfangreicheren Lebensbibliothekserfahrung beinhalten, wie etwa die, die in Abschnitt 16.1 beschrieben sind.
  • Diese gespeicherte Chronik ist sowohl für den Benutzer als auch für das System nützlich.
  • 6.1.1. Für den Benutzer
  • Dem Benutzer kann eine „Lebensbibliothek” präsentiert werden, wobei es sich um einen Datensatz von allem handelt, was er gelesen und erfasst hat. Diese kann allein dem persönlichen Interesse dienen oder aber beispielsweise in einer Bibliothek von einem Akademiker verwendet werden, der Material für die Bibliografie seiner nächsten Abhandlung sammelt.
  • In manchen Fällen möchte der Benutzer die Bibliothek möglicherweise öffentlich zugänglich machen, indem er sie beispielsweise wie einen Weblog im Internet veröffentlicht, sodass andere sehen können, was er liest und was ihn interessiert.
  • Zuletzt kann die Erfassung, in Situationen, in denen der Benutzer irgendeinen Text erfasst und das System nicht unmittelbar auf die Erfassung einwirken kann (zum Beispiel, weil eine elektronische Version des Dokuments noch nicht zur Verfügung steht), in der Bibliothek gespeichert werden und kann später, entweder automatisch oder als Reaktion auf eine Benutzeranforderung, verarbeitet werden. Ein Benutzer kann außerdem neue Markup-Dienste abonnieren und diese auf vorherige Erfassungen anwenden.
  • 6.1.2. Für das System
  • Ein Datensatz, der die zuvor erfassten Informationen eines Benutzers beinhaltet, ist auch für das System nützlich. Die Lesegewohnheiten und den -verlauf des Benutzer zu kennen, kann viele Aspekte des Systembetriebs verbessern. Das einfachste Beispiel ist, dass jede Erfassung, die von einem Benutzer durchgeführt wird, wahrscheinlicher aus einem Dokument stammt, aus dem der Benutzer in der jüngeren Vergangenheit Informationen erfasst hat, wobei es insbesondere dann, wenn die vorherige Erfassung innerhalb der letzten paar Minuten erfolgt ist, sehr wahrscheinlich ist, dass sie aus demselben Dokument stammt. Gleichermaßen ist es wahrscheinlicher, dass ein Dokument in einer Anfang-bis-Ende-Reihenfolge gelesen wird. Bei englischen Dokumenten ist es daher ebenfalls wahrscheinlicher, dass spätere Erfassungen weiter unten in dem Dokument erfolgen werden. Derartige Faktoren können dem System dabei helfen, in Fällen von Mehrdeutigkeit den Ort der Erfassung festzustellen, und können zudem die Menge an Text reduzieren, der erfasst werden muss.
  • 6.2. Erfassungsvorrichtung als Zahlungs-, Identitäts- und Authentifizierungsvorrichtung
  • Da der Erfassungsprozess in der Regel mit irgendeiner Art Vorrichtung beginnt, kann die Vorrichtung als Schlüssel verwendet werden, der den Benutzer identifiziert und bestimmte Aktionen autorisiert.
  • 6.2.1. Erfassungsvorrichtung mit Benutzerkonto verknüpfen
  • Die Erfassungsvorrichtung kann mit dem Konto eines Mobiltelefons verknüpft werden. Die Erfassungsvorrichtung kann mit einem Mobilfunkkonto beispielsweise durch Einsetzen einer SIM-Karte, die mit dem Konto verbunden ist, in die Erfassungsvorrichtung verknüpft werden. Gleichermaßen kann die Vorrichtung in einer Kreditkarte oder anderen Zahlungskarte eingebettet sein oder über das System verfügen, um eine solche Karte damit zu verbinden. Die Vorrichtung kann daher als ein Zahlungstoken verwendet werden und Finanztransaktionen können durch die Erfassung aus dem wiedergegebenen Dokument initiiert werden.
  • 6.2.2. Verwenden der Erfassung zur Authentifizierung
  • Die Erfassungsvorrichtung kann über den Prozess der Erfassung eines Tokens, Symbols oder Textes, der oder das mit einem bestimmten Benutzer oder Konto verknüpft ist, auch mit diesem Benutzer oder Konto verknüpft werden. Darüber hinaus kann die Erfassungsvorrichtung zur biometrischen Identifikation verwendet werden, zum Beispiel durch Erfassen eines Fingerabdrucks des Benutzers. Im Fall einer audiobasierten Erfassungsvorrichtung kann das System den Benutzer durch Abgleichen des Stimmmusters des Benutzers oder durch Erfordern, dass der Benutzer ein bestimmtes Passwort oder einen Satz sagt, identifizieren.
  • Wenn ein Benutzer beispielsweise ein Zitat aus einem Buch erfasst und ihm die Option bereitgestellt wird, das Buch von einem Onlinehändler zu kaufen, kann der Benutzer diese Option auswählen und wird anschließend aufgefordert, seinen Fingerabdruck zu erfassen, um die Transaktion zu bestätigen.
  • Siehe auch Abschnitt 15.5 und 15.6.
  • 6.2.3. Sichere Erfassungsvorrichtung
  • Wenn die Erfassungsvorrichtung zur Identifizierung und Authentifizierung des Benutzers und zur Initiierung von Transaktionen im Namen des Benutzers verwendet wird, ist es wichtig, dass die Kommunikationen zwischen der Vorrichtung und anderen Teilen des Systems sicher sind. Außerdem ist es wichtig, vor Situationen, wie dass eine andere Vorrichtung eine Erfassungsvorrichtung imitiert, und sogenannten „Man-In-The-Middle”-Angriffen, bei denen eine Kommunikation zwischen der Vorrichtung und anderen Komponenten abgehört wird, zu schützen.
  • Techniken, die eine derartige Sicherheit bereitstellen, sind Fachleuchten auf dem Gebiet hinreichend bekannt; In zahlreichen Beispielen sind die Hardware und die Software in der Vorrichtung und anderswo im System so konfiguriert, dass sie diese Techniken implementieren.
  • 7. Veröffentlichungsmodelle und -elemente
  • Ein Vorteil des beschriebenen Systems liegt darin, dass es, um viele der Vorteile des Systems zu erhalten, nicht erforderlich ist, die üblichen Prozesse des Erzeugens, Druckens oder Veröffentlichens von Dokumenten zu verändern. Es gibt jedoch Gründe, dass die Ersteller oder Herausgeber eines Dokuments – nachstehend einfach als „Herausgeber” bezeichnet – die Funktionalität zur Unterstützung des beschriebenen Systems ggf. herstellen möchten.
  • Dieser Abschnitt befasst sich hauptsächlich mit den veröffentlichten Dokumenten selbst. Für Informationen über andere damit im Zusammenhang stehende kommerzielle Transaktionen, wie etwa Werbung, siehe Abschnitt 10 mit der Überschrift „P-Commerce”.
  • 7.1. Elektronische Gegenstücke zu gedruckten Dokumenten
  • Das System ermöglicht, dass gedruckte Dokumente über eine zugehörige elektronische Präsenz verfügen. Üblicherweise liefern Herausgeber oftmals eine CD-ROM mit einem Buch aus, die weitere digitale Informationen, Anleitungsvideos und andere Multimediadaten, Beispielcode oder Dokumente oder weiteres Referenzmaterial enthält. Zusätzlich unterhalten einige Herausgeber Webseiten in Verbindung mit bestimmten Veröffentlichungen, welche derartige Materialien sowie Informationen, die nach dem Zeitpunkt der Veröffentlichung aktualisiert werden können, wie etwa Fehlerverzeichnisse, weitere Kommentare, aktualisierte Referenzmaterialien, Bibliografien und weitere Quellen für relevante Daten und Übersetzungen in andere Sprachen, zur Verfügung stellen. Online-Foren ermöglichen es den Lesern, ihre Kommentare zu der Veröffentlichung einzubringen.
  • Das beschreibene System ermöglicht es, dass derartige Materialien wesentlich enger als je zuvor mit dem wiedergegebenen Dokument in Verbindung stehen, und ermöglicht es dem Benutzer, diese wesentlich einfacher aufzufinden und damit zu interagieren. Durch Erfassen eines Teils eines Textes aus dem Dokument kann das System den Benutzer automatisch mit digitalen Materialien, die mit dem Dokument verknüpft sind und insbesondere mit dem spezifischen Teil des Dokuments verknüpft sind, vernetzen und diese Materialien auf der Erfassungsvorrichtung anzeigen. Gleichermaßen kann der Benutzer über die Erfassungsvorrichtung mit Onlinecommunities, die sich mit diesem Abschnitt des Textes auseinandersetzen, oder mit Anmerkungen und Kommentaren von anderen Lesern vernetzt werden. In der Vergangenheit hätten derartige Informationen typischerweise durch Suchen nach einer bestimmten Seitenzahl oder einem Kapitel aufgefunden werden müssen.
  • Eine beispielhafte Anwendung hierfür findet sich auf dem Gebiet wissenschaftlicher Lehrbücher (Abschnitt 17.5).
  • 7.2. „Abonnements” für gedruckte Dokumente
  • Einige Herausgeber verfügen unter Umständen über Mailing-Listen, in die sich die Leser eintragen lassen können, falls sie über neue relevante Informationen oder die Veröffentlichung einer neuen Ausgabe des Buchs informiert werden möchten. Mit dem beschriebenen System kann der Benutzer sein Interesse an bestimmten Dokumenten oder Teilen von Dokumenten leichter bekunden, in einigen Fällen sogar bevor der Herausgeber ein Bereitstellen einer derartigen Funktionalität erwogen hat. Das Interesse des Lesers kann dem Herausgeber mitgeteilt werden, wodurch dessen Entscheidung darüber, wann und wo Aktualisierungen, weitere Informationen, Neuauflagen oder sogar ganz neue Publikationen zu Themen verfügbar sind, die sich für bestehende Bücher als interessant erwiesen haben, möglicherweise beeinflusst wird.
  • 7.3. Gedruckte Markierungen, die eine besondere Bedeutung aufweisen oder spezielle Daten enthalten
  • Viele Aspekte des Systems sind einfach durch die Verwendung von dem bereits in einem Dokument vorhandenen Text möglich. Wenn das Dokument jedoch in dem Wissen hergestellt wird, dass es in Verbindung mit dem System verwendet werden kann, kann zusätzliche Funktionalität durch Drucken zusätzlicher Informationen in Form spezieller Markierungen hinzugefügt werden, welche verwendet werden können, um den Text oder eine erforderliche Aktion genauer zu identifizieren oder die Interaktion des Dokuments mit dem System anderweitig zu verbessern. Das einfachste und wichtigste Beispiel ist ein Hinweis für den Leser, dass das Dokument durch das System definitiv abrufbar ist. Beispielsweise kann ein spezielles Symbol verwendet werden, um anzuzeigen, dass dieses Dokument mit einem zugehörigen Online-Diskussionsforum verknüpft ist.
  • Diese Symbole können nur für den Leser gedacht sein oder möglicherweise während der Erfassung vom System erkannt und zur Initiierung einer Aktion verwendet werden. In dem Symbol können ausreichend Daten codiert sein, um mehr als nur das Symbol zu identifizieren: Es kann beispielsweise außerdem Informationen über das Dokument, die Ausgabe und den Ort des Symbols speichern, die durch das System erkannt und gelesen werden können.
  • 7.4. Autorisierung durch Besitz des Papierdokuments
  • Es gibt einige Situationen, in denen Besitz oder Zugriff auf das gedruckte Dokument dem Benutzer bestimmte Rechte einräumen würde, beispielsweise den Zugriff auf eine elektronische Kopie des Dokuments oder auf zusätzliche Materialien. Mit dem beschriebenen System könnten solche Rechte in einfach als Ergebnis einer Erfassung von Abschnitten des Textes aus dem Dokument oder einer Erfassung spezieller gedruckter Symbole gewährt werden. In Fallen, in denen das System sicherstellen muss, dass der Benutzer im Besitz des gesamten Dokuments war, fordert es den Benutzer ggf. dazu auf, bestimmte Elemente oder Phrasen von bestimmten Seiten, z. B. „Die zweite Zeile von Seite 46”, zu erfassen.
  • 7.5. Ablaufende Dokumente
  • Wenn das gedruckte Dokument ein Gateway zu zusätzlichen Materialien und Funktionalität ist, kann ein Zugriff auf Funktionalitäten auch zeitlich beschränkt werden. Nach dem Ablaufdatum kann von einem Benutzer verlangt werden, dass er eine Gebühr bezahlt, um eine neuere Ausgabe des Dokuments zu erhalten, um erneut auf die Funktionalitäten zugreifen zu können. Das Papierdokument kann natürlich weiterhin verwendet werden, verliert jedoch einen Teil seiner erweiterten elektronischen Funktionalität. Dies kann wünschenswert sein, zum Beispiel, weil es für den Herausgeber von Nutzen ist, Gebühren für einen Zugang zu elektronischen Materialien zu beziehen, oder es erforderlich zu machen, dass der Benutzer gelegentlich neue Ausgaben erwirbt, oder weil es Nachteile in Verbindung mit veralteten Ausgaben der gedruckten Dokumente, die im Umlauf verbleiben, gibt. Gutscheine sind ein Beispiel für eine Art kommerziellen Dokuments, das ein Ablaufdatum aufweisen kann.
  • 7.6. Popularitätsanalyse und Veröffentlichungsentscheidungen
  • In Abschnitt 10.5 wird die Verwendung der Statistike des Systems zur Beeinflussung der Vergütung von Autoren und der Preisgestaltung von Werbeanzeigen erörtert.
  • In einigen Beispielen leitet das System die Popularität einer Veröffentlichung von der Aktivität in der elektronischen Community, die mit ihr verknüpft ist, sowie von der Verwendung des Papierdokuments ab. Diese Faktoren können Herausgebern helfen, Entscheidungen darüber zu treffen, was sie in Zukunft veröffentlichen werden. Wenn sich ein Kapitel in einem vorhandenen Buch beispielsweise als überaus populär herausstellt, kann es sich lohnen, dieses auf eine separate Veröffentlichung auszuweiten.
  • 8. Dokumentzugriffsdienste
  • Ein wichtiger Aspekt des beschriebenen Systems ist die Fähigkeit, einem Benutzer, der Zugriff auf eine wiedergegebene Kopie eines Dokuments hat, den Zugriff auf eine elektronische Version dieses Dokuments zu ermöglichen. In einigen Fällen ist ein Dokument in einem öffentlichen Netzwerk oder einem privaten Netzwerk, zu dem der Benutzer Zugang hat, frei verfügbar. Das System verwendet den erfassten Text, um das Dokument zu identifizieren, aufzufinden und abzurufen, wobei es in einigen Fällen auf der Erfassungsvorrichtung angezeigt oder im E-Mail-Posteingang abgelegt wird.
  • In einigen Fällen ist ein Dokument in elektronischer Form vorhanden, aber möglicherweise aufgrund einer Vielzahl von Gründen nicht für den Benutzer zugänglich. Es kann vorkommen, dass die Konnektivität nicht ausreicht, um das Dokument abzurufen, dass der Benutzer nicht berechtigt ist, es abzurufen, es können Kosten mit der Erteilung des Zugriffs darauf verbunden sein oder das Dokument kann zurückgezogen und womöglich durch eine neue Version ersetzt worden sein, um nur einige Möglichkeiten zu nennen. Das System stellt dem Benutzer typischerweise Feedback über diese Situationen bereit.
  • Wie in Abschnitt 7.4 beschrieben variiert der Umfang oder die Art des Zugriffs, der einem bestimmten Benutzer gewährt wird, wenn bekannt ist, dass der Benutzer bereits Zugriff auf eine gedruckte Ausgabe des Dokuments hat.
  • 8.1. Authentifizierter Dokumentenzugriff
  • Der Zugriff auf das Dokument kann auf bestimmte Benutzer oder auf diejenigen beschränkt sein, die bestimmte Kriterien erfüllen, oder nur unter bestimmten Umständen verfügbar sein, z. B. wenn der Benutzer mit einem sicheren Netzwerk verbunden ist. Abschnitt 6 beschreibt einige der Möglichkeiten, wie die Anmeldedaten eines Benutzers und einer Erfassungsvorrichtung ermittelt werden können.
  • 8.2. Dokumentenerwerb-Vergütung des Urheberrechtsinhabers
  • Dokumente, die der allgemeinen Öffentlichkeit nicht frei zur Verfügung stehen, können dennoch gegen Zahlung einer Gebühr, häufig zur Vergütung des Herausgebers oder des Urheberrechtsinhabers, zugänglich sein. Das System kann Zahlungsmöglichkeiten direkt implementieren oder kann andere Zahlungsmethoden im Zusammenhang mit dem Benutzer verwenden, einschließlich der in Abschnitt 6.2 beschriebenen.
  • 8.3. Dokumenthinterlegung und proaktiver Abruf
  • Elektronische Dokumente sind häufig flüchtiger Natur; die digitale Quellversion eines wiedergegebenen Dokuments kann gegenwärtig verfügbar, in der Zukunft jedoch nicht mehr zugänglich sein. Das System kann die existierende Version im Interesse des Benutzers selbst dann, wenn der Benutzer dies nicht angefordert hat, abrufen und speichern und garantiert somit deren Verfügbarkeit, falls sie der Benutzer in Zukunft anfordern sollte. Dadurch wird sie außerdem dem System zur Verwendung bereitgestellt, zum Beispiel als Teil des Prozesses der Identifikation zukünftiger Erfassungen.
  • In dem Fall, dass eine Zahlung für den Zugriff auf das Dokument erforderlich ist, kann ein vertrauenswürdiger Dienst zur „Dokumenthinterlegungs” das Dokument gegen Zahlung einer geringen Gebühr und gegen Zusicherung, dass der Urheberrechtsinhaber in der Zukunft im vollen Umfang vergütet wird, wenn der Benutzer jemals das Dokument von dem Dienst anfordert, im Namen des Benutzers abrufen.
  • Variationen diesbezüglich können implementiert werden, wenn das Dokument zum Zeitpunkt der Erfassung nicht in elektronischer Form vorliegt. Der Benutzer kann den Dienst autorisieren, in seinem/ihrem Namen eine Anfrage für das Dokument abzuschicken oder eine Zahlung dafür durchzuführen, wenn das elektronische Dokument zu einem späteren Zeitpunkt verfügbar sein sollte.
  • 8.4. Verknüpfung mit anderen Abonnements und Konten
  • Manchmal kann eine Zahlung basierend auf einer vorhandenen Verknüpfung mit einem anderen Konto oder Abonnement des Benutzers erlassen oder verringert werden bzw. als bezahlt gelten. Abonnenten der gedruckten Version einer Zeitung können beispielsweise automatisch berechtigt sein, die elektronische Version abzurufen.
  • In anderen Fällen ist die Verknüpfung unter Umständen nicht ganz so direkt: Einem Benutzer wird möglicherweise basierend auf einem Konto, das von seinem Arbeitgeber eingerichtet wurde, oder basierend auf seiner Erfassung einer gedruckten Kopie, die einem Freund gehört, der ein Abonnent ist, Zugriff gewährt.
  • 8.5. Ersetzen des Fotokopierens durch Erfassen-und-Drucken
  • Der Prozess des Erfassen von Text aus einem Papierdokument, Identifizierens eines elektronischen Originals und Druckens dieses Originals oder eines Teils dieses Originals, das mit der Erfassung verknüpft ist, stellt eine Alternative zum herkömmlichen Fotokopieren dar und bietet viele Vorteile:
    • • Das Papierdokument muss sich nicht am selben Ort wie das Enddokument befinden Ausdruck und muss in keinem Fall zur gleichen Zeit da sein.
    • • Die Dokumente nutzen nicht ab bzw. werden nicht beschädigt, wie das häufig beim Fotokopieren der Fall ist besonders bei alten, brüchigen und wertvollen Dokumenten, kann verhindert werden
    • • Die Qualität der Kopie ist in der Regel viel höher.
    • • Es können Aufzeichnungen darüber gespeichert werden, welche Dokumente oder Teile von Dokumenten am häufigsten kopiert werden.
    • • Die Bezahlung des Urheberrechtsinhabers kann im Rahmen des Prozesses erfolgen.
    • • Unautorisiertes Kopieren kann untersagt werden.
  • 8.6. Auffinden wertvoller Originale von Fotokopien
  • Wenn Dokumente sehr wertvoll sind, z. B. wenn es sich um Rechtspapiere oder -dokumente handelt, die von historischer oder anderweitig von besonderer Bedeutung sind, arbeiten Personen in der Regel mit Kopien dieser Dokumente, häufig viele Jahre lang, während die Originale an einem sicheren Ort aufbewahrt werden.
  • Das beschriebene System könnte mit einer Datenbank verknüpft werden, in der der Ort (z. B. ein zur Archivierung dienendes Lagerhaus) eines Originaldokuments aufgezeichnet wird, wodurch jemand, der Zugriff auf eine Kopie hat, das archivierte Originalpapierdokument leicht lokalisieren sind.
  • 9. Technologien zur Verarbeitung von Informationen
  • Technologien zur optischen Zeichenerkennung (OCR) konzentrieren sich bisher üblicherweise auf Bilder, die eine große Menge an Text beinhalten, die z. B. von einem Flachbettscanner stammt, der eine ganze Seite erfasst. OCR-Technologien benötigen oftmals umfassendes Training und Korrektur durch den Benutzer, um einen brauchbaren Text zu erzeugen. OCR-Technologien erfordern eine erhebliche Verarbeitungsleistung der Maschine, die die OCR durchführt, und obwohl viele Systeme ein Wörterbuch verwenden, sollen sie im Allgemeinen mit einem quasi unendlichen Vokabular arbeiten können.
  • Alle zuvor beschriebenen herkömmlichen Eigenschaften können durch das beschriebene System verbessert werden. Jedoch können die hierin beschriebenen Techniken, wie etwa die Erkennung von Text, Identifikation von Dokumenten, Erkennung von Informationen und andere, natürlich auch unter Verwendung von typischen OCR-Technologien implementiert sein.
  • Viele der diskutierten Probleme sind direkt mit anderen Erkennungstechnologien, insbesondere der Spracherkennung, verknüpft. Wie in Abschnitt 3.1 erwähnt, kann der Prozess des Erfassen von Papier erreicht werden, indem ein Benutzer den Text einer Vorrichtung, die Audio erfasst, laut vorliest. Fachleute werden erkennen, dass die hier in Bezug auf Bilder, Schriftarten und Textfragmente besprochenen Prinzipien oftmals auch für Audiosamples, Benutzersprachmodelle und Phoneme gelten.
  • Eine Erfassungsvorrichtung, die zur Verwendung mit dem beschriebenen System vorgesehen ist, ist häufig klein, tragbar, hat einen niedrigen Strombedarf und dient nicht einzig und allein zur Texterfassung. Die Erfassungsvorrichtung kann optische Elemente aufweisen, die für OCR nicht ideal geeignet sein können, oder keine optischen Elemente aufweisen, die bei OCR behilflich sind.
  • Die Erfassungsvorrichtung erfasst unter Umständen jeweils nur ein paar Worte und in einigen Implementierungen möglicherweise noch nicht einmal ein ganzes Zeichen auf einmal, sondern einen horizontalen Schnitt durch den Text, wobei viele dieser Schnitte zusammengefügt werden, um ein erkennbares Signal zu bilden, von dem ein Text abgeleitet werden kann. Die Erfassungsvorrichtung kann zudem eine sehr eingeschränkte Verarbeitungsleistung oder Speicher aufweisen, weshalb, obgleich sie in einigen Beispielen sämtliche OCR-Prozesse selbst durchführen kann, viele Beispiele auf eine Verbindung zu einer leistungsstärkeren Vorrichtung, möglicherweise zu einem späteren Zeitpunkt, angewiesen sind, um die erfassten Signale in Text umzuwandeln. Schließlich können die Möglichkeiten für Benutzerinteraktionen begrenzt sein, sodass möglicherweise alle Anfragen für Benutzereingaben auf einen späteren Zeitpunkt verschoben werden müssen oder in einem höheren Grad als bisher üblich in einem „Beste Schätzung”-Modus gearbeitet werden muss.
  • In einigen Beispielen verarbeitet das System erfasste Informationen, indem es erst das Vorhandensein von zu erkennenden interessierenden Informationen identifiziert, wie beispielsweise Text oder Sprache, dann die Merkmale extrahiert, die mit dem Ort der interessierenden Informationen innerhalb der erfassten Informationen verknüpft sind, wie beispielsweise die Position von Wörtern, Zeilen, Absätze, Spalten usw. auf einer Seite oder der Frequenzbereich für einen bestimmten Redner in einer Menschenmenge, und schließlich die Merkmale der interessierenden Informationen erkennt, wie beispielsweise das Layout des Textes innerhalb eines wiedergegebenen Dokuments oder die Identifizierung von Unicode-Zeichen, die erkannten Buchstaben innerhalb eines wiedergegebenen Dokuments entsprechen, um zum Beispiel die Quelle des erfassten Bildes zu identifizieren oder eine Markup-Ebene zu erzeugen und über dem erfassten Bild anzuzeigen. Obgleich diese Prozesse auf jedweder Art von Informationen durchgeführt werden können, beschreiben die nachstehenden Beispiele diese Prozesse in Bezug auf textbasierte wiedergegebene Dokumente.
  • 9.1 Identifikation und Extraktion
  • Identifikation ist der Prozess der Bestimmung der Wahrscheinlichkeit, dass ein erfasstes Bild Text enthält. Da die Erfassungsvorrichtung Bilder ständig aufnehmen kann, kann das System bevor es versucht. Textmerkmale aus des erfassten Informationen zu extrahieren oder den Text zu erkennen, zunächst bestimmen, ob ein aufgenommenes Bild Text enthält. Mit anderen Worten, das System ist „Text-bewusst”, sodass es jederzeit feststellen kann, ob es sich in der Gegenwart von Text befindet.
  • Sobald das System bestimmt, dass Text vorhanden ist, kann das System mit dem Extraktionsprozess beginnen. Der Extraktionsprozess identifiziert die Lage des Textes innerhalb einer Erfassung. Der Extraktionsprozess kann zum Beispiel Bereichsgrenzen erzeugen, die Wörtern und Absätzen innerhalb des aufgenommenen Bildes entsprechen.
  • Mehrere Faktoren spielen bei den Identifikations- und Extraktionsprozessen eine Rolle. Beim Analysieren von Text kann das System beispielsweise verschiedene Merkmale in Zusammenhang mit Strichen innerhalb des Textes identifizieren, wie z. B. das Vorhandensein kontrastreicher Kanten, das Fehlen von Farbvariationen innerhalb der Striche (z. B. beim Vergleich des Hintergrunds mit den Vordergrundfarben eines Striches), eine gleichbleibende Breite (horizontal, vertikal oder in beide Richtungen), das Vorhandensein gerader Kanten, das Vorhandensein sanft abgerundeter Kanten usw. In einem anderen Beispiel kann das System die Periodizität oder Wiederholung von Eigenschaften von möglichem Text innerhalb eines erfassten Bildes identifizieren, wie z. B. die Kanten von Strichen, das Vorhandensein horizontaler und/oder vertikaler Striche, Grundlinien, Höhenlinien, Winkel zwischen dominanten vertikalen Linien und Grundlinien, das Vorhandensein von Glyphen oder Teilkomponenten von Glyphen (z. B. Ecken, Kurven, Diagonalen, Brücken zwischen Teilen einer Glyphe wie einen schmalen Strich zwischen breiten Strichen in einem kalligrafischen Buchstaben, Serifen, konsistente Zeilenenden und Gehrungen usw.). Das System kann zudem Bewegungsunschärfe verwenden, um das Vorhandensein von Text basierend auf dem Vorhandensein von hellen und dunkelfarbigen Bändern in der Bewegungsrichtung, wie z. B. Hintergrund- und Vordergrundstreifenbildung im Falle einer extremen Bewegungsunschärfe entlang der horizontalen Textachse in von links nach rechts verlaufenden Skripten, identifizieren.
  • Weitere Faktoren, die während der Identifikation und Extraktion von Text möglicherweise berücksichtigt werden, sind unter anderem folgende:
    • • Zeilen
    • – Glyphen-Vertikale innerhalb einer Linie
    • – Glyphen-Horizontale innerhalb einer Linie
    • – Grundlinie
    • – Höhe der Glyphen oder Symbole innerhalb einer Linie
    • – Horizontale Freiräume zwischen Zeichen, Wörtern und/oder Strichen
    • – Vertikale Leerstellen zwischen Linien
    • – Kanten und Ränder
    • • Dichte
    • – Strich-zu-Hintergrund-Verhältnisse
    • – Dichte innerhalb von und zwischen Zeilen
    • • Zeichenfolgen
    • – N-Begriffsgruppen (Folge von N aufeinanderfolgenden Wörtern)
    • • Wörter
    • • Großbuchstaben
    • • Interpunktion
    • • Sätze (Großbuchstabe, Satzzeichen, Punkt)
    • • Absätze
    • • Überschriften
    • • Beschriftungen
    • – Basierend auf Nähe zu einem Bild
    • • Erklärungen
    • – Felder, Symbole usw.
    • • Text auf Grafiken
    • – Kurzer Text
    • – Höherer Kontrast, Periodizität usw. als Hintergrundbild
    • • Logos
    • – Unternehmens-/Produkt-/Dienstnamen
    • – Größere Unternehmenslogos
    • – Abgrenzung vom Hintergrund (z. B. ovale Umrandungen).
  • Fachleute auf dem Gebiet werden nachvollziehen können, dass das System bei der Durchführung der Textidentifikation und -extraktion und auf jeder Analyseebene irgendeines oder alle der zuvor beschriebenen Merkmale verwenden kann. Während des Identifikationsprozesses kann sich das System zum Beispiel allein auf die Anzahl horizontaler Freiräume zwischen Zeichen stützen, während es sich während des Extraktionsprozesses auf Entfernungen zwischen den horizontalen Freiräumen und ihrer Beziehung zu Kanten innerhalb des erfassten Bildes stützt.
  • Das System kann auch bei nichttextuellen Informationen basierend auf zum Beispiel großen Bereichen von weichen Farbverläufen, Zufälligkeiten (z. B. die Position kontrastreicher Stellen, die Länge kontrastreicher Kanten, Unebenheit kontrastreicher Kanten), dem Vorhandensein von Gesichtern, Körpern oder Gebäuden innerhalb eines erfassten Bildes, uneinheitlichen Größen von Linien oder verbundenen Komponenten usw. eine Identifikation und Extraktion durchführen.
  • 9.2. Texterkennung
  • Basierend auf den extrahierten Positionsinformationen kann das System versuchen, den Text oder die Merkmale des Textes innerhalb des erfassten Bildes zu erkennen. Das System kann den Text zum Beispiel an eine OCR-Komponente senden oder auf Basis identifizierter Merkmale des Textes (z. B. Muster von Oberlängen und/oder Unterlängen innerhalb des Textes) eine Signatur erzeugen. Vor dem Durchführen der Texterkennung kann das System Text normalisieren oder kanonisieren, beispielsweise durch Umwandeln jedes kursiven oder fetten Texts in eine Standardformatierung.
  • Der Texterkennungsprozess kann auf mehreren Merkmalen zur Erkennung der Eigenschaften des Textes oder zur Erzeugung einer Signatur für ein wiedergegebenes Dokument beruhen, wie Glyphenmerkmale (z. B. eingeschlossene Leerstellen, vertikale und horizontale Striche usw.), Zeichensetzung, Großschreibung, Zeichenleerstellen und Linien-, Absatz-, Spalten-, Kopfzeilen-, Überschriften-, Tasten-/Legenden-, Logo-, Text-auf-Grafik-Merkmale usw. Darüber hinaus können Wortmerkmale wie Wortabstände oder Wortdichte im Texterkennungsprozess helfen. Das System kann zum Beispiel Informationen im Zusammenhang mit Zwischenräumen zwischen Wörtern, die auf ein Dokument gedruckt sind, wie etwa Entfernungen zwischen Räumen (horizontal, vertikal, orthogonal und so weiter), der Breite der Zwischenräume und so weiter verwenden. Das System kann bei der Analyse des Weiteren Kenntnisse über Zeilenumbrüche einbeziehen. Wenn Zeilenumbrüche bekannt sind, kann sich das System zum Beispiel auf die vertikale Ausrichtung von Wortpositionen stützen, wohingegen sich das System, wenn Zeilenumbrüche unbekannt sind, auf benachbarte Folgen von relativen Wortlängen stützen kann. Als ein weiteres Beispiel kann das System Informationen im Zusammenhang mit der Zeichendichte verwenden, wie etwa relative Dichten zwischen Zeichen (horizontal, vertikal, orthogonal und so weiter), relative Dichten zwischen gruppierten Zeichenpaaren oder absolute Dichteinformationen. Bestimmte Merkmale können für Schriftart, Schriftgröße usw. unveränderlich sein, wie etwa Punkt- und Liniensymmetrien (z. B. Autokorrelationen innerhalb von Zeichen, um Punkte und/oder Linien herum). Das System kann dynamisch auswählen, welche Merkmale innerhalb eines aufgenommenen Bildes analysiert werden sollen. Bei Vorhandensein von optischer und Bewegungsunschärfe kann das System zum Beispiel weniger detaillierte Aspekte des Textes verwenden, wie etwa relative Wortbreiten. In einigen Beispielen kann sich das System eindeutige N-Begriffsgruppen zunutze machen, indem es bestimmt, ob unbekannte oder seltene N-Begriffsgruppen Rauschen oder Hochsignalinformationen (Schreibfehler, E-Mail-Adressen, URLs usw.) sind, zum Beispiel basierend auf der Gewissheit von Zeichen, die von üblichen N-Begriffsgruppen abweichen, der Länge der Abweichung, der Zuordnung regulärer Ausdrücke (z. B. für E-Mail-Adressen und URLs) und so weiter.
  • Das System kann auch externe Ressourcen verwenden, die nicht Teil eines wiedergegebenen Dokuments sind, um Text innerhalb des wiedergegebenen Dokuments zu erkennen, wie etwa Kenntnisse über die ungefähre Anzahl von Glyphen in einem Wort, Wörterbücher (z. B. Worthäufigkeitsverzeichnisse), Grammatik- und Zeichensetzungsregeln, Wahrscheinlichkeiten, mit denen bestimmte Wort- und Zeichen-Gramme innerhalb eines Korpus gefunden werden, reguläre Ausdrücke für den Abgleich mit verschiedenen Zeichenfolgen wie E-Mail-Adressen, URL usw. Darüber hinaus kann das System Ressourcen wie etwa DNS-Server Adressbücher und Telefonbücher verwenden, um erkannten Text, wie etwa URLs, E-Mail-Adressen und Telefonnummern, zu verifizieren. Als ein weiteres Beispiel kann das System Schriftartmatrizen verwenden, um bei der Erkennung und Verifizierung verschiedener Zeichen zu helfen. Nicht erkannte Zeichen in einer gegebenen Schriftart können mit erkannten Zeichen in derselben Schriftart verglichen werden, um basierend auf der Beziehung zwischen den nicht erkannten und erkannten Zeichen, die sich in einer Schriftartmatrix zeigt, bei ihrer Erkennung zu helfen. Ein unerkanntes „d” kann beispielsweise basierend darauf, dass ein „c” und ein „l” erkannt wird, als „d” erkannt werden, wenn eine Schriftarten-Matrix anzeigt, dass die Darstellung eines „d” der Kombination aus „c” und „l” ähnelt.
  • Das System kann den erkannten Text oder die erkannten Merkmale zur Identifizierung des Dokuments, das in dem erfassten Bild dargestellt ist, unter den Dokumenten in einem Dokumentenkorpus verwenden. Die Menge und Art der zum Identifizieren verwendeten Informationen kann basierend auf einer Reihe von Faktoren variieren, wie etwa dem Dokumenttyp, der Größe des Korpus, den Dokumentinhalten usw. Eine Folge von 5 oder 6 Wörtern innerhalb eines erfassten Bildes oder die relative Position von Zwischenräumen zwischen den Wörtern können ein entsprechendes Dokument innerhalb eines relativ großen Korpus zum Beispiel eindeutig identifizieren. In einigen Beispielen kann das System eine Umrechnungstabelle verwenden, um die Wahrscheinlichkeit dafür zu berechnen, dass Informationen über bestimmte Merkmale oder die Kombination aus Informationen, die bestimmte Merkmale betreffen, ein Dokument eindeutig identifizieren werden. Beispielsweise kann die Umrechnungstabelle anzeigen, dass eine Wortfolge aus 5 Wörtern die gleiche Wahrscheinlichkeit für ein eindeutiges Identifizieren eines Dokuments aufweist, wie zwei unterschiedliche Folgen aus 3 Wörtern, das Oberlängen-/Unterlängenmuster von 2 aufeinanderfolgenden Zeilen und so weiter. In einigen Beispielen kann das System erfasste Bilder automatisch sammeln oder „zusammenfügen”, um beispielsweise ein zusammengesetztes Bild eines gerenderten Dokuments zu erzeugen, das mit höherer Wahrscheinlichkeit ein entsprechendes Dokument als die erfassten Bilder einzeln identifiziert.
  • In einigen Beispielen kann der Texterkennungsprozess die Erfassung von Informationen beeinflussen. Wenn der Text zum Beispiel als unscharf oder unvollständig erkannt wird, kann das System den Fokus der Kamera der Erfassungsvorrichtung anpassen oder den Benutzer auffordern, die Erfassungsvorrichtung neu zu positionieren oder einzustellen. Verschiedene Techniken, die das System einsetzen kann, um Text zu erkennen, sind nachstehend detaillierter beschrieben.
  • 9.2.1 „Ungewisse” OCR
  • sDie primäre neue Eigenschaft der OCR innerhalb des beschriebenen Systems ist der Umstand, dass sie allgemein Bilder von Text untersucht, der anderswo existiert und möglicherweise in digitaler Form abgerufen werden kann. Eine exakte Transkription des Textes wird von der OCR-Engine daher nicht immer erfordert. Das OCR-System kann einen Satz oder eine Matrix aus möglichen Übereinstimmungen ausgeben, die in einigen Fällen Wahrscheinlichkeitsrichtungen beinhaltet, die nach wie vor verwendet werden können, um nach dem digitalen Original zu suchen.
  • 9.2.2 Iterative OCR-schätzen, disambiguieren, schätzen ...
  • Wenn die Vorrichtung, die die Erkennung durchführt, zum Zeitpunkt der Verarbeitung eine Verbindung zum Dokumentenindex herstellen kann, dann können während des OCR-Prozesses Informationen zum Inhalt des Dokumentenkorpus bereitgestellt werden, wodurch sich die Erkennungsgenauigkeit möglicherweise erheblich erhöht.
  • Eine solche Verbindung gestattet der Vorrichtung auch, den Benutzer zu informieren, wenn ausreichend Text zur Identifikation der digitalen Quelle erfasst wurde.
  • 9.2.3 Verwenden der Kenntnis der wahrscheinlichen Wiedergabe
  • Wenn das System Kenntnis von Aspekten der wahrscheinlichen gedruckten Wiedergabe eines Dokuments hat, wie etwa die beim Drucken verwendete Schriftart oder das Seiten-Layout oder welche Abschnitte kursiv sind, ist dies ebenfalls nützlich für den Erkennungsprozess. (Abschnitt 4.1.1).
  • 9.2.4 Zwischenspeichern von Schriftarten-Schriftart auf dem Host festlegen und auf den Client herunterladen
  • Wenn Kandidaten-Quelltexte im Dokumentenkorpus identifiziert sind, kann die Schriftart oder eine Wiedergabe davon auf das Gerät heruntergeladen werden, um die Erkennung zu unterstützen.
  • 9.2.5 Autokorrelation und Zeichenabstände
  • Auch wenn Komponentenzeichen eines Textfragments unter Umständen die anerkannteste Möglichkeit zum Darstellen eines Fragments von einem Text sind, das als Dokumentensignatur verwendet werden kann, funktionieren andere Darstellungen des Textes hinreichend gut, sodass der tatsächliche Text eines Textfragments bei dem Versuch, das Textfragment in einem digitalen Dokument und/oder einer Datenbank zu lokalisieren, oder wenn die Darstellung eines Textfragments zur Disambiguierung in eine lesbare Form gebracht wird, nicht verwendet werden muss. Andere Darstellungen von Textfragmenten können Vorteile bereitstellen, die den eigentlichen Textdarstellungen fehlen. Eine optische Zeichenerkennung von Textfragmenten ist zum Beispiel oftmals fehlerhaft, im Gegensatz zu anderen Darstellungen von erfassten Textfragmenten, die verwendet werden können, um nach einem Textfragment zu suchen und/oder dieses nachzubilden, ohne auf optische Zeichenerkennung für das gesamte Fragment zurückgreifen zu müssen. Derartige Verfahren können für einige Vorrichtungen, die mit dem aktuellen System verwendet werden, besser geeignet sein.
  • Durchschnittsfachleute auf diesem Gebiet und andere wissen, dass es viele verschiedene Möglichkeiten zur Beschreibung des Aussehens von Textfragmenten gibt. Derartige Charakterisierungen von Textfragmenten können Wortlängen. relative Wortlängen, Zeichenhöhen, Zeichenbreiten, Zeichenformen, Zeichenhäufigkeiten, Tokenhäufigkeiten und dergleichen beinhalten, sind aber nicht darauf beschränkt. In einigen Beispielen werden die Versätze zwischen übereinstimmenden Texttoken (d. h. der Anzahl von dazwischenliegenden Token plus eins) verwendet, um Textfragmente zu charakterisieren.
  • Bei der herkömmlichen OCR werden Kenntnisse über Schriftarten, Buchstabenstrukturen und -formen bei dem Versuch verwendet, Zeichen in einem gescannten Text zu bestimmen. Die Beispiele für die vorliegende Erfindung sind anders; sie nutzen eine Vielzahl von Verfahren, die den wiedergegebenen Text selbst zur Unterstützung beim Erkennungsprozess verwenden. Diese verwenden Merkmale (oder Token), um „sich gegenseitig zu erkennen”. Eine Möglichkeit, um auf die besagte Selbsterkennung zu verweisen, ist die „Vorlagenabstimmung” und diese ähnelt der „Konvolution”. Um eine solche Selbsterkennung durchzuführen schiebt das System eine Kopie des Textes horizontal über sich selbst und zeichnet übereinstimmende Bereiche der Textbilder auf. Frühere Templateabgleichs- und Faltungstechniken umfassen eine Vielzahl verwandter Techniken. Diese Techniken zum Tokenisieren und/oder Erkennen von Zeichen/Tokens werden hierin insgesamt als „Autokorrelation” bezeichnet, da beim Abgleichen von Zeichen/Token der Text verwendet wird, um mit seinen eigenen Komponenten zu korrelieren.
  • Bei der Autokorrelation sind umfassende verbundene Bereiche, die übereinstimmen, von Interesse. Diese treten auf, wenn Zeichen (oder Zeichengruppen) andere Instanzen desselben Zeichens (oder der Gruppe) überlagern. Vollständige verbundene Bereiche, die übereinstimmen, bieten automatisch eine Tokenisierung des Textes zu zusammengesetzten Token. Während die zwei Exemplare des Textes aneinander vorbeibewegt werden, werden die Bereiche aufgezeichnet, an denen eine perfekte Übereinstimmung auftritt (d. h. sämtliche Pixel in einem vertikalen Schnitt werden abgeglichen). Wenn sich ein Zeichen/Token mit sich selbst übereinstimmt, stimmt auch die horizontale Ausdehnung dieser Übereinstimmung (z. B. der verbundene übereinstimmende Abschnitt des Textes) überein.
  • Es ist zu beachten, dass es zu diesem Zeitpunkt nicht notwendig ist, die tatsächliche Identität von jedem Token (d. h. den bestimmten Buchstaben, die bestimmte Ziffer oder das bestimmte Symbol oder eine Gruppe davon, der/die/das dem Token-Bild entspricht), sondern nur den Abstand bis zum nächsten Vorkommnis desselben Tokens im erfassten Text zu bestimmen. Die Versatzzahl ist die Entfernung (Anzahl von Tokens) zum nächsten Auftreten des gleichen Tokens. Wenn das Token innerhalb der Textfolge einzigartig ist, ist der Versatz Null (0). Die Folge von Tokenversätzen, die somit erzeugt wird, ist eine Signatur, die verwendet werden kann, um den erfassten Text zu identifizieren.
  • In einigen Beispielen werden die Token-Abstände, die für eine Zeichenfolge von erfassten Token bestimmt werden, mit einem Index verglichen, der einen Korpus von elektronischen Dokumenten basierend auf den Token-Abständen von ihren Inhalten indexiert (Abschnitt 4.1.2). In anderen Beispielen werden die für eine Folge erfasster Token bestimmten Tokenversätze zu Text umgewandelt und mit einem konventionelleren Index verglichen, der einen Korpus von elektronischen Dokumenten basierend auf ihren Inhalten indexiert.
  • Wie bereits zuvor beschrieben kann ein ähnlicher Token-Korrelationsprozess auf Sprachfragmente angewendet werden, wenn der Erfassungsprozess aus Audiosamples gesprochener Wörter besteht.
  • 9.2.6 „Selbsterkennung” von Schrift/Zeichen
  • Bei der herkömmlichen OCR mit Vorlagenabgleich werden gescannte Bilder mit einer Bibliothek mit Zeichenbildern verglichen. Im Wesentlichen wird das Alphabet für jede Schriftart gespeichert und neu gescannte Bilder werden mit den gespeicherten Bildern verglichen, um zusammenpassende Zeichen zu finden. Der Prozess weist im Allgemeinen eine anfängliche Verzögerung auf, solange bis die korrekte Schriftart identifiziert ist. Danach ist der OCR-Prozess relativ schnell, da die meisten Dokumente durchgehend dieselbe Schriftart verwenden. Nachfolgende Bilder können daher durch Vergleich mit der zuletzt identifizierten Schriftartbibliothek in Text umgewandelt werden.
  • Die Formen von Zeichen in den am häufigsten verwendeten Schriften stehen in Beziehung zueinander. Bei den meisten Schriften ähneln sich beispielsweise die Buchstaben „c” und „e” optisch, genauso wie die Buchstaben „t” und „f” usw. Durch die Verwendung dieser Beziehung zum Erstellen von Vorlagen für Buchstaben, die noch nicht gescannt wurden, wird der OCR-Prozess effizienter. Wenn ein Leser zum Beispiel eine kurze Textfolge aus einem Papierdokument in einer bisher nicht vorgefundenen Schriftart erfasst, sodass das System keinen Satz von Bildtemplates hat, mit denen es die aufgenommenen Bilder vergleichen kann, kann das System die wahrscheinliche Beziehung zwischen bestimmten Zeichen nutzen, um die Schriftarttemplatebibliothek zu erstellen, obwohl es bisher noch nicht alle der Buchstaben in dem Alphabet gefunden hat. Das System kann die erstellte Schrifttemplatebibliothek anschließend verwenden, um später erfasste Text zu erkennen und die erstellte Schriftartbibliothek zu verfeinern.
  • 9.2.7 Senden von allen unerkannten Objekten (einschließlich Grafiken) an den Server
  • Wenn Bilder nicht maschinell in eine Form transkribiert werden können, die für die Verwendung in einem Suchprozess geeignet ist, können die Bilder zur späteren Nutzung durch den Benutzer für eine mögliche manuelle Transkription oder eine Verarbeitung zu einem späteren Zeitpunkt, an dem dem System möglicherweise andere Ressourcen zur Verfügung stehen, gespeichert werden.
  • 10. P-Commerce
  • Viele der Aktionen, die durch das System möglich werden, resultieren in der Durchführung einer kommerziellen Transaktion. Das Wort P-Commerce wird hierin verwendet, um kommerzielle Aktivitäten zu beschreiben, die über das System aus Papier initiiert werden.
  • 10.1. Verkäufe von Dokumenten aus ihren physischen gedruckten Ausgaben heraus
  • Wenn ein Benutzer Text aus einem Dokument erfasst, kann dem Benutzer das Dokument entweder in Papierform oder elektronischer Form zum Kauf angeboten werden. Dem Benutzer können außerdem dazugehörige Dokumente angeboten werden, wie etwa solche, die zitiert oder anderweitig in dem Papierdokument referenziert wurden, oder solche zu einem ähnlichen Thema oder solche von demselben Autor.
  • 10.2. Verkäufe von allem anderen, die durch Papierdokumente initiiert oder unterstützt werden
  • Die Erfassung von Text kann auf eine Vielzahl von Arten mit anderen kommerziellen Aktivitäten verknüpft sein. Der erfasste Text kann sich in einem Katalog befinden, der explizit dafür ausgelegt ist, Produkte zu verkaufen, in welchem Fall der Text ziemlich direkt mit dem Kauf eines Produkts assoziiert werden kann (Abschnitt 18.2). Der Text kann außerdem Teil einer Werbeanzeige sein, in welchem Fall ein Verkauf des beworbenen Produkts erfolgen kann.
  • In anderen Fällen erfasst der Benutzer anderen Text, durch den sein mögliches Interesse an einer kommerziellen Transaktion abgeleitet werden kann. Ein Leser eines Romans, der in einem bestimmten Land spielt, kann zum Beispiel an einem Urlaub dort interessiert sein. Jemand, der einen Testbericht über ein neues Auto liest, kann in Erwägung ziehen, dieses zu erwerben. Der Benutzer kann ein bestimmtes Textfragment in dem Wissen erfassen, dass ihm als Ergebnis eine bestimmte kommerzielle Möglichkeit präsentiert wird, oder diese kann ein Nebeneffekt der Erfassungsaktivitäten sein.
  • 10.3. Erfassung von Bezeichnungen, Symbolen, Seriennummern, Barcodes an einem Objekt, die zu einem Verkauf führt
  • Manchmal werden Texte oder Symbole sogar auf ein Objekt oder dessen Verpackung gedruckt. Ein Beispiel ist die Seriennummer oder Produktkennung, die oftmals auf einem Etikett auf der Rück- oder Unterseite eines elektronischem Zubehörteils zu finden ist. Das System kann dem Benutzer eine einfache Möglichkeit bieten, durch Erfassen dieses Texts eines oder mehrere des gleichen Produkts zu erwerben. Außerdem können ihm Handbücher, Unterstützung oder Reparaturdienstleistungen angeboten werden.
  • 10.4. Kontextuelle Werbeanzeigen
  • Neben der direkten Erfassung von Text aus einer Werbeanzeige kann das System eine neue Art von Werbung gestatten, die nicht notwendigerweise ausdrücklich in dem wiedergegebenen Dokument zu finden ist, aber nichtsdestotrotz auf dem basiert, was die jeweilige Person liest.
  • 10.4.1. Auf Kontext und Verlauf basierende Werbung
  • Bei einer herkömmlichen Publikation auf Papier nehmen Werbeanzeigen in Relation zu dem Text eines Zeitungsartikels in der Regel eine große Menge an Platz ein, und es können nur eine begrenzte Anzahl an Werbeanzeigen rund um einen bestimmten Artikel platziert werden. In dem beschriebenen System kann Werbung mit einzelnen Wörtern oder Wortverbindungen assoziiert sein und kann entsprechend den bestimmten Interessen, die ein Benutzer durch Erfassen dieses Texts gezeigt hat, und möglicherweise unter Berücksichtigung des Erfassungsverlaufs ausgewählt werden.
  • Mithilfe des beschriebenen Systems ist es möglich, einen Kauf mit einem bestimmten gedruckten Dokument zu verknüpfen und Inserenten erheblich mehr Feedback zur Effektivität ihrer Werbung in bestimmten gedruckten Publikationen bereitzustellen.
  • 10.4.2. Auf Benutzerkontext und -verlauf basierende Werbung
  • Das System kann zur eigenen Verwendung eine große Menge an Informationen zu anderen Aspekten des Kontextes eines Benutzers zusammentragen (Abschnitt 13); Schätzungen des geografischen Standorts des Benutzers sind ein gutes Beispiel dafür. Derartige Daten können außerdem dazu verwendet werden, die präsentierte Werbung auf einen Benutzer des Systems zuzuschneiden.
  • 10.5. Vergütungsmodelle
  • Das System ermöglicht einige neue Vergütungsmodelle für Inserenten und Vermarkter. Der Herausgeber eines gedruckten Dokuments, das Werbeanzeigen beinhaltet, kann gewisse Einnahmen aus einem Kauf erhalten, der auf sein Dokument zurückzuführen ist. Dies kann unabhängig davon, ob die Werbeanzeige in der ursprünglichen gedruckten Form vorhanden war oder nicht, gelten; sie könnte elektronisch hinzugefügt worden sein, entweder durch den Herausgeber, den Werbekunden oder Dritte, und der Benutzer kann die Quelle einer solchen Werbung abonniert haben.
  • 10.5.1. Popularitätsbasierte Vergütung
  • Eine Statistikanalyse durch das System kann die Popularität bestimmter Teile einer Publikation enthüllen (Abschnitt 14.2). Bei einer Zeitung könnte sie zum Beispiel, die Zeitdauer, die Leser mit dem Anschauen einer bestimmten Seite oder eines Artikels verbringen, oder die Beliebtheit eines bestimmten Kolumnisten offenbaren. In einigen Fällen kann es angemessen sein, dass ein Autor oder Herausgeber eine Vergütung basierend auf den Aktivitäten der Leser anstatt auf herkömmlichen Metriken, wie etwa Anzahl der geschriebenen Wörter oder Anzahl verteilter Exemplare, erhält. Ein Autor, dessen Werk eine häufig gelesene Instanz über ein Thema wird, könnte bei zukünftigen Aufträgen anders berücksichtigt werden als einer, dessen Bücher sich genauso oft verkauft haben, aber nur selten geöffnet werden. (Siehe auch Abschnitt 7.6).
  • 10.5.2. Popularitätsbasierte Werbung
  • Entscheidungen zu Werbung in einem Dokument können auch auf Statistiken zur Leserschaft basieren. Die Werbeflächen in der Nähe der beliebtesten Kolumnisten können mit einem Aufpreis verkauft werden. Werbekunden können sogar einige Zeit nachdem das Dokument veröffentlicht wurde, basierend auf der Kenntnis darüber, wie es angenommen wurde, belastet oder vergütet werden.
  • 10.6. Auf der Lebensbibliothek basiertes Marketing
  • Die in den Abschnitten 6.1 und 16.1 beschriebene Lebensbibliothek oder der Erfassungsverlauf kann eine äußerst nützliche Quelle von Informationen zu Interessen und Gewohnheiten eines Benutzers sein. Unter dem Vorbehalt von Zustimmung und Datenschutzfragen können solche Daten Angebote von Waren oder Dienstleistungen an den Benutzer anregen. Selbst in anonymisierter Form können die zusammengetragenen Statistiken überaus nützlich sein.
  • 10.7. Verkauf/Anzeige von Informationen zu einem späteren Zeitpunkt (wenn verfügbar)
  • Werbungen und andere Möglichkeiten zu kommerziellen Transaktionen werden dem Benutzer möglicherweise nicht unmittelbar zum Zeitpunkt der Erfassung präsentiert. Zum Beispiel kann die Möglichkeit, eine Fortsetzung eines Romans zu erwerben, zu dem Zeitpunkt, zu dem der Benutzer den Roman liest, nicht verfügbar sein, doch das System kann die Möglichkeit bereitstellen, wenn die Fortsetzung veröffentlicht wurde.
  • Ein Benutzer kann Daten erfassen, die mit einem Kauf oder einer anderen kommerziellen Transaktion verknüpft sind, sich aber dazu entscheiden, die Transaktion nicht zum Zeitpunkt der Erfassung zu initiieren und/oder abzuschließen. In einigen Beispielen werden Daten im Zusammenhang mit Erfassungen in einer Lebensbibliothek des Benutzers gespeichert, und diese Lebensbibliothekseinträge können „aktiv” (d. h. fähig zu späteren Interaktionen ähnlich denen, die zum Zeitpunkt, an dem die Erfassung erfolgte, verfügbar waren) bleiben. Somit kann ein Benutzer eine Erfassung nochmals zu einem späteren Zeitpunkt betrachten und basierend auf dieser Erfassung optional eine Transaktion abschließen. Da das System verfolgen kann, wann und wo die ursprüngliche Erfassung erfolgt ist, können alle an der Transaktion beteiligten Parteien ordnungsgemäß kompensiert werden. Zum Beispiel kann der Autor, der die Geschichte geschrieben hat, – und der Herausgeber, der die Geschichte herausgegeben hat, – die neben der Werbeanzeige, aus der der Benutzer Daten erfasst hat, erschienen ist, kompensiert werden, wenn der Benutzer sechs Monate später seine Lebensbibliothek besucht, diese bestimmte Erfassung aus dem Verlauf auswählt und „Kauf dieses Produkts auf Amazon” aus dem Popup-Menü (das ähnlich oder identisch zu dem Menü sein kann, das zum Zeitpunkt der Erfassung optional angezeigt wird) auswählt.
  • 11. Integration von Betriebssystem und Anwendung
  • Moderne Betriebssysteme (OSs) und andere Softwarepakete haben viele Eigenschaften, die vorteilhaft für die Verwendung des beschriebenen Systems eingesetzt werden können und zudem auf verschiedene Weisen verändert werden können, um eine noch bessere Plattform für seine Verwendung bereitzustellen.
  • 11.1. Einfügung von Informationen im Zusammenhang mit Erfassung und Druck in Metadaten und Indexierung
  • Neue und kommende Dateisysteme und die zugehörigen Datenbanken verfügen häufig über die Funktionalität zum Speichern einer Vielzahl von Metadaten, die mit jeder Datei verknüpft sind. Klassischerweise beinhalteten diese Metadaten solche Dinge wie die ID des Benutzers, der die Datei erstellt hat, die Zeitpunkte von Erstellung, letzter Veränderung und letzter Verwendung. Neuere Dateisysteme erlauben, dass zusätzliche Informationen wie Schlüsselwörter, Bildeigenschaften, Dokumentenquellen und Benutzerkommentare gespeichert werden, und in einigen Systemen können diese Metadaten beliebig erweitert werden. Dateisysteme können daher verwendet werden, um Informationen zu speichern, die zur Implementierung des aktuellen Systems nützlich wären. Durch das Dateisystem kann zum Beispiel der Zeitpunkt, wann ein gegebenes Dokument letztmalig ausgedruckt wurde, ebenso gespeichert werden wie Details darüber, welcher Text davon unter Verwendung des beschriebenen Systems von Papier erfasst wurde und wann und durch wen.
  • In Betriebssystemen werden zunehmend Suchmaschinenfunktionen eingebunden, um Benutzern die Möglichkeit zu bieten, lokale Dateien schneller zu finden. Diese Einrichtungen können durch das System vorteilbringend genutzt werden. Dies bedeutet, dass viele der in Abschnitt 3 und 4 besprochenen, mit Suchen im Zusammenhang stehenden Konzepte nicht nur auf heutige internetbasierte und ähnliche Suchmaschinen zutreffen, sondern auch auf sämtliche PCs.
  • In einigen Fällen unterstützen bestimmte Software-Anwendungen das zuvor beschriebene System und gehen dabei über die vom OS bereitgestellten Funktionen hinaus.
  • 11.2. OS-Unterstützung für Erfassungsvorrichtungen
  • Mit zunehmender Verwendung von Erfassungsvorrichtungen wie mobilen Kommunikationsvorrichtungen mit integrierten Kameras und Mikrofonen im Alltag ist es wünschenswert, dass sie im Betriebssystem auf die gleiche Weise unterstützt werden wie Mäuse und Drucker, da die Anwendbarkeit von Erfassungsvorrichtungen weit über eine einzelne Software-Anwendung hinausreicht. Das Gleiche gilt für andere Aspekte der Systemtätigkeit. Nachstehend werden einige Beispiele besprochen. In einigen Beispielen wird das gesamte beschriebene System, oder der Kern davon, durch das OS (z. B. Windows, Windows Mobile, Linux, Mac OS X, iPhone OS, Android oder Symbian) bereitgestellt. In einigen Beispielen wird eine Unterstützung für das System durch Anwendungsprogrammierschnittstellen (APIs) bereitgestellt, die von anderen Softwarepaketen verwendet werden können, einschließlich solcher, die Aspekte des Systems direkt implementieren.
  • 11.2.1. Unterstützung von OCR und anderen Erkennungstechnologien
  • Die meisten Verfahren zur Erfassung von Text von einem wiedergegebenen Dokument erfordern eine Erkennungssoftware, die die Quelldaten, üblicherweise ein erfasstes Bild oder einige gesprochene Worte, als Text interpretiert, der im System verwendet werden kann. Einige OS beinhalten Sprachunterstützung oder Handschrifterkennung, obwohl es jedoch weniger üblich ist, dass OS eine OCR-Unterstützung beinhalten, da sich die Verwendung von OCR in der Vergangenheit eher auf einen kleinen Anwendungsbereich beschränkt hat.
  • Wenn Erkennungskomponenten Teil des OS sind, können sie andere vom OS bereitgestellte Funktionen besser nutzen. Viele Systeme beinhalten zum Beispiel Rechtschreibwörterbücher, Grammatikanalysetools, Internationalisierungs- und Lokalisierungsmöglichkeiten, die durch das beschriebene System alle vorteilbringend für seinen Erkennungsprozess genutzt werden können, besonders da sie für einen bestimmten Benutzer so angepasst sein können, dass sie Wörter und Wortverbindungen beinhalten, mit denen er üblicherweise in Berührung kommt.
  • Falls das Betriebssystem Funktionen zur Volltextindexierung beinhaltet, dann können diese auch zur Bereitstellung von Informationen während des Erkennungsprozesses verwendet werden (siehe Abschnitt 9.3.).
  • 11.2.2. Für Erfassungen auszuführende Aktionen
  • Falls Informationen erfasst und dem Betriebssystem präsentiert werden, führt es möglicherweise unter diesen Umständen eine Standardaktion aus, sofern kein anderes Teilsystem die Eigentumsrechte an den Erfassungen beansprucht. Ein Beispiel einer Standardaktion ist es, dem Benutzer eine Auswahl an Alternativen zu präsentieren oder die erfassten Daten an die OS-internen Sucheinrichtungen zu übermitteln.
  • 11.2.3. OS verwendet Standardaktionen für bestimmte Dokumente oder Dokumententypen
  • Wenn die digitale Quelle des wiedergegebenen Dokuments gefunden wird, verfügt das OS möglicherweise über eine Standardaktion, die ausgeführt wird, wenn dieses bestimmte Dokument oder ein Dokument dieser Klasse erfasst wird. Anwendungen und andere Teilsysteme können sich bei dem OS als potenzielle Handler für bestimmte Erfassungstypen in einer ähnlichen Weise registrieren. wie die Mitteilung von Anwendungen über ihre Fähigkeit, bestimmte Dateitypen zu bearbeiten.
  • Markup-Daten, die mit einem wiedergegebenen Dokument oder mit einer Erfassung von einem Dokument verknüpft sind. können Anweisungen für das Betriebssystem beinhalten, bestimmte Anwendungen zu starten, Argumente, Parameter oder Daten der Anwendung weiterzuleiten usw.
  • 11.2.4. Interpretation von Gesten und Zuordnung zu Standardaktionen
  • In Abschnitt 12.1.3 wird die Verwendung von „Gesten” behandelt, wobei bestimmte Bewegungen mit einer Erfassungsvorrichtung möglicherweise Standardaktionen repräsentieren, wie beispielsweise das Markieren des Anfangs und des Endes eines Textbereichs.
  • Dies entspricht Aktionen wie dem Drücken der Umschalttaste auf einer Tastatur, während die Cursor-Tasten zur Auswahl eines Textbereichs verwendet wird, oder dem Scrollen eines Dokuments unter Verwendung des Rads einer Maus. Derartige Aktionen durch den Benutzer sind ausreichend standardisiert, um durch das OS der Erfassungsvorrichtung auf systemumfassende Weise interpretiert zu werden, wodurch ein gleichbleibendes Systemverhalten sichergestellt ist. Dasselbe ist wünschenswert für andere Aktionen im Zusammenhang mit Erfassungsvorrichtungen.
  • 11.2.5. Festlegen einer Reaktion auf standardmäßige (und nicht standardmäßige) Symbol-/Text-Menüelemente
  • Auf ähnliche Weise können bestimmte Textelemente oder andere Symbolelemente bei der Erfassung Standardaktionen auslösen, und das OS stellt möglicherweise eine Auswahl dieser Aktionen bereit. Beispielsweise könnte das Erfassen des Textes „[drucken]” in einem Dokument das OS dazu veranlassen, eine Kopie desselben Dokuments abzurufen und auszudrucken. Das OS kann außerdem eine Möglichkeit bereitstellen, derartige Aktionen zu registrieren und sie mit bestimmten Erfassungen zu verknüpfen.
  • 11.3. Unterstützung von typischen durch die Erfassung initiierten Aktivitäten in Komponenten der grafischen Benutzeroberfläche des Systems
  • Die meisten Software-Anwendungen basieren im Wesentlichen auf Standardkomponenten für eine grafische Benutzeroberfläche (GUI), die vom Betriebssystem bereitgestellt werden.
  • Die Verwendung dieser Komponenten durch Entwickler gewährleistet ein konsistentes Verhalten in unterschiedlichen Paketen (z. B. dass das Drücken der linken Pfeiltaste im Rahmen einer Textbearbeitung dazu führt, dass sich der Cursor nach links bewegt), ohne dass die einzelnen Programmierer dieselbe Funktionalität eigenständig implementieren müssen.
  • Eine ähnliche Konsistenz in diesen Komponenten ist wünschenswert, wenn die Aktivitäten durch eine Texterfassung oder andere Aspekte des beschriebenen Systems initiiert werden. Nachstehend sind einige Beispiele gegeben.
  • 11.3.1. Oberfläche zum Auffinden bestimmter Textinhalte
  • Eine typische Verwendung des Systems umfasst beispielsweise, dass ein Benutzer einen Bereich eines Papierdokuments erfasst und dass das System ein elektronisches Gegenstück in einem Software-Paket öffnet, das dieses anzeigen oder bearbeiten kann, und veranlasst, dass dieses Paket zu dem gescannten Text scrollt und diesen hervorhebt (Abschnitt 12.2.1). Der erste Teil dieses Prozesses, Finden und Öffnen des elektronischen Dokuments, wird typischerweise durch das OS bereitgestellt und ist über Softwarepakete hinweg standardisiert. Der zweite Teil-Auffinden eines bestimmten Textteils innerhalb eines Dokuments und Veranlassen, dass das Paket zu diesem scrollt und ihn hervorhebt – ist jedoch noch nicht standardisiert und wird von jedem Paket oft unterschiedlich implementiert. Die Verfügbarkeit einer Standard-API für diese Funktionalität könnte den Betrieb bei diesem Aspekt des Systems erheblich verbessern.
  • 11.3.2. Textinteraktionen
  • Sobald ein Textstück in einem Dokument aufgefunden wurde, kann das System eine Vielzahl von Operationen an diesem Text durchführen wollen. Als ein Beispiel kann das System den umgebenden Text anfordern, sodass die Erfassung einiger Wörter durch den Benutzer dazu führen könnte, dass das System auf den gesamten Satz oder Absatz zugreift, der diese enthält. Diese Funktionalität wiederum kann sinnvollerweise durch das OS bereitgestellt werden, anstatt in jedem Stück Software implementiert zu werden, das Text bearbeitet.
  • 11.3.3. Kontextuelle (Popup-)Menüs
  • Einige der Operationen, die vom System ermöglicht werden, erfordern ein Feedback vom Benutzer, und dieses kann idealerweise im Kontext der Anwendung angefordert werden, die die Daten verarbeitet. In einigen Beispielen verwendet das System die Popup-Menüs der Anwendung, die üblicherweise mit dem Drucken der rechten Maustaste auf einem Text assoziiert sind. Das System fügt in solche Menüs zusätzliche Optionen ein und veranlasst, dass als Ergebnis von Aktivitäten wie etwa einer Erfassung eines Abschnitts eines Papierdokuments angezeigt werden.
  • 11.4. Web-/Netzwerkschnittstellen
  • In der heutigen zunehmend vernetzten Welt kann auf viele der auf einzelnen Vorrichtungen verfügbaren Funktionen über ein Netzwerk zugegriffen werden, und die Funktionen im Zusammenhang mit dem beschriebenen System stellen keine Ausnahme dar. Als ein Beispiel können, in einer Büroumgebung, viele Papierdokumente, die von einem Benutzer empfangen wurden, von den Maschinen anderer Benutzer in demselben Unternehmensnetzwerk ausgedruckt worden sein. Das System auf einem Computer kann, in Reaktion auf eine Erfassung, abhängig von der entsprechenden Berechtigungssteuerung in der Lage sein, diese anderen Maschinen nach Dokumenten abzufragen, die dieser Erfassung entsprechen können.
  • 11.5. Ausdrucken von Dokumenten löst Speicherung aus
  • Ein wichtiger Faktor bei der Integration von Papierdokumenten und digitalen Dokumenten ist die Bewahrung von so vielen Informationen zu den Unterschiedenen zwischen den beiden wie möglich. In einigen Beispielen macht das OS einfache Aufzeichnungen darüber, wann und durch wen ein beliebiges Dokument gedruckt wurde. In einigen Beispielen leitet das OS eine oder mehrere weitere Aktionen ein, die es besser geeignet für eine Verwendung mit dem System machen würden. Zu Beispielen gehören:
    • • Speichern der digital wiedergegeben Version von jedem gedruckten Dokument zusammen mit den Informationen über die Quelle, von der sie gedruckt wurden
    • • Speichern einer Untergruppe von hilfreichen Informationen zur gedruckten Version, z. B. die verwendeten Schriften und Positionen von Zeilenumbrüchen, die möglicherweise bei zukünftigen Erfassungsinterpretationen helfen könnten
    • • Speichern der Version des Quelldokuments, das mit der jeweiligen gedruckten Kopie verknüpft ist
    • • Automatisches Indexieren des Dokuments zum Zeitpunkt des Druckens und Speichern der Ergebnisse für zukünftige Suchen
  • 11.6. Eigene (gedruckte/erfasste) Dokumente
  • Ein OS verwaltet häufig bestimmte Kategorien von Ordnern oder Dateien, die von besonderer Bedeutung sind. Die Dokumente eines Benutzers können, aufgrund von Konvention oder Planung, zum Beispiel in einem „Meine Dokumente”-Ordner gefunden werden. Normale Dateiöffnungsdialoge können automatisch eine Liste der kürzlich geöffneten Dokumente beinhalten.
  • In einem für die Verwendung mit dem beschriebenen System optimierten OS werden diese Kategorien möglicherweise so verbessert oder erweitert, dass die Interaktion eines Benutzers mit Papierversionen der gespeicherten Dateien berücksichtigt wird. Kategorien wie „Meine gedruckten Dokumente” oder „Meine kürzlich gelesenen Dokumente” könnten sinnvoll identifiziert und in dessen Operationen eingebunden werden.
  • 11.7. Markup-Hierarchien auf OS-Ebene
  • sDa üblicherweise wichtige Aspekte des Systems mithilfe der in Abschnitt 5 beschriebenen „Markup”-Komponente bereitgestellt werden, wäre es klar von Vorteil, wenn dieses Markup auf eine Weise vom OS unterstützt werden würden, dass sie für mehrere Anwendungen sowie für das OS selbst zugänglich ist. Darüber hinaus können Markup-Ebenen durch das OS, basierend auf dessen Kenntnis über Dokumente, die sich unter dessen Kontrolle befinden, und die Einrichtungen, die es bereitstellen kann, bereitgestellt werden.
  • 11.8. Verwenden von DRM-Funktionen des OS
  • Eine zunehmende Anzahl an Betriebssystem unterstützen eine Form der „digitalen Rechteverwaltung” (Digital Rights Management, DRM), d. h. die Möglichkeit zur Steuerung der Verwendung von bestimmten Daten gemäß den Rechten, die einem bestimmten Benutzer oder Gerät bzw. einer bestimmten Software-Entität gewährt werden. Es kann zum Beispiel ein nicht autorisiertes Kopieren oder Verteilen eines bestimmten Dokuments verhindern.
  • 12. Benutzeroberfläche
  • Die Benutzeroberfläche des Systems kann komplett Teil der Erfassungsvorrichtung sein, sofern dieses technisch ausgereift und selbst über eine signifikante Verarbeitungsleistung verfügt, wie ein Mobiltelefon oder ein PDA, oder komplett Teil eines Computers sein, wenn die Erfassungsvorrichtung relativ einfach gehalten und über ein Kabel mit dem Computer verbunden ist. In einigen Fällen sind einige Funktionalitäten in jeder Komponente angesiedelt.
  • Die Beschreibungen in den folgenden Abschnitten sind daher Angaben dazu, was in bestimmten Implementierungen wünschenswert ist, aber sie sind nicht unbedingt geeignet für alle und können auf verschiedene Arten modifiziert werden.
  • 12.1. Auf dem Erfassungsgerät
  • Bei den meisten Erfassungsvorrichtungen liegt die Aufmerksamkeit des Benutzers zum Zeitpunkt der Erfassung in der Regel auf der Vorrichtung und dem Papier. Es ist daher sehr erstrebenswert, dass sämtliche Eingaben und Feedback, die als ein Teil des Prozesses der Erfassung benötigt werden, nicht erfordern, dass die Aufmerksamkeit des Benutzers mehr als nötig woanders, zum Beispiel auf dem Bildschirm eines Computers, liegt.
  • 12.1.1. Feedback an Erfassungsvorrichtung
  • Eine Erfassungsvorrichtung kann dem Benutzer auf vielfältige Weise Feedback zu bestimmten Bedingungen geben. Die offensichtlichsten Arten sind direkt visuell, wobei die Erfassungsvorrichtung eine vollständige Anzeige von erfassten Bildern oder Anzeigeleuchten umfasst, und auditiv, wobei die Erfassungsvorrichtung Pieptöne, Klicklaute oder andere Geräusche machen kann. Wichtige Alternativen sind unter anderem taktile Rückmeldungen, bei denen das Erfassungsgerät vibrieren, summieren oder anderweitig die Berührung des Benutzers stimulieren und die Rückmeldung projizieren kann, wobei es einen Status anzeigt, indem es etwas, von einen farbigen Lichtpunkt bis hin zu einer anspruchsvollen Darstellung, auf das Papier projiziert.
  • Zu wichtigem sofortigem Feedback, das möglicherweise an der Erfassungsvorrichtung bereitgestellt wird, gehört:
    • • Feedback zum Erfassungsprozess – Benutzer bewegt die Erfassungsvorrichtung zu schnell, in einem zu großen Winkel oder driftet zu weit nach oben oder unten
    • • ausreichender Inhalt – es wurden ausreichend Informationen erfasst, um mit ziemlicher Sicherheit eine Übereinstimmung zu finden, sofern es eine gibt – dies ist wichtig bei einem getrennten Betrieb
    • • bekannter Kontext – es wurde eine Quelle des Textes aufgefunden
    • • bekannter einzigartiger Kontext – es wurde eine einzigartige Quelle des Textes aufgefunden
    • • Verfügbarkeit von Inhalten – Angabe dazu, ob der jeweilige Inhalt für den Benutzer frei oder gegen eine Gebühr verfügbar ist
  • Viele der Benutzerinteraktionen, die normalerweise mit den späteren Phasen des Systems verknüpft sind, können auch auf der Erfassungsvorrichtung ausgeführt werden, sofern sie über hinreichende Funktionen verfügt, um z. B. einen Teil des Dokuments oder das ganze Dokument anzuzeigen.
  • 12.1.2. Steuerungen an der Erfassungsvorrichtung
  • Die Erfassungsvorrichtung kann dem Benutzer verschiedenste Möglichkeiten bereitstellen, um neben der grundlegenden Texterfassung Eingaben zu tätigen, wie beispielsweise Tasten/Schaltflächen, Scroll-/Jog-Räder, berührungsempfindliche Oberflächen und/oder Beschleunigungssensoren zur Erkennung der Bewegung der Vorrichtung. Einige dieser Steuerungen ermöglichen umfangreichere Interaktionen, während die Erfassungsvorrichtung noch gehalten wird.
  • So kann die Erfassungsvorrichtung dem Benutzer zum Beispiel in Reaktion auf die Erfassung von Text eine Reihe verschiedener möglicher übereinstimmender Dokumente präsentieren. Der Benutzer verwendet eine berührungsempfindliche Oberfläche der Erfassungsvorrichtung, um eins aus der Liste auszuwählen.
  • 12.1.3. Gesten
  • Der Hauptgrund für das Bewegen einer Erfassungsvorrichtung über das Papier ist die Erfassung von Text, aber einige Bewegungen können von der Vorrichtung erkannt und zur Anzeige anderer Benutzerintentionen verwendet werden. Die besagten Bewegungen werden hierin als „Gesten” bezeichnet.
  • Der Benutzer kann beispielsweise einen großen Textbereich angeben, indem er die ersten paar Wörter mit einer Bewegung von links nach rechts und die letzten paar Wörter mit einer Bewegung von rechts nach links erfasst. Der Benutzer kann durch Bewegen der Erfassungsvorrichtung auf der Seite nach unten über mehrere Zeilen hinweg auch die vertikale Ausdehnung des Texts angeben. Eine Rückwärtsbewegung während der Erfassung kann einen Abbruch des vorherigen Erfassungsvorgangs signalisieren.
  • 12.1.4. Online-/Offline-Verhalten
  • Viele Aspekte des Systems können von der Netzwerkkonnektivität zwischen den Komponenten des Systems, wie einer Erfassungsvorrichtung und einem drahtlosen Netzwerk, oder mit der Außenwelt in Form einer Verbindung zu Unternehmensdatenbanken und Internetsuchen abhängen. Diese Verbindung kann jedoch eventuell nicht durchgehend vorhanden sein, und so wird es Fälle geben, wenn ein Teil oder die Gesamtheit des Systems als „offline” angesehen werden kann. Es ist erstrebenswert, dem System zu ermöglichen, auch unter solchen Umständen weiterhin brauchbar zu funktionieren.
  • Die Erfassungsvorrichtung kann zum Erfassen von Text verwendet werden, wenn keine Verbindung zu anderen Teilen des Systems besteht. Eine sehr einfache Vorrichtung kann lediglich in der Lage sein, die Bild- oder Audiodaten im Zusammenhang mit der Erfassung zu speichern, idealerweise mit einem Zeitstempel, der anzeigt, wann sie erfasst wurden. Die verschiedenen Erfassungen können für das übrige System hochgeladen werden, wenn die Erfassungsvorrichtung das nächste Mal damit verbunden ist, und anschließend bearbeitet werden. Die Erfassungsvorrichtung kann auch andere Daten im Zusammenhang mit den Erfassungen hochladen, beispielsweise Sprachanmerkungen oder Ortsangaben.
  • Technisch ausgereiftere Vorrichtungen können trotz getrennter Verbindung in der Lage sein, einige oder alle der Systemoperationen selbst auszuführen. Verschiedene Techniken zum Verbessern der Fähigkeit, dies zu tun. werden in Abschnitt 15.3 besprochen. Oftmals wird es der Fall ein, dass einige, aber nicht alle, der erwünschten Aktionen im Offlinebetrieb durchgeführt werden können. Zum Beispiel kann der Text erkannt werden, doch die Identifikation der Quelle kann von einer Verbindung zu einer internetbasierten Suchmaschine abhängig sein. In einigen Beispielen speichert die Vorrichtung daher genug Informationen darüber, wie weit jede Operation fortgeschritten ist, damit das restliche System effizient fortfahren kann, wenn die Verbindung wiederhergestellt ist.
  • Im Allgemeinen ist eine sofort verfügbare Konnektivität für den Systembetrieb von Nutzen, aber in einigen Situationen kann es auch von Vorteil sein, mehrere Erfassungen durchzuführen und diese dann als Stapel zu verarbeiten. Wie nachstehend in Abschnitt 13 besprochen, kann die Identifikation der Quelle einer bestimmten Erfassung beispielsweise erheblich verbessert werden, indem andere Erfassungen, die von dem Benutzer ungefähr zur selben Zeit durchgeführt wurden, untersucht werden. In einem System, in dem dem Benutzer Live-Feedback bereitgestellt wird, ist das System nur in der Lage zurückliegende Erfassungen zu verwenden, wenn es die aktuelle verarbeitet. Wenn die Erfassung eine aus einem Stapel ist, der durch die Vorrichtung im Offline-Betrieb gespeichert wurde, wird das System jedoch in der Lage sein, alle verfügbaren Daten zu berücksichtigen, die aus späteren Erfassungen sowie aus früheren verfügbar sind, wenn es seine Analyse durchführt.
  • 12.2. Auf einer Host-Vorrichtung
  • Eine Erfassungsvorrichtung kann mit einigen anderen Vorrichtungen wie beispielsweise einem PC kommunizieren, um viele der Funktionen des Systems durchzuführen, einschließlich detaillierterer Interaktionen mit dem Benutzer.
  • 12.2.1. Infolge einer Erfassung durchgeführte Aktivitäten
  • Wenn das Host-Gerät eine Erfassung empfängt, kann es eine Vielzahl von Aktivitäten initiieren. Es folgt eine unvollständige Liste möglicher Aktionen, die durch das System nach Auffinden eines elektronischen Dokumentgegenstücks, das mit der Erfassung im Zusammenhang steht, und einer Stelle innerhalb dieses Dokuments durchgeführt werden können.
    • • Die Details über die Erfassung können im Verlauf des Benutzers gespeichert werden. (Abschnitt 6.1)
    • • Das Dokument wird möglicherweise von einem lokalen Speicher oder einem entfernten Speicherort abgerufen. (Abschnitt 8)
    • • Die Metadaten des Betriebssystems und andere mit dem Dokument verknüpfte Datensätze werden möglicherweise aktualisiert. (Abschnitt 11.1)
    • • Mit dem Dokument verknüpftes Markup kann untersucht werden, um die nächsten relevanten Operationen zu bestimmen. (Abschnitt 5)
    • • Eine Software-Anwendung kann gestartet werden, um das Dokument zu bearbeiten, anzuzeigen oder anderweitig zu verwenden. Die Wahl der Anwendung kann von dem Quelldokument oder den Inhalten der Erfassung oder einem anderen Aspekt der Erfassung abhängen. (Abschnitt 11.2.2, 11.2.3)
    • • Die Anwendung kann zur Position der Erfassung scrollen, diese hervorheben, die Einfügemarke dorthin bewegen oder diese anderweitig anzeigen. (Abschnitt 11.3)
    • • Die präzisen Grenzen des erfassten Textes können modifiziert werden, um beispielsweise ganze Wörter, Sätze oder Absätze rund um den erfassten Text auszuwählen. (Abschnitt 11.3.2)
    • • Dem Benutzer kann die Möglichkeit geboten werden, den erfassten Text in die Zwischenablage zu kopieren oder andere betriebssystem- oder anwendungsspezifische Standardoperationen an dem Text auszuführen.
    • • Anmerkungen können mit dem Dokument oder dem erfassten Text verknüpft werden. Diese können aus einer unmittelbaren Benutzereingabe stammen oder früher erfasst worden sein, beispielsweise im Fall von Sprachanmerkungen, die mit einem erfassten Bild im Zusammenhang stehen. (Abschnitt 19.4)
    • • Markup kann untersucht werden, um einen Satz von weiteren möglichen Operationen zu bestimmen, die der Benutzer auswählen kann.
  • 12.2.2. Kontextuelle Popup-Menüs
  • Manchmal ist es offensichtlich, welche Aktion vom System auszuführen ist, manchmal muss der Benutzer jedoch eine Auswahl treffen. Eine gute Möglichkeit, dies zu tun, ist mithilfe von „Popup-Menüs” oder sogenannten „Kontextmenüs”, die in der Nähe der Inhalte auf der Anzeige der Erfassungsvorrichtung erscheinen. (Siehe Abschnitt 11.3.3). In einigen Beispielen projiziert die Erfassungsvorrichtung ein Popup-Menü auf das Papierdokument. Ein Benutzer kann mithilfe herkömmlicher Verfahren wie einer Tastatur und Maus oder unter Verwendung von den Bedienelementen an der Erfassungsvorrichtung (Abschnitt 12.1.2), Gesten (Abschnitt 12.1.3) oder durch Interaktion mit dem Computerdisplay mithilfe einer Erfassungsvorrichtung (Abschnitt 12.2.4) eine Option aus diesen Menüs auswählen. In einigen Beispielen beinhalten die Popup-Menüs, die als Ergebnis einer Erfassung erscheinen können, Standardpunkte, die Aktionen darstellen, die stattfinden, wenn der Benutzer nicht reagiert – zum Beispiel, wenn der Benutzer das Menü ignoriert und eine weitere Erfassung durchführt.
  • 12.2.3. Feedback zur Disambiguierung
  • Wenn ein Benutzer mit der Erfassung von Text beginnt, gibt es anfänglich mehrere Dokumente oder andere Textstellen, mit denen er überstimmten könnte. Wenn mehr Text erfasst wird, und andere Faktoren berücksichtigt werden (Abschnitt 13), wird die Anzahl von Kandidatenstellen abnehmen, bis die tatsächliche Stelle identifiziert ist, oder ohne Benutzereingabe keine weitere Disambiguierung möglich sein. In einigen Beispielen bietet das System eine Echtzeit-Anzeige der gefundenen Dokumente oder Stellen, zum Beispiel in Form einer Liste, von Vorschaubildern oder von Textsegmenten, und die Anzahl von Elementen in dieser Anzeige verringert sich während die Erfassung fortgesetzt wird. In einigen Beispielen zeigt das System Vorschaubilder aller Kandidatendokumente an, wobei die Größe oder Position des Vorschaubildes von der Wahrscheinlichkeit, dass es das korrekte Gegenstück ist, abhängig ist.
  • Wenn eine Erfassung zweifelsfrei identifiziert ist, kann dieser Umstand dem Benutzer zum Beispiel mittels Audiofeedback mitgeteilt werden.
  • Manchmal kommt der erfasste Text in vielen Dokumenten vor und wird daher als ein Zitat erkannt. Das System kann dies auf dem Bildschirm anzeigen, zum Beispiel durch Gruppieren von Dokumenten, die eine zitierte Referenz enthalten, um das ursprüngliche Quelldokument herum.
  • 12.2.4. Erfassung vom Bildschirm
  • Einige Erfassungsvorrichtungen können in der Lage sein, Text zu erfassen, der auf einem Bildschirm angezeigt wird oder auf Papier gedruckt ist. Dementsprechend wird der Begriff wiedergegebenes Dokument hierin verwendet, um anzuzeigen, dass Drucken auf Papier nicht die einzige Wiedergabemöglichkeit ist, und dass die Erfassung von Text oder Symbolen zur Verwendung durch das System gleichermaßen wertvoll sein kann, wenn dieser Text auf einer elektronischen Anzeige angezeigt wird.
  • Der Benutzer des beschriebenen Systems muss unter Umständen aus einer Vielzahl von anderen Gründen, etwa um eine Auswahl aus einer Liste von Optionen zu treffen, mit einem Computerbildschirm interagieren. In anderen Abschnitten wurden physische Bedienelemente auf der Erfassungsvorrichtung (Abschnitt 12.1.2) oder Gesten (Abschnitt 12.1.3) sowie Eingabeverfahren, die selbst beim Erfassen von Informationen von einer Anzeigevorrichtung in Verbindung mit alternativen Eingabeverfahren, wie etwa einer Tastatur oder Maus, geeignet sind, beschrieben.
  • In einigen Beispielen kann die Erfassungsvorrichtung ihre Position auf dem Bildschirm erkennen, ohne dass der erfasste Text verarbeitet werden muss, möglicherweise mithilfe spezieller Hardware oder Software auf dem Computer.
  • 13. Kontextinterpretation
  • Ein wichtiger Aspekt des beschriebenen Systems ist die Verwendung anderer Faktoren jenseits der einfachen Erfassung einer Textfolge, um mit deren Hilfe das verwendete Dokument zu identifizieren. Eine Erfassung einer kleinen Menge Text kann das Dokument oftmals eindeutig identifizieren, in vielen Situationen wird sie jedoch einige Kandidatendokumente identifizieren. Eine Lösung dafür ist es, den Benutzer aufzufordern, die Quelle der erfassten Informationen zu bestätigen, wobei es jedoch eine bevorzugte Alternative ist, andere Faktoren zu nutzen, um die Möglichkeiten automatisch einzugrenzen. Derartige ergänzende Informationen können die Menge an Text, der erfasst werden muss, erheblich reduzieren und/oder die Zuverlässigkeit und Geschwindigkeit, mit der die Stelle in dem elektronischen Gegenstück identifiziert werden kann, erhöhen. Dieses zusätzliche Material wird als „Kontext” bezeichnet und wurde in Abschnitt 4.2.2 kurz besprochen. An dieser Stelle wird es ausführlicher betrachtet.
  • 13.1. System- und Erfassungskontext
  • Das vielleicht wichtigste Beispiel für diese Informationen ist der Erfassungsverlauf des Benutzers.
  • Es ist höchstwahrscheinlich, dass eine gegebene Erfassung aus demselben Dokument wie die vorherige bzw. aus einem verknüpften Dokument stammt, insbesondere dann, wenn die vorherige Erfassung erst wenige Minuten zurückliegt (Abschnitt 6.1.2). Im umgekehrten Fall, wenn das System erkennt, dass sich die Schriftart zwischen zwei Erfassungen verändert hat, ist es wahrscheinlicher, dass diese aus unterschiedlichen Dokumenten stammen.
  • Ebenso nützlich sind der längerfristige Erfassungsverlauf und die Lesegewohnheiten des Benutzers. Diese können zudem verwendet werden, um ein Modell der Interessen und Verknüpfungen des Benutzers zu entwickeln.
  • 13.2. Realer Kontext des Benutzers
  • Ein weiteres Beispiel für hilfreichen Kontext ist der geografische Standort des Benutzers. So ist es beispielsweise wesentlich wahrscheinlicher, dass ein Benutzer in Paris Le Monde anstatt der Seattle Times liest. Der Zeitpunkt, die Größe und geografische Verteilung von gedruckten Versionen der Dokumente kann daher sehr wichtig sein und kann in einem gewissen Maß aus dem Betrieb des Systems abgeleitet werden.
  • Die Tageszeit kann ebenfalls relevant sein, wenn ein Benutzer beispielsweise auf dem Weg zur Arbeit eine Art von Publikation liest und mittags oder im Zug auf dem Weg nach Hause eine andere.
  • 13.3. Verwandter digitaler Kontext
  • Die jüngste Verwendung elektronischer Dokumente durch den Benutzer, einschließlich derer, nach denen gesucht wurde oder die mit konventionelleren Mitteln abgerufen wurden, kann ebenfalls ein hilfreicher Indikator sein.
  • In einigen Fällen, wie etwa in einem Unternehmensnetzwerk, können weitere Faktoren als sinnvoll erachtet werden:
    • • Welche Dokumente wurden in jüngster Zeit ausgedruckt?
    • • Welche Dokumente wurden kürzlich auf dem Dateiserver des Unternehmens geändert?
    • • Welche Dokumente wurden in jüngster Zeit per E-Mail versendet?
  • Alle dieser Beispiele legen möglicherweise nahe, dass ein Benutzer eher eine Papierversion dieser Dokumente liest. Im Gegensatz dazu, wenn durch den Aufbewahrungsort, an dem sich ein Dokument befindet, bestätigt werden kann, dass das Dokument nie ausgedruckt oder irgendwohin verschickt wurde, wo es hätte ausgedruckt werden können, kann es ohne Risiko aus allen Suchen, die aus Papier stammen, ausgeklammert werden.
  • 13.4. Sonstige Statistiken – der globale Kontext
  • Der Abschnitt 14 befasst sich mit der Analyse des Datenstroms, der sich aus papierbasierten Suchen ergibt, aber es ist an dieser Stelle anzumerken, dass Statistiken über die Popularität von Dokumenten bei anderen Lesern, über den Zeitpunkt dieser Popularität und über die Teile der Dokumente, die am häufigsten erfasst werden, ebenfalls Beispiele für weitere Faktoren sind, die im Suchprozess von Nutzen sein können. Das System überträgt die Möglichkeit Google-artiger Seiteneinstufung auf Papier.
  • Einige weitere Implikationen der Verwendung von Kontext bei Suchmaschinen finden Sie auch im Abschnitt 4.2.2.
  • 14. Datenstrom-Analyse
  • Als Nebeneffekt wird bei der Verwendung des Systems ein äußerst nützlicher Datenstrom erzeugt. Dieser Strom ist eine Aufzeichnung davon, was Benutzer lesen, und wann, und ist in vielen Fällen eine Aufzeichnung darüber, was sie von den Dingen, die sie lesen, als besonders wertvoll erachten. Solche Daten standen für Papierdokumente zuvor niemals wirklich zur Verfügung.
  • Einige Möglichkeiten, wie diese Daten für das System und für den Benutzer des Systems nützlich sein können, sind in Abschnitt 6.1 beschrieben. Dieser Abschnitt konzentriert sich auf ihre Verwendung für andere. Es gibt natürlich wesentliche Datenschutzfragen, die hinsichtlich jeder Verteilung von Daten darüber, was Personen lesen, berücksichtigt werden müssen, doch solche Themen wie das Aufrechterhalten der Anonymität von Daten sind dem Fachmann allgemein bekannt.
  • 14.1. Dokumentenverfolgung
  • Wenn das System weiß, welche Dokumente ein gegebener Benutzer liest, kann es auch ableiten, wer ein gegebenes Dokument liest. Dies ermöglicht die Nachverfolgung eines Dokuments über eine Organisation, um zum Beispiel eine Analyse darüber zu ermöglichen. wer es liest und wann, wie weit es verteilt wurde, wie lange diese Verteilung dauerte und wer aktuelle Ausgaben angeschaut hat, während andere noch mit veralteten Exemplaren arbeiten.
  • Bei veröffentlichten Dokumenten mit einer größeren Verbreitung ist die Verfolgung der einzelnen Kopien schwieriger, aber die Analyse der Verbreitung der Leserschaft ist dennoch möglich.
  • 14.2. Leserangfolge – Popularität von Dokumenten und Teilbereichen
  • In Situationen, in denen Benutzer Text oder andere Daten erfassen, der oder die von besonderem Interesse für sie sind, kann das System die Popularität von bestimmten Dokumenten und von besonderen Teilbereichen dieser Dokumente ableiten. Dies schafft eine wertvolle Eingabe für das System selbst (Abschnitt 4.2.2) und eine wichtige Informationsquelle für Autoren, Herausgeber und Werbekunden (Abschnitt 7.6, Abschnitt 10.5). Diese Daten können außerdem nützlich sein, wenn sie in Suchmaschinen und Suchindizes integriert werden – zum Beispiel, um bei der Einstufung von Suchergebnissen für Abfragen, die aus wiedergegebenen Dokumenten stammen, und/oderq, um bei der Einstufung herkömmlicher Abfragen, die in einem Webbrowser eingetippt werden, zu helfen.
  • 14.3. Analyse der Benutzer – Erstellung von Profilen
  • Kenntnisse von dem, was ein Benutzer liest, ermöglichen dem System, ein recht detailliertes Modell von den Interessen und Aktivitäten des Benutzers zu erstellen. Dies kann auf einer abstrakten statistischen Basis nützlich sein – „35% der Nutzer, die diese Zeitung kaufen, lesen auch das neuste Buch dieses Autors” – es kann jedoch, wie nachfolgend erörtert, auch andere Interaktionen mit dem einzelnen Benutzer ermöglichen.
  • 14.3.1. Social Networking
  • Ein Beispiel ist die Vernetzung von einem Benutzer mit einem anderen, die ähnliche Interessen haben. Dabei kann es sich um Personen handeln, die dem Benutzer bereits bekannt sind. Das System fragt einen Hochschullehrer möglicherweise: „Wussten Sie, dass Ihr Kollege an der Universität XYZ auch gerade diese Arbeit gelesen hat?” Das System kann einen Benutzer fragen: „Möchten Sie sich mit anderen Leuten in Ihrer Nachbarschaft vernetzen, die ebenfalls Jane Eyre lesen?” Solche Verknüpfungen können die Basis für die automatische Schaffung von Buchgemeinschaften und ähnlichen sozialen Strukturen darstellen, entweder in der physischen Welt oder online.
  • 14.3.2. Marketing
  • Im Abschnitt 10.6 wurde bereits die Idee erwähnt, einzelnen Benutzern Produkte und Dienste basierend auf ihren Interaktionen mit dem System anzubieten. Derzeitige Online-Buchhändler geben einem Benutzer zum Beispiel oftmals Empfehlungen basierend auf dessen vorherigen Interaktionen mit dem Buchhändler. Derartige Empfehlungen werden wesentlich nützlicher, wenn sie auf Interaktionen mit den tatsächlichen Büchern basiert sind.
  • 14.4. Auf anderen Aspekten des Datenstroms basiertes Marketing
  • Wir haben einige Möglichkeiten beschrieben, wie das System diejenigen, die Dokumente veröffentlichen oder Werbung in ihnen inserieren, beeinflussen oder zu weiteren Käufen anregen kann, die durch Papierdokumente initiiert werden (Abschnitt 10). Einige kommerzielle Aktivitäten können eventuell gar keine direkte Interaktion mit den Papierdokumenten aufweisen, können durch diese aber dennoch beeinflusst werden. Zum Beispiel kann das Wissen darüber, dass Personen in einer Gemeinschaft mehr Zeit damit verbringen, den Sportteil der Zeitung zu lesen, als beim Finanzteil, kann von Interesse für jemanden sein, der ein Fitnessstudio eröffnen möchte.
  • 14.5. Typen von Daten, die erfasst werden können
  • Neben den beschriebenen Statistiken zum Beispiel darüber, wer welche Teile von welchen Dokumenten wann und wo liest, kann es von Interesse sein, die aktuellen Inhalte des erfassten Textes unabhängig davon zu untersuchen, ob das Dokument aufgefunden wurde oder nicht.
  • In vielen Situationen erfasst der Benutzer nicht nur Text, sondern veranlasst auch die Ausführung einiger Aktionen infolgedessen. Diese könnte beispielsweise Versenden eines Verweises auf das Dokument per E-Mail an einen Bekannten sein. Selbst in Abwesenheit von Informationen über die Identität des Benutzers oder des Empfängers der E-Mail kann die Kenntnis, dass jemand das Dokument als wertvoll genug erachtet, um es per E-Mail zu verschicken, sehr nützlich sein.
  • Neben den beschriebenen verschiedenen Verfahren zum Ableiten des Werts eines bestimmten Dokuments oder Textteils gibt der Benutzer in manchen Fällen den Wert durch Zuweisen einer Bewertung explizit an.
  • Wenn von einem bestimmten Kreis von Benutzern bekannt ist, dass sie eine Gruppe bilden. zum Beispiel weil sie bekanntermaßen Mitarbeiter eines bestimmten Unternehmens sind, kann die aggregierte Statistik dieser Gruppe dazu verwendet werden, die Wichtigkeit eines bestimmten Dokuments für diese Gruppe abzuleiten. Dies trifft auf Gruppen zu, die durch maschinelle Klassifikationstechniken, wie etwa Bayessche Statistik, Clusterbildung, k-Nearest-Neighbor (k-NN), Singulärwertzerlegung (SVD) usw. basierend auf Daten über Dokumente, Erfassungen, Benutzer usw. identifiziert werden.
  • 15. Vorrichtungsmerkmale und -funktionen
  • In einigen Beispielen kann die Erfassungsvorrichtung in einem Mobiltelefon integriert sein, dessen Telefonhardware nicht modifiziert wurde, um das System zu unterstützen, etwa wenn die Texterfassung adäquat über die Bilderfassung erfolgen und vom Telefon selbst oder von einem System, auf das das Mobiltelefon zum Beispiel über eine drahtlose Netzwerkverbindung oder eine Mobilfunkverbindung zugreifen kann, verarbeitet oder im Speicher des Telefons gespeichert werden kann, um sie später zu verarbeiten. Viele moderne Telefone verfügen über die Fähigkeit, Software herunterzuladen, die einige Teile des Systems implementieren kann. In einigen Beispielen wird die Kamera verwendet, die in vielen Mobiltelefonen eingebaut ist, um ein Bild von dem Text aufzunehmen. Die Anzeige des Telefons, die normalerweise als ein Sucher für die Kamera funktionieren würde, kann auf dem Live-Bild der Kamera Informationen über die Qualität des Bildes und dessen Eignung für OCR, darüber, welche Textsegmente erfasst werden und, wenn die OCR auf dem Telefon durchgeführt werden kann, sogar eine Transkription des Textes, überlagern. Die Anzeige des Telefons kann außerdem eine Oberfläche bereitstellen, über die ein Benutzer mit dem erfassten Text interagieren kann und zugehörige Aktionen aufrufen kann.
  • Gleichermaßen können Sprachdaten von einem Mikrofon des Mobiltelefons erfasst werden. Eine solche Spracherfassung ist in vielen Situationen jedoch wahrscheinlich suboptimal, zum Beispiel, wenn es beträchtliche Hintergrundgeräusche gibt, und eine genaue Spracherkennung ist auch in günstigsten Zeiten eine schwierige Aufgabe. Die Audiomöglichkeiten können am besten dafür verwendet werden, Sprachanmerkungen zu erfassen.
  • In einigen Beispielen wurde das Telefon modifiziert, um dedizierte Erfassungseinrichtungen hinzuzufügen oder diese Funktionalität in einem ansteckbaren Adapter oder einem separaten über BluetoothTM angeschlossenen Peripheriegerät bereitzustellen, der oder das mit dem Telefon verbunden wird. Unabhängig von der Art des Erfassungsmechanismus weist die Integration des Systems in ein modernes Mobiltelefon viele weitere Vorteile auf. Das Telefon verfügt über eine Verbindung mit der übrigen Welt, was bedeutet, dass Abfragen für entfernte Suchmaschinen oder andere Teile des Systems eingereicht werden können, und Kopien und Dokumente zum sofortigen Speichern oder Anschauen abgerufen werden können. Ein Telefon verfügt typischerweise über eine Verarbeitungsleistung, die ausreichend ist, um viele Funktionen des Systems lokal durchzuführen, und einen Speicher, der ausreicht, um eine angemessene Menge an Daten zu erfassen. Die Größe des Speichers kann durch den Benutzer oftmals auch vergrößert werden. Telefone weisen ausreichend gute Anzeige- und Audioeinrichtungen zum Bereitstellen von Benutzerfeedback und oftmals eine Vibrationsfunktion für taktiles Feedback auf. Sie verfügen auch über eine gute Stromversorgung.
  • Das vielleicht Wichtigste ist, dass viele potenzielle Benutzer bereits über ein Mobiltelefon verfügen.
  • Eine für die Verwendung mit dem System geeignete Erfassungsvorrichtung benötigt kaum mehr als die Fähigkeit, Text von einer wiedergegebenen Version des Dokuments zu erfassen. Wie zuvor beschrieben, kann diese Erfassung durch eine Vielzahl von Verfahren erreicht werden, die das Aufnehmen eines Fotos von einem Teil des Dokuments oder Eintippen einiger Wörter in ein Tastenfeld beinhalten. Diese Erfassung kann unter Verwendung eines Mobiltelefons mit Bild- und Audioerfassungsmöglichkeiten oder eines optischen Scanners, der auch Sprachanmerkungen aufnimmt, erzielt werden.
  • 15.1. Eingabe und Ausgabe
  • Viele der möglicherweise nützlichen zusätzlichen Eingabe- und Ausgabeeinrichtungen für eine derartige Vorrichtung wurden in Abschnitt 12.1 beschrieben. Sie beinhalten Tasten, Scrollräder und Touchpads zur Eingabe und Anzeigen, Indikatorleuchten, Audio- und Berührungswandler zur Ausgabe. Manchmal wird die Vorrichtung viele von diesen umfassen, manchmal sehr wenige. Die Erfassungsvorrichtung wird gelegentlich in der Lage sein, mit einer anderen Vorrichtung zu kommunizieren, die bereits über diese verfügt (Abschnitt 15.6), beispielsweise unter Verwendung einer Drahtlosverbindung, und gelegentlich wird die Erfassungsfunktionalität in solch eine andere Vorrichtung integriert sein (Abschnitt 15.7).
  • 15.2. Konnektivität
  • In einigen Beispielen implementiert die Vorrichtung einen Großteil des Systems selbst. In einigen Beispielen kommuniziert sie jedoch oftmals mit einem PC oder einer anderen Computervorrichtung und mit der übrigen Welt unter Verwendung von Kommunikationseinrichtungen.
  • Häufig handelt es sich bei diesen Kommunikationsoptionen um eine Form von Universal-Datennetzwerk wie Ethernet, 802.11 oder UWB oder um ein Standardnetzwerk zum Anschließen von Peripheriegeräten wie USB, IEEE-1394 (Firewire), BluetoothTM oder Infrarot. Wenn eine drahtgebundene Verbindung wie etwa Firewire oder USB verwendet wird, kann die Vorrichtung über dieselbe Verbindung elektrische Energie empfangen. Unter einigen Umständen kann die Erfassungsvorrichtung einer verbundenen Maschine als ein herkömmliches Peripheriegerät wie etwa eine USB-Speichervorrichtung erscheinen.
  • Schließlich kann die Vorrichtung in manchen Fällen an eine andere Vorrichtung „angedockt” werden, um sie entweder zusammen mit dieser Vorrichtung zu verwenden oder bequem aufzubewahren.
  • 15.3. Zwischenspeicherung und weitere Online-/Offline-Funktionalität
  • In den Abschnitten 3.5 und 12.1.4 wurde der getrennte Betrieb thematisiert. Wenn eine Erfassungsvorrichtung einen begrenzten Teilsatz der gesamten Funktionalität des Systems aufweist und nicht in Verbindung mit den anderen Teilen des Systems ist, kann die Vorrichtung dennoch nützlich sein, obwohl die verfügbare Funktionalität gelegentlich reduziert sein wird. Auf der einfachsten Ebene kann die Vorrichtung die unbearbeiteten Bild- oder Audiodaten, die erfasst werden, aufzeichnen, und diese können später verarbeitet werden. Zum Nutzen des Benutzers kann es jedoch wichtig sein, wenn möglich Feedback darüber bereitzustellen, ob die erfassten Daten für die vorliegende Aufgabe wahrscheinlich ausreichen werden, ob sie erkannt werden können oder wahrscheinlich erkennbar sind, und ob die Quelle der Daten identifiziert werden kann oder wahrscheinlich später identifizierbar ist. Der Benutzer wird anschließend wissen, ob seine Erfassungsaktivität sinnvoll ist. Selbst wenn alle der vorstehend genannten unbekannt sind, können die Rohdaten dennoch gespeichert werden, sodass zumindest der Benutzer später darauf Bezug nehmen kann. Dem Benutzer kann das Bild einer Erfassung präsentiert werden, beispielsweise wenn die Erfassung nicht durch den OCR-Prozess erkannt werden kann.
  • Um einige einer Reihe von verfügbaren Optionen zu veranschaulichen, werden nachfolgend eine eher einfach gehaltene optische Scanvorrichtung und anschließend eine um einiges funktionsreichere Scanvorrichtung beschrieben. Viele Vorrichtungen stellen einen Kompromiss zwischen diesen beiden dar.
  • 15.3.1. Der SimpleScanner – ein Low-End-Offline-Beispiel
  • Der SimpleScanner ist mit einem Abtastkopf ausgestattet, der Pixel auf der Seite lesen kann, während er entlang einer Zeile eines Textes bewegt wird. Er kann seine Bewegung entlang der Seite erkennen und die Pixel mit einigen Informationen über die Bewegung aufnehmen. Außerdem weist er eine Uhr auf, die es ermöglicht, dass jeder Scan mit einem Zeitstempel versehen wird. Die Uhr wird mit einer Host-Vorrichtung synchronisiert, wenn der SimpleScanner über Konnektivität verfügt. Die Uhr zeigt ggf. nicht die tatsächliche Uhrzeit an, es können jedoch relative Uhrzeiten daraus bestimmt werden, sodass der Host die tatsächliche Uhrzeit eines Scans, oder im schlimmsten Fall die verstrichene Zeit zwischen den Scans, ableiten kann.
  • Der SimpleScanner verfügt nicht über genügend Verarbeitungsleistung, um selbst eine OCR durchführen zu können, hat jedoch grundlegende Kenntnisse über typische Wortlängen, Wortabstände und deren Beziehung zur Schriftgröße. Er weist einige grundlegende Anzeigeleuchten auf, die dem Benutzer mitteilen, ob der Scan voraussichtlich lesbar sein wird, ob der Kopf zu schnell, zu langsam oder zu ungenau über das Papier bewegt wird und wenn bestimmt wird, dass für das zu identifizierende Dokument voraussichtlich ausreichend viele Wörter einer bestimmten Größe gescannt worden sind.
  • Der SimpleScanner weist einen USB-Stecker auf, der in den USB-Anschluss eines Computers gesteckt werden kann, um den Scanner aufzuladen. Der Computer erkennt diesen als eine USB-Speichervorrichtung, auf der mit Zeitstempel versehene Datendateien aufgezeichnet wurden, und ab diesem Punkt übernimmt der Rest der Systemsoftware.
  • 15.3.2. Das SuperDevice – ein High-End-Offline-Beispiel
  • Das SuperDevice benötigt Konnektivität, um alle Funktionen der Vorrichtung nutzen zu können, es verfügt jedoch über einen Onboard-Speicher mit großer Kapazität und über ausreichende Verarbeitungsleistung, die eine bessere Beurteilung der erfassten Daten im Offline-Modus ermöglicht.
  • Wenn das SuperDevice Text erfasst, indem es beispielsweise Bilder eines mit einer Kamera des SuperDevice aufgenommenen Dokuments verarbeitet, wird der erfasste Text an eine OCR-Engine weitergeleitet, die versucht, den Text zu erkennen. Eine Reihe von Schriftarten, einschließlich solcher aus den vom Benutzer am häufigsten gelesenen Veröffentlichungen, wurden darauf heruntergeladen, um bei der Durchführung dieser Aufgabe zu helfen, so auch ein Wörterbuch, das mit dem Rechtschreibprüfungswörterbuch des Benutzers auf seinem PC synchronisiert wird und daher viele der Wörter enthält, die ihm häufig begegnen. Ebenfalls auf dem SuperDevice gespeichert ist eine Liste von Wörtern und Wortverbindungen mit der typischen Häufigkeit ihrer Verwendung – diese kann mit dem Wörterbuch kombiniert werden. Das SuperDevice kann die Häufigkeitsstatistiken verwenden, um sowohl bei dem Erkennungsprozess zu helfen, als auch seine Einschätzung darüber, wann eine ausreichende Menge Text erfasst wurde, zu verbessern; bei häufiger verwendeten Wortverbindungen ist es weniger wahrscheinlich, dass diese als Grundlage für eine Suchabfrage nützlich sind.
  • Darüber hinaus wird der vollständige Index für die Artikel in den neuesten Ausgaben der Zeitungen und Zeitschriften, die am häufigsten vom Benutzer gelesen werden, im SuperDevice gespeichert, so wie die Indizes der Bücher, die der Benutzer kürzlich von einem Online-Buchhändler erworben hat oder aus denen der Benutzer innerhalb der letzten paar Monate etwas erfasst hat. Zuletzt werden die Titel von mehreren tausend der beliebtesten Veröffentlichungen, in denen Daten für das System verfügbar sind, gespeichert, sodass der Benutzer in Abwesenheit anderer Informationen den Titel erfassen kann und sich eine gute Vorstellung davon machen kann, ob es wahrscheinlich ist, dass Erfassungen aus einem bestimmten Werk später in elektronischer Form abgerufen werden können oder nicht.
  • Während des Erfassungsprozesses informiert das System den Benutzer darüber, dass die Qualität und Beschaffenheit der erfassten Daten ausreichend ist und es daher wahrscheinlich ist, dass die elektronische Kopie der erfassten Informationen abgerufen werden kann, sobald die Konnektivität wiederhergestellt ist. Das System zeigt dem Benutzer oftmals an, dass es bekannt ist, dass die Erfassung erfolgreich verlief, und dass der Kontext in einem der internen Indizes erkannt wurde, oder dass die betreffende Veröffentlichung dafür bekannt ist, dass sie dem System diese Daten zur Verfügung stellt, sodass der spätere Abruf erfolgreich sein sollte.
  • Das SuperDevice dockt in einer Aufnahmevorrichtung an, die mit einem Firewire- oder USB-Anschluss des Computers verbunden ist, woraufhin nicht nur die erfassten Daten hochgeladen, sondern auch die verschiedenen Onboard-Indizes und anderen Datenbanken basierend auf der jüngsten Benutzeraktivität und den neuesten Publikationen aktualisiert werden. Das SuperDevice verfügt zudem über ein System zum Herstellen einer Verbindung zu drahtlosen öffentlichen Netzwerken und Mobilfunknetzen oder zur Kommunikation über BluetoothTM mit einem Mobiltelefon und somit mit dem öffentlichen Netzwerk, wenn diese Einrichtungen verfügbar sind. In einigen Fällen können die eingebauten Indizes und andere Datenbanken drahtlos aktualisiert werden. Der Aktualisierungsprozess kann durch den Benutzer oder automatisch durch das System initiiert werden.
  • 15.4. Merkmale zur Bilderfassung
  • Wir betrachten nun einige der Merkmale, die insbesondere bei einer Erfassungsvorrichtung wünschenswert sind.
  • 15.4.1. Flexible Positionierung und komfortable Optik
  • Einer der Gründe für die anhaltende Popularität von Papierdokumenten ist die einfache Verwendbarkeit in einer Vielzahl von Situationen, in denen die Verwendung eines Computers zum Beispiel unpraktisch und unkomfortabel wäre. Eine Vorrichtung, die dazu dient, einen großen Teil der Benutzerinteraktionen mit Papier zu erfassen, sollte in ihrer Verwendung daher ähnlich praktisch sein. Dies traf für Scanner in der Vergangenheit nicht zu; selbst die kleinsten Handgeräte waren etwas unhandlich. Solche, die dafür ausgelegt sind, in Kontakt mit der Seite zu sein, müssen in einem genauen Winkel zum Papier gehalten werden und sehr vorsichtig an der Länge des zu erfassenden Textes entlangbewegt werden. Dies ist akzeptabel, wenn man einen Unternehmensbericht auf einem Bürotisch scannt, kann jedoch unpraktisch sein, wenn eine Wortverbindung aus einem Roman gescannt werden soll, während man auf einen Zug wartet. Kamerabasierte Erfassungsvorrichtungen, die in einer Entfernung zu dem Papier arbeiten, können gleichermaßen in vielen Umständen nützlich sein.
  • Einige Beispiele des Systems verwenden einen Scanner, der auf dem Papierdokument aufliegt und dieses scannt und anstatt eines Objektivs einen Bildleiter, d. h. ein Glasfaserbündel, zur Übertragung des Bildes von der Seite auf die optische Sensorvorrichtung nutzt. Eine solche Vorrichtung kann so geformt sein, dass es möglich ist, sie in einer natürlichen Position zu halten; in einigen Beispielen ist der Teil, der mit der Seite in Berührung ist, zum Beispiel keilförmig, was es der Hand des Benutzers ermöglicht, sich natürlicher über die Seite zu bewegen, in einer Bewegung, die der Verwendung eines Textmarkers entspricht. Die Führung ist entweder in direkten Kontakt mit dem Papier oder in einem geringen Abstand dazu und kann eine austauschbare transparente Spitze aufweisen, die die Bildführung vor einer möglichen Beschädigung schützen kann. Wie in Abschnitt 12.2.4 erwähnt wurde, kann der Scanner verwendet werden, um sowohl von einem Bildschirm, als auch von Papier zu scannen, und das Material der Spitze kann so gewählt werden, dass die Wahrscheinlichkeit von Schäden an solchen Anzeigen reduziert wird.
  • Schließlich stellen einige Beispiele des Geräts dem Benutzer während des Erfassungsprozesses Feedback bereit, das unter Verwendung von Licht, eines Tons oder taktilem Feedback anzeigt, dass der Benutzer die Erfassungsvorrichtung zu schnell, zu langsam oder zu ruckartig bewegt bzw. auf der Erfassungslinie zu weit nach oben oder unten driftet.
  • 15.5. Sicherheit, Identität, Authentifizierung, Personalisierung und Abrechnung
  • Wie in Abschnitt 6 beschrieben kann die Erfassungsvorrichtung eine wichtige Rolle bei der Identifizierung und Authentifizierung von sicheren Transaktionen, Käufen und einer Vielzahl von anderen Operationen spielen. Daher kann sie, neben den für eine solche Rolle erforderlichen Schaltungen und der Software, verschiedene Hardwaremerkmale einbeziehen, die sie sicherer machen können, wie etwa einen Smartcard-Leser, RFID oder ein Tastenfeld, auf dem eine PIN eingegeben werden kann.
  • Sie kann außerdem verschiedene biometrische Sensoren zur Unterstützung der Identifizierung des Benutzers beinhalten. In dem Fall einer Erfassungsvorrichtung mit Bilderfassungsfähigkeiten kann die Kamera zum Beispiel auch in der Lage sein, einen Fingerabdruck zu lesen. Bei einem Stimmenrecorder kann das Sprachmuster der Benutzers verwendet werden.
  • 15.6. Vorrichtungsverknüpfungen
  • In einigen Beispielen kann die Erfassungsvorrichtung eine Verknüpfung zu anderen in der Nähe befindlichen Vorrichtungen herstellen, um entweder ihre eigene oder deren Funktionalität zu erweitern. In einigen Beispielen verwendet sie beispielsweise die Anzeige von einem in der Nähe befindlichen PC oder Telefon, um ergänzendes Feedback über ihren Betrieb bereitzustellen, oder verwendet deren Netzwerkverbindung. Andererseits kann die Vorrichtung in ihrer Rolle als eine Sicherheits- und Identifikationsvorrichtung agieren, um Operationen, die von den anderen Vorrichtungen durchgeführt werden, zu authentifizieren. Sie kann auch einfach eine Verbindung eingehen, um als ein Peripheriegerät dieser Vorrichtung zu funktionieren.
  • Ein interessanter Aspekt derartiger Verknüpfungen ist, dass sie mithilfe der Erfassungseinrichtungen der Vorrichtung initiiert und authentifiziert werden können. Ein Benutzer, der sich an einem öffentlichen Computerterminal sicher identifizieren möchte, kann zum Beispiel die Erfassungseinrichtungen der Vorrichtung verwenden, um einen Code oder ein Symbol, das in einem bestimmten Bereich des Bildschirms des Terminals angezeigt wird, zu erfassen und so eine Schlüsselübertragung erwirken. Ein vergleichbarer Prozess kann unter Verwendung von Audiosignalen durchgeführt werden, die von einer Sprachaufzeichnungsvorrichtung aufgefangen werden.
  • 15.7. Integration mit anderen Vorrichtungen
  • In einigen Beispielen ist die Funktionalität der Erfassungsvorrichtung in einer anderen Vorrichtung integriert, die bereits verwendet wird. Die integrierten Vorrichtungen können in der Lage sein, sich eine Stromversorgung, Datenerfassungs- und Speichereinrichtungen und Netzwerkschnittstellen zu teilen. Eine derartige Integration kann aus praktischen Gründen erfolgen, um Kosten zu senken, oder um Funktionalität zu ermöglichen, die sonst nicht verfügbar wäre.
  • Einige Beispiele von Vorrichtungen, in denen die Erfassungsfunktionalität integriert sein kann, sind unter anderem:
    • • ein vorhandenes Peripheriegerät wie beispielsweise eine Maus, ein Stylus, eine USB-Kamera (Webcam), ein Bluetooth-Headset oder eine Fernsteuerung;
    • • eine andere Verarbeitungs-/Speichervorrichtung, wie beispielsweise ein PDA, ein MP3-Player, ein Sprachrekorder oder eine digitale Kamera;
    • • andere häufig mit sich geführte oder getragene Produkte, nur aus Komfortgründen, wie beispielsweise eine Uhr, Schmuck, eine Brille, ein Hut, ein Stift, ein Autoschlüsselanhänger usw.
  • TEIL III – BEISPIELHAFTE ANWENDUNGEN DES SYSTEMS
  • In diesem Abschnitt werden Verwendungsbeispiele von dem System und von Anwendungen beschrieben, die möglicherweise auf dem System basieren. Diese Liste soll rein veranschaulichend und in keiner Weise vollständig sein.
  • 16. Persönliche Anwendungen
  • 16.1. Lebensbibliothek
  • Bei der Lebensbibliothek (siehe auch Abschnitt 6.1.1) handelt es sich um ein digitales Archiv mit allen wichtigen Dokumenten, die der Abonnent speichern möchte, und sie beinhaltet eine Reihe von Beispielen von Diensten dieses Systems. In der Lebensbibliothek können alle wichtigen Bücher, Zeitschriftenartikel, Zeitungsausschnitte usw. in digitaler Form gespeichert sein. Darüber hinaus können die Anmerkungen, Kommentare und Notizen des Abonnenten zusammen mit den Dokumenten gespeichert sein. Der Zugriff auf die Lebensbibliothek kann über das Internet und World Wide Web erfolgen.
  • Das System erstellt und verwaltet das Dokumentenarchiv der Lebensbibliothek für die Abonnenten. Der Abonnent gibt die Dokumente, die der Abonnent in seiner Lebensbibliothek speichern möchte, durch Erfassen von Informationen aus dem Dokument an, oder indem er dem System anderweitig anzeigt, dass das bestimmte Dokument zu der Lebensbibliothek des Benutzers hinzugefügt werden soll. Die erfassten Informationen sind typischerweise Text aus dem Dokument, können aber auch ein Barcode oder anderer Code sein, der das Dokument identifiziert. Das System akzeptiert den Code und verwendet diesen, um das Quelldokument zu identifizieren. Nachdem das Dokument identifiziert ist, kann das System entweder eine Kopie des Dokuments in der Lebensbibliothek des Benutzers speichern, oder einen Link zu einer Quelle anzeigen, aus der das Dokument bezogen werden kann.
  • Ein Beispiel des Lebensbibliothek-Systems kann überprüfen, ob der Abonnent autorisiert ist, eine elektronische Kopie abzurufen. Wenn ein Leser beispielsweise Text oder eine Kennung aus einer Kopie eines Artikels in der New York Times (NYT) erfasst, sodass der Artikel der Lebensbibliothek des Lesers hinzugefügt wird, wird die Lebensbibliothek mit der NYT verifizieren, ob der Leser die Onlineausgabe der NYT abonniert; falls ja, erhält der Leser eine Kopie des Artikels, der in seiner Lebensbibliothek gespeichert ist; wenn nicht, werden Informationen, die das Dokument identifizieren und erklären, wie es bestellt werden kann, in seinem Lebensbibliothekskonto gespeichert.
  • In einigen Beispielen verwaltet das System ein Abonnentenprofil für jeden Abonnenten, das Informationen zu den Zugriffsberechtigungen beinhaltet. Dokumentzugriffsinformationen können auf verschiedene Weise kompiliert sein, von denen zwei die Folgenden sind: 1) der Abonnent stellt dem Lebensbibliothek-System die Dokumentzugriffsinformationen, zusammen mit seinen Kontonamen und Passwörtern usw., zur Verfügung oder 2) der Lebensbibliothek-Dienstleistungsanbieter fragt den Herausgeber mit den Informationen des Benutzers ab und der Herausgeber antwortet durch Ermöglichen eines Zugangs zu einer elektronischen Kopie, wenn der Lebensbibliothek-Abonnent autorisiert ist, auf das Material zuzugreifen. Wenn der Lebensbibliothek-Abonnent nicht autorisiert ist, über eine elektronische Kopie des Dokuments zu verfügen, stellt der Herausgeber einen Preis für den Lebensbibliothek-Dienstleistungsanbieter bereit, welcher dem Kunden anschließend die Option bereitstellt, das elektronische Dokument zu erwerben. Fall dies geschieht zahlt der Lebensbibliothek-Dienstleistungsanbieter entweder den Herausgeber direkt und stellt dem Lebensbibliothek-Kunden später eine Rechnung aus, oder der Lebensbibliothek-Dienstleistungsanbieter belastet für den Kauf die Kreditkarte des Kunden. Der Lebensbibliothek-Dienstleistungsanbieter würde einen Anteil des Kaufpreises oder ein geringes festgelegtes Entgelt für die Ermöglichung der Transaktion erhalten.
  • Das System kann das Dokument in der persönlichen Bibliothek des Abonnenten und/oder jeder anderen Bibliothek archivieren, für die der Abonnent Archivierungsprivilegien hat. Während ein Benutzer zum Beispiel Text aus einem gedruckten Dokument erfasst, kann das Lebensbibliothek-System das wiedergegebene Dokument und dessen elektronisches Gegenstück identifizieren. Nachdem das Quelldokument identifiziert ist, kann das Lebensbibliothek-System Informationen über das Quelldokument in der persönlichen Bibliothek des Benutzers und in einer Gruppenbibliothek, für die der Abonnent Archivierungsrechte besitzt, aufzeichnen. Gruppenbibliotheken sind gemeinschaftliche Archive wie etwa eine Dokumentenablage für: eine Gruppe, die gemeinsam an einem Projekt arbeitet, eine Gruppe von Wissenschaftlern, ein Gruppen-Weblog usw.
  • Die Lebensbibliothek kann auf viele Weisen organisiert werden: chronologisch, nach Thema, nach Höhe des Interesses des Abonnenten, nach Art der Publikation (Zeitung, Buch, Zeitschrift, technisches Paper usw.), nach dem Leseort oder Lesezeitpunkt, nach ISBN oder Dewey-Dezimalklassifikation usw. In einer Alternative kann das System Klassifikationen basierend darauf, wie andere Abonnenten dasselbe Dokument klassifiziert haben, ermitteln. Das System kann dem Benutzer Klassifikationen vorschlagen oder das Dokument für den Benutzer automatisch klassifizieren.
  • In verschiedenen Beispielen können Anmerkungen direkt in das Dokument eingefügt oder aber in einer separaten Datei verwaltet werden. Wenn ein Abonnent zum Beispiel Text aus einem Zeitungsartikel erfasst, wird der Artikel in seiner Lebensbibliothek archiviert, wobei der erfasste Text hervorgehoben ist. Alternativ dazu wird der Artikel in seiner Lebensbibliothek zusammen mit einer dazugehörigen Anmerkungsdatei archiviert (wodurch das archivierte Dokument unverändert bleibt). Beispiele des System können eine Kopie des Quelldokuments in der Bibliothek eines jeden Abonnenten aufbewahren, eine Kopie in der Hauptbibliothek, auf die von vielen Abonnenten zugegriffen werden kann, oder auf eine Kopie verlinken, die sich im Besitz des Herausgebers befindet.
  • In einigen Beispielen werden in der Lebensbibliothek nur die Änderungen des Benutzers am Dokument (z. B. Hervorhebungen usw.) und ein Link zu einer Online-Version des Dokuments (anderer Speicherort) gespeichert. Das System oder der Abonnent führt die Veränderungen mit dem Dokument zusammen, wenn der Abonnent das Dokument später abruft.
  • Falls die Anmerkungen in einer separaten Datei gespeichert werden, werden dem Abonnenten das Quelldokument und die Anmerkungsdatei bereitgestellt und der Abonnent kombiniert diese, um ein geändertes Dokument zu erstellen. Alternativ dazu kombiniert das System die zwei Dateien, bevor es sie dem Abonnenten präsentiert. In einem anderen Beispiel ist die Anmerkungsdatei eine Überlagerung für die Dokumentdatei und kann durch Software auf dem Computer des Abonnenten über das Dokument gelegt werden.
  • Abonnenten des Lebensbibliothek-Dienstes zahlen eine monatliche Gebühr, damit das System das Archiv des Abonnenten beibehält. Alternativ dazu zahlt der Abonnent einen geringen Betrag (z. B. eine Mikrozahlung) für jedes Dokument, das in dem Archiv gespeichert ist. Alternativ dazu zahlt der Abonnent für den Zugriff auf das Archiv des Abonnenten eine Gebühr je Zugriff. Alternativ dazu können Abonnenten Bibliotheken zusammenstellen und anderen ermöglichen, basierend auf einem Gewinnbeteiligungsmodell mit dem Lebensbibliothek-Dienstleistungsanbieter und Urheberrechtsinhabern, auf diese Materialien/Anmerkungen zuzugreifen. Alternativ dazu erhält der Lebensbibliothek-Dienstleistungsanbieter eine Zahlung von dem Herausgeber, wenn der Lebensbibliothek-Abonnent ein Dokument bestellt (ein Gewinnbeteiligungsmodell mit dem Herausgeber, wobei der Lebensbibliothek-Dienstleistungsanbieter einen Anteil des Gewinns des Herausgebers erhält).
  • In einigen Beispielen agiert der Anbieter des Lebensbibliothek-Dienstes als Mittler zwischen dem Abonnenten und dem Urheberrechteinhaber (oder dem Vertreter des Urheberrechtsinhabers wie dem Copyright Clearance Center, kurz CCC), um die Rechnungsstellung und Zahlung für urheberrechtlich geschützte Materialien zu erleichtern. Der Lebensbibliothek-Dienstleistungsanbieter verwendet die Zahlungsinformationen des Abonnenten und andere Benutzerkontoinformationen, um diesen Vermittlungsdienst bereitzustellen. Im Wesentlichen nutzt der Lebensbibliothek-Dienstleistungsanbieter die bereits vorhandene Beziehung mit dem Abonnenten, um den Erwerb von urheberrechtlich geschütztem Material im Namen des Abonnenten zu ermöglichen.
  • In einigen Beispielen kann das Lebensbibliothek-System Auszüge von Dokumenten speichern. Wenn ein Abonnent beispielsweise Text aus einem Papierdokument erfasst, werden die Bereiche um den erfassten Text exzerpiert und in der Lebensbibliothek abgelegt, und nicht das gesamte Dokument in der Lebensbibliothek archiviert. Dies ist besonders vorteilhaft, wenn das Dokument lang ist, da ein Erhalten der Umstände der ursprünglichen Erfassung ermöglicht, dass der Abonnent das Dokument nicht erneut lesen muss, um die interessanten Abschnitte zu finden. Natürlich kann ein Hyperlink zu dem gesamten elektronischen Gegenstück des Papierdokuments in den Auszugsmaterialien enthalten sein.
  • In einigen Beispielen speichert das System auch Informationen zum Dokument in der Lebensbibliothek, wie etwa den Autor, den Titel der Publikation, den Herausgeber, den Urheberrechtsinhaber (oder den Lizenzvertreter des Urheberrechtsinhabers), die ISBN, Links zu öffentlichen Anmerkungen zum Dokument, Leserangfolge usw. Bei einigen dieser zusätzlichen Informationen zum Dokument handelt es sich um eine Form von Papierdokument-Metadaten. Dritte können öffentliche Anmerkungsdateien für den Zugriff durch Personen erstellen, die nicht sie selbst sind, wie etwa die breite Öffentlichkeit. Ein Verknüpfen der Kommentare Dritter über ein Dokument ist vorteilhaft, da das Lesen von Anmerkungsdateien anderer Benutzer das Verständnis des Abonnenten über das Dokument verbessert.
  • In einigen Beispielen archiviert das System Materialien nach Klasse. Dieses Merkmal ermöglicht es einem Lebensbibliothek-Abonnenten, elektronische Gegenstücke ohne Zugriff auf jedes Papierdokument schnell für eine gesamte Klasse von Papierdokumenten zu speichern. Wenn der Abonnent zum Beispiel Text aus einem Exemplar der Zeitschrift National Geographic erfasst, stellt das System dem Abonnenten die Option zur Verfügung, alle älteren Hefte der National Geographic zu archivieren. Wenn der Abonnent auswählt, alle älteren Hefte zu archivieren, würde der Lebensbibliothek-Dienstleistungsanbieter anschließend bei der National Geographic Society verifizieren, ob der Abonnent dafür autorisiert ist. Wenn nicht, kann der Lebensbibliothek-Dienstleistungsanbieter den Erwerb der Rechte zur Archivierung der National-Geographic-Zeitschriftensammlung vermitteln.
  • 16.2. Lebensspeicher
  • Eine Variation oder Verbesserung Lebensbibliothek-Konzepts ist der Lebensspeicher, wobei das System den von einem Benutzer erfassten Text verwendet, um mehr über dessen andere Aktivitäten abzuleiten. Die Erfassung von einer Speisekarte von einem bestimmten Restaurant, einem Programm von einer bestimmten Theateraufführung, einem Fahrplan an einer bestimmten Bahnhaltestelle oder einem Artikel aus einer Lokalzeitung ermöglicht es dem System, Rückschlüsse über den Standort und soziale Aktivitäten des Benutzers zu ziehen und ein automatisches Tagebuch, wie etwa eine Webseite, für sie anzulegen. Der Benutzer wäre in der Lage, das Tagebuch zu editieren und zu verändern, zusätzliche Materialien wie etwa Fotos hinzuzufügen und natürlich auch, sich die erfassten Elemente erneut anzuschauen.
  • 17. Anwendungen im akademischen Bereich
  • Die von dem beschriebenen System unterstützte Erfassungsvorrichtung kann auf viele überzeugende Weisen im akademischen Bereich eingesetzt werden. Sie können die Schüler-Lehrer-Interaktion verbessern und die Lernerfahrung vergrößern. Neben anderen Verwendungen können Schüler Lernmaterialien beschriften, damit sie ihren spezifischen Anforderungen entsprechen; Lehrer können die Klassenleistung überwachen; und Lehrer können in einer Arbeit eines Schülers zitierte Ausgangsmaterialien verifizieren.
  • 17.1. Kinderbücher
  • Die Interaktion eines Kindes mit einem Papierdokument, wie etwa einem Buch, wird durch ein Lesekompetenzerwerbssystem überwacht, das einen spezifischen Satz von Beispielen für dieses System nutzt. Das Kind verwendet eine Erfassungsvorrichtung, die mit anderen Elementen des Lesekompetenzerwerbssystems kommuniziert. Neben der Erfassungsvorrichtung beinhaltet das Lesekompetenzerwerbssystem eine Anzeige und Lautsprecher sowie eine Datenbank, auf die die Erfassungsvorrichtung zugreifen kann. Wenn das Kind ein unbekanntes Wort in dem Buch entdeckt, erfasst das Kind dieses mit der Erfassungsvorrichtung. In einem Beispiel vergleicht das Lesekompetenzerwerbssystem den erfassten Text mit den Ressourcen in seiner Datenbank, um das Wort zu identifizieren. Die Datenbank beinhaltet ein Wörterbuch, einen Thesaurus und/oder Multimediadaten (z. B. Audio, Grafiken usw.). Nachdem das Wort identifiziert wurde, verwendet das System die Lautsprecher, um dem Kind das Wort und dessen Definition vorzutragen. In einem anderen Beispiel werden das Wort und dessen Definition durch das Lesekompetenzerwerbssystem auf der Anzeige angezeigt. Multimediadateien über das erfasste Wort können über die Anzeige und die Lautsprecher auch abgespielt werden. Wenn ein Kind zum Beispiel das Buch „Goldlöckchen und die drei Bären” liest und das Wort „Bär” erfasst, kann das System das Wort „Bär” laut vorlesen und ein kurzes Video zu Bären auf dem Display abspielen. Auf diese Weise lernt das Kind, das geschriebene Wort auszusprechen, und über die Multimediapräsentation wird ihm visuell beigebracht, was das Wort bedeutet.
  • Das Lesekompetenzerwerbssystem stellt direkt auditorische und/oder visuelle Informationen bereit, um den Lernprozess zu fördern. Das Kind verwendet diese ergänzenden Informationen, um sich schnell ein tieferes Verständnis des geschriebenen Materials anzueignen. Das System kann verwendet werden, um Leseanfängern das Lesen beizubringen, um Kinder zu helfen, sich ein größeres Vokabular anzueignen, usw. Das System stellt dem Kind Informationen über Wörter zur Verfügung, die das Kind nicht kennt, oder über die das Kind weitere Informationen erhalten möchte.
  • 17.2. Lesekompetenzerwerb
  • In einigen Beispielen erstellt das System persönliche Wörterbücher. Wenn der Leser ein Wort sieht, das neu, interessant oder besonders nützlich oder problematisch ist, speichert es der Leser (zusammen mit seiner Definition) in einer Computerdatei. Diese Computerdatei wird das personalisierte Wörterbuch des Benutzers. Das Wörterbuch ist von der Größe her im Allgemeinen kleiner als ein normales Wörterbuch, kann also auf eine Mobilstation heruntergeladen werden und somit selbst dann verfügbar sein, wenn das System nicht unmittelbar zugänglich ist. In einigen Beispielen beinhalten die Einträge des persönlichen Wörterbuchs Audiodateien, um bei der korrekten Aussprache von Wörtern zu helfen, und Informationen, die das Papierdokument identifizieren, aus dem das Wort erfasst wurde.
  • In einigen Beispielen erstellt das System benutzerdefinierte Rechtschreib- und Vokabeltests für Schülerinnen und Schüler. Liest ein Schüler beispielsweise eine Aufgabe, so kann der Schüler unbekannte Wörter mit der Erfassungsvorrichtung erfassen. Das System speichert eine Liste mit allen Wörtern, die der Schüler erfasst hat. Später gibt das System einen angepassten Orthografie-/Wortschatztest an den Schüler auf einem verbundenen Monitor aus (oder druckt einen solchen Test auf einem verbundenen Drucker).
  • 17.3. Musikunterricht
  • Die Anordnung von Noten auf einer Notenlinie entspricht der Anordnung von Buchstaben in einer Textzeile. Die Erfassungsvorrichtung kann verwendet werden, um Notenschrift zu erfassen, und ein entsprechender Prozess der Erstellung einer Suche in Datenbanken bekannter Musikstücke würde ermöglichen, dass das Stück, aus dem die Erfassung erfolgte, zu identifizieren, welches anschließend abgerufen, abgespielt werden oder die Grundlage für eine weitere Aktion sein kann.
  • 17.4. Erkennen von Plagiaten
  • Lehrer können das System zum Erkennen von Plagiaten oder Verifizieren von Quellen verwenden, indem sie Text aus den Arbeiten der Schüler erfassen und den erfassten Text an das System senden. Ein Lehrer, der zum Beispiel verifizieren möchte, ob ein Zitat in der Arbeit eines Schülers aus der Quelle stammt, die der Schüler angegeben hat, kann einen Teil des Zitats erfassen und den Titel des Dokuments, das durch das System identifiziert wird, mit dem Titel des Dokuments vergleichen, das von dem Schüler zitiert wurde. In gleicher Weise kann das System Erfassungen von Text aus Arbeiten, die als originäre Arbeiten des Schülers eingereicht wurden, verwenden, um aufzuzeigen, ob der Text stattdessen kopiert wurde.
  • 17.5. Verbessertes Lehrbuch
  • In einigen Beispielen kann die Erfassung von Text aus einem wissenschaftlichen Lehrbuch Schüler oder Lehrer zu detaillierteren Erklärungen, weiteren Übungen, Diskussionen zwischen Schülern und Lehrern über das Material, verwandten beispielhaften früheren Prüfungsfragen, weiteren Texten zu dem Thema, Aufzeichnungen von Vorlesungen zu dem Thema usw. führen. (Siehe auch Abschnitt 7.1.).
  • 17.6. Sprachenerwerb
  • In einigen Beispielen wird das System zum Unterrichten von Fremdsprachen verwendet. Das Erfassen eines spanischen Wortes kann zum Beispiel bewirken, dass das Wort auf spanisch zusammen mit seiner Definition auf englisch laut vorgelesen wird.
  • Das System stellt direkt auditive und/oder visuelle Informationen bereit, um den Prozess zum Erlernen einer neuen Sprache zu unterstützen. Der Leser verwendet diese ergänzenden Informationen, um sich schnell ein tieferes Verständnis des Materials anzueignen. Das System kann verwendet werden, um Lernanfängern beizubringen, Fremdsprachen zu lesen, Schülern dabei zu helfen, sich ein größeres Vokabular anzueignen usw. Das System stellt Informationen über Fremdwörter bereit, die dem Leser unbekannt sind, oder über die der Leser mehr Informationen möchte. Beim Erfassen von Text in einer Sprache kann die Erfassungsvorrichtung den erfassten Text in einer anderen Sprache anzeigen, mit der der Benutzer vertrauter ist. In einem weiteren Beispiel kann die Erfassungsvorrichtung den erfassten Text so anzeigen, wie er im Dokument erscheint, aber dem Benutzer gestatten, selektiv bestimmte Wörter zu übersetzen und anzuzeigen, die ihm nicht vertraut oder bekannt sind, indem er die Wörter zum Beispiel auf einem Touchscreen der Erfassungsvorrichtung antippt. Die Übersetzung kann durch die Erfassungsvorrichtung durchgeführt werden oder zur Übersetzung an ein anderes System gesendet werden.
  • Die Interaktion von Lesern mit einem Papierdokument wie beispielsweise einer Zeitung oder einem Buch wird von einem Sprachkompetenzsystem überwacht. Der Leser verfügt über eine Erfassungsvorrichtung, die mit dem Sprachkompetenzsystem kommuniziert. In einigen Beispielen beinhaltet das Sprachkompetenzsystem eine Anzeige und Lautsprecher sowie eine Datenbank, auf die die Erfassungsvorrichtung zugreifen kann. Wenn der Leser ein unbekanntes Wort in einem Artikel entdeckt, erfasst der Leser dieses mit der Erfassungsvorrichtung. Die Datenbank beinhaltet ein Fremdsprachenwörterbuch, einen Thesaurus und/oder Multimediadaten (z. B. Audio, Grafiken usw.). In einem Beispiel vergleicht das System den erfassten Text mit den Ressourcen in seiner Datenbank, um das erfasste Wort zu identifizieren. Nachdem das Wort identifiziert wurde, verwendet das System die Lautsprecher, um dem Leser das Wort und dessen Definition vorzutragen. In einigen Beispielen werden sowohl das Wort als auch dessen Definition auf der Anzeige angezeigt. Multimediadateien über Grammatikhinweise im Zusammenhang mit dem erfassten Wort können über die Anzeige und Lautsprecher ebenfalls abgespielt werden. Wenn zum Beispiel das Wort „sprechen” erfasst wird, kann das System das Wort „hablar” vortragen, einen kurzen Audioclip abspielen, der die korrekte spanische Aussprache angibt, und eine vollständige Liste der verschiedenen Konjugationen von „hablar” anzeigen. Auf diese Weise lernt der Schüler, das geschriebene Wort auszusprechen, über die Multimediapräsentation wird ihm die Schreibweise des Wortes visuell beigebracht, und er lernt, wie das Verb zu konjugieren ist. Darüber hinaus kann das System Grammatiktipps über die ordnungsgemäße Verwendung von „hablar” zusammen mit anderen gängigen Phrasen präsentieren.
  • In einigen Beispielen erfasst der Benutzer ein Wort oder eine kurze Wortverbindung aus einem wiedergegebenen Dokument in einer Sprache, die nicht die Muttersprache des Benutzers ist (oder in einer anderen Sprache, die der Benutzer hinreichend kennt). In einigen Beispielen verwaltet das System eine priorisierte Liste der „bevorzugten” Sprachen des Benutzers. Das System identifiziert das elektronische Gegenstück des wiedergegebenen Dokuments und bestimmt den Erfassungsort innerhalb des Dokuments. Das System identifiziert außerdem ein zweites elektronisches Gegenstück des Dokuments, das in eine der vom Benutzer bevorzugten Sprachen übersetzt wurde, und bestimmt die Stelle in dem übersetzten Dokument, die dem Erfassungsort in dem Originaldokument entspricht. Wenn die entsprechende Stelle nicht genau bekannt ist, identifiziert das System einen kleinen Bereich (z. B. einen Absatz), der die entsprechende Stelle des Erfassungsorts beinhaltet. Die entsprechende übersetzte Stelle wird dem Benutzer anschließend dargestellt. Dies stellt dem Benutzer eine genaue Übersetzung des jeweiligen Abschnitts an der erfassten Stelle zur Verfügung, einschließlich Slang oder anderer idiomatischer Verwendungen, die sich oftmals nur schwer auf einer Wort-für-Wort-Basis übersetzen lassen.
  • 17.7. Sammeln von Forschungsmaterialien
  • Ein Benutzer, der ein bestimmtes Thema untersucht, kann auf alle möglichen Arten von Materialien, sowohl gedruckt als auch auf dem Bildschirm, stoßen, die er möglicherweise als relevant für das Thema in einem persönlichen Archiv speichern möchte. Das System würde ermöglichen, dass dieser Prozess als Ergebnis eines Erfassen einer kurzen Wortverbindung aus einem beliebigen Stück Material automatisch erfolgt, und könnte außerdem eine Bibliografie anlegen, die zur Aufnahme in einer Veröffentlichung zum Thema geeignet ist.
  • 18. Kommerzielle Anwendungen
  • Natürlich können aus nahezu allen Prozessen, die in diesem Dokument beschrieben werden, kommerzielle Aktivitäten entstehen, aber an dieser Stelle konzentrieren wir uns auf einige wenige offensichtliche Einnahmequellen.
  • 18.1. Gebührenbasierte Suche und Indexierung
  • Bei herkömmliche Internet-Suchmaschinen ist das Durchsuchen von elektronischen Dokumenten in der Regel kostenlos, und sie berechnen Inhaltsanbietern auch keine Gebühr dafür, ihre Inhalte in dem Index aufzunehmen. In einigen Beispielen ermöglicht das System Rechnungen an Benutzer und/oder Zahlungen an Suchmaschinen und/oder Inhaltsanbieter in Verbindung mit dem Betrieb und der Verwendung des Systems.
  • In einigen Beispielen zahlen die Abonnenten der Dienste des Systems eine Gebühr für Suchen, die von Erfassungen aus Papierdokumenten stammen. Ein Börsenmakler kann zum Beispiel einen Artikel des Wall Street Journal über ein neues Produkt lesen, das von Unternehmen X angeboten wird. Durch Erfassen des Namens von Unternehmen X aus dem Papierdokument und Zustimmen, die nötigen Gebühren zu zahlen, verwendet der Börsenmakler das System, um spezielle oder proprietäre Datenbanken zu durchsuchen, um Premiuminformationen über das Unternehmen, wie etwa Analystenberichte, zu erhalten. Das System kann außerdem Vorkehrungen für eine Prioritätsindexierung der Dokumente schaffen, die am wahrscheinlichsten in Papierform gelesen werden, beispielsweise indem es sicherstellt, dass alle der Zeitungen, die an einem bestimmten Tag veröffentlicht werden, bereits indexiert und verfügbar sind, bevor sie in den Geschäften ausliegen.
  • Inhaltsanbieter können eine Gebühr dafür zahlen, dass sie mit bestimmten Begriffen in Suchabfragen verknüpft werden, die von Papierdokumenten übermittelt werden. In einem Beispiel wählt das System den bevorzugtesten Inhaltsanbieter beispielsweise basierend auf zusätzlichem Kontext über den Anbieter aus (wobei der Kontext in diesem Fall ist, dass der Inhaltsanbieter eine Gebühr gezahlt hat, um in der Liste der Ergebnisse weiter vorgerückt zu werden). Im Wesentlichen passt der Suchanbieter Papierdokument-Suchergebnisse basierend auf bereits existenten Vereinbarungen mit einem Inhaltsanbieter an. Siehe auch die Beschreibung von Schlüsselwörtern und Schlüsselwortverbindungen in Abschnitt 5.2.
  • Dort, wo der Zugriff auf bestimmte Inhalte auf bestimmte Personengruppen beschränkt sein soll (z. B. Kunden oder Mitarbeiter), können diese Inhalte durch eine Firewall geschützt sein und daher allgemein von Dritten nicht indexierbar sein. Der Inhaltsanbieter kann dennoch einen Index zu den geschützten Inhalten bereitstellen wollen. In solch einem Fall kann der Inhaltsanbieter einen Dienstleistungsanbieter bezahlen, um Systemabonnenten den Index des Inhaltsanbieters zur Verfügung zu stellen. Eine Anwaltskanzlei kann beispielsweise alle der Dokumente eines Kunden indexieren. Die Dokumente sind hinter der Firewall der Anwaltskanzlei gespeichert. Jedoch möchte die Anwaltskanzlei, dass ihre Angestellten und der Kunde über die Erfassungsvorrichtung Zugang zu den Dokumenten haben und stellt den Index (oder einen Verweis auf den Index) dem Dienstleistungsanbieter zur Verfügung, welcher wiederum den Index der Anwaltskanzlei durchsucht, wenn Angestellte oder Kunden der Anwaltskanzlei von einer Erfassungsvorrichtung erfasste Suchbegriffe einreichen. Die Anwaltskanzlei stellt dem System des Dienstleistungsanbieters eine Liste von Angestellten und/oder Kunden zur Verfügung, um diese Funktion zu ermöglichen, oder das System kann Zugriffsrechte durch Abfragen der Anwaltskanzlei vor Durchsuchen des Index der Anwaltskanzlei verifizieren. Es ist zu beachten, dass der Index, der von der Anwaltskanzlei bereitgestellt wird, in dem vorhergehenden Beispiel nur der der Dokumente des Kunden ist und nicht ein Index aller Dokumente in der Anwaltskanzlei. Daher kann der Dienstleistungsanbieter den Kunden der Anwaltskanzlei ausschließlich Zugang zu den Dokumenten gewähren, die die Anwaltskanzlei für den Kunden indexiert hat.
  • Es gibt mindestens zwei separate Einnahmequellen, die sich aus Suchen, die von Papierdokumenten stammen, ergeben können: eine Einnahmequelle kann sich aus der Suchfunktion und die andere aus der Inhaltsbereitstellungsfunktion ergeben. Die Suchfunktionseinnahmen können aus bezahlten Abonnements von Benutzern generiert werden, können aber auch basierend auf einer Gebühr pro Suche generiert werden. Die Einnahmen der Inhaltsauslieferung können mit dem Inhaltsanbieter oder dem Urheberrechtsinhaber geteilt werden (der Dienstanbieter kann für jede Auslieferung einen Prozentsatz des Verkaufs oder eine feste Gebühr, wie z. B. einen Kleinstbetrag verlangen), können jedoch auch durch ein „Überweisungsmodell” erzeugt werden, in dem das System eine Gebühr oder einen Prozentsatz für jeden Artikel erhält, den der Abonnent aus dem Online-Katalog bestellt und den das System geliefert bzw. zu dem das System beigetragen hat, unabhängig davon, ob der Dienstanbieter die Transaktion vermittelt. In einigen Beispielen erhält der Systemdienstleistungsanbieter für alle Käufe, die der Abonnent getätigt hat. Einnahmen von dem Inhaltsanbieter, entweder für einen gewissen Zeitraum oder zu einem beliebigen späteren Zeitpunkt, wenn ein Kauf eines identifizierten Produkts erfolgt.
  • 18.2. Kataloge
  • Verbraucher können die Erfassungsvorrichtung verwenden, um Käufe über papierbasierte Kataloge zu tätigen. Der Abonnent erfasst Informationen aus dem Katalog, die den Katalog identifizieren. Diese Informationen sind Text aus dem Katalog, ein Barcode oder andere Identifikatoren des Katalogs. Der Abonnent erfasst Informationen, die die Produkte identifizieren, die er erwerben möchte. Das Katalogversandetikett kann eine Kundenidentifikationsnummer enthalten, die den Kunden für den Kataloganbieter identifiziert. Falls dem so ist, kann der Abonnent auch seine Kundenidentifikationsnummer erfassen. Das System agiert als ein Vermittler zwischen dem Abonnenten und dem Anbieter, um die Katalogbestellung durch Bereitstellen der Auswahl des Kunden und der Kundenidentifikationsnummer für den Anbieter zu erleichtern.
  • 18.3. Gutscheine
  • Ein Verbraucher erfasst papierbasierte Gutscheine und speichert eine elektronische Kopie des jeweiligen Gutscheins auf der Erfassungsvorrichtung oder einer entfernen Vorrichtung wie einem Computer, um sie später abzurufen und zu verwenden. Ein Vorteil des elektronischen Speicherns liegt darin, dass der Verbraucher von der Last befreit wird, Papiergutscheine mit sich zu führen. Ein weiterer Vorteil liegt darin, dass elektronische Gutscheine von jedem beliebigen Ort aus abgerufen werden können. In einigen Beispielen kann das System Gutscheinverfallsdaten verfolgen, den Verbraucher über Gutscheine, die demnächst verfallen benachrichtigen und/oder verfallene Gutscheine aus dem Speicher löschen. Einen Vorteil für den Aussteller der Gutscheine bietet die Möglichkeit, mehr Feedback darüber zu erhalten, wer die Gutscheine verwendet, und wann und wo diese erfasst und verwendet werden.
  • 18.3. Werbeportal
  • Über ein Werbeportal können Inserenten Markup-Ebenen erstellen und verwalten, die mit verschiedenen Werbeanzeigen verknüpft sind. In einem Beispiel kann ein Werbeportal eine Weboberfläche bereitstellen, durch die ein Werbekunde eine oder mehrere Werbekampagnen und verbundene Informationen, wie etwa einen Namen, Markup-Informationen im Zusammenhang mit der Kampagne, Informationen darüber, wann Werbeanzeigen in der Kampagne angezeigt werden sollten und wem die Werbeanzeigen angezeigt werden sollten, Informationen über die beworbenen Produkte oder Dienstleistungen und/oder beworbene Produkte, Tags, Schlüsselwörter und/oder Schlüsselphrasen im Zusammenhang mit der Kampagne, Text oder andere Medien im Zusammenhang mit der Kampagne und so weiter, eintragen kann. Ein Werbeportal kann außerdem eine Oberfläche bereitstellen, durch die ein Werbekunde Bedienelemente angeben kann, die in der dazugehörigen Markup-Ebene erscheinen sollen. Zum Beispiel kann ein Werbekunde einen bestimmten Bereich innerhalb eines Werbebilds und/oder einen bestimmten Satz oder ein Wort innerhalb von Werbetext angeben kann, der mit einer Bedienungsüberlagerung angezeigt werden soll, wenn die Werbeanzeige erfasst und auf einer Erfassungsvorrichtung angezeigt wird. In einigen Beispielen kann es ein Werbeportal Werbekunden auch ermöglichen, eine Ausführungsspezifikation bereitzustellen, die eine oder mehrere bevorzugte Anbieter und/oder einen „Informationen-zum-Kauf”-Vorgang beinhalten kann. Ein Werbeportal kann zudem eine Oberfläche zur Verfügung stellen, mit der ein Werbetreibender die Aspekte der Erfahrung eines Kunden steuern kann, darunter auch, ob und/oder wann Sonderangebote, verschiedene Arten von Medien, eine Markup-Schicht, die auf die Interessen eines bestimmten Benutzers zugeschnitten ist, Bedürfnisse, geografischer Standorte, gesprochene Sprache usw. angeboten werden sollen. Zum Beispiel kann ein Werbeportal eine Übersetzung einer Werbeanzeige aus der Sprache der Werbeanzeige in eine Sprache, die von einem Benutzer der Erfassungsvorrichtung, der die Werbeanzeige erfasst, bevorzugt wird, bereitstellen. In einigen Beispielen kann ein Werbeportal Dienstleistungen bereitstellen, die von Verbrauchern genutzt werden können. Zum Beispiel kann ein Werbeportal Werbekunden oder anderen Dritten ermöglichen, Bewertungen und/oder Kommentare im Zusammenhang mit Werbeinteraktivitätsebenen, Anbietern, Werbekunden, Produkten, Dienstleistungen und dergleichen zu posten. In anderen Beispielen kann ein Werbeportal Benutzern ermöglichen, Kommentare im Zusammenhang mit wiedergegebenen oder gedruckten Werbeanzeigen zu posten, die Links, Bilder, Querverweise usw. beinhalten.
  • 19. Allgemeine Anwendungen
  • 19.1. Formulare
  • Das System kann dazu verwendet werden, ein elektronisches Dokument, das einem Papierformular entspricht, automatisch auszufüllen. Ein Benutzer erfasst ein wenig Text oder einen Barcode, der das Papierformular eindeutig identifiziert. Die Erfassungsvorrichtung übermittelt die Identität des Formulars und Informationen, die den Benutzer identifizieren, an einen nahegelegenen Computer. Der nahegelegene Computer verfügt über eine Internetverbindung. Der nahegelegene Computer kann auf eine erste Datenbank von Formularen und eine zweite Datenbank. die über Informationen über den Benutzer der Erfassungsvorrichtung verfügt, (wie etwa eine Informationsdatenbank über Abonnenten des Dienstleistungsanbieters) zugreifen. Der nahegelegene Computer greift auf eine elektronische Version des Papierformulars auf der ersten Datenbank zu und füllt die Felder des Formulars basierend auf den Informationen über den Benutzer aus, die aus der zweiten Datenbank abgerufen werden. Der nahegelegene Computer schickt das fertige Formular dann per E-Mail an den bestimmungsgemäßen Empfänger. Alternativ dazu könnte der Computer das fertige Formular auf einem nahegelegenen Drucker ausdrucken.
  • Anstatt auf eine externe Datenbank zuzugreifen, verfügt das System in einigen Beispielen über eine Erfassungsvorrichtung, die die Benutzerinformationen z. B. in einem Identitätsmodul, auf einer SIM-Karte oder einer Sicherheitskarte enthält. Die Erfassungsvorrichtung stellt dem nahegelegenen PC Informationen bereit, die das Formular identifizieren. Der nahegelegene PC greift auf das elektronische Formular zu und fragt die Erfassungsvorrichtung nach beliebigen Informationen ab, die notwendig sind, um das Formular auszufüllen.
  • 19.2. Visitenkarten
  • Das System kann verwendet werden, um elektronische Adressbücher oder andere Kontaktlisten anhand von Papierdokumenten automatisch auszufüllen. Bei Erhalt einer Visitenkarte einer neuen Bekanntschaft kann ein Benutzer mit seinem Mobiltelefon beispielsweise ein Bild der Karte aufnehmen. Das System findet eine elektronische Kopie der Karte, die verwendet werden kann, um das Onboard-Adressbuch des Mobiltelefon mit den Kontaktdaten der neuen Bekannten zu aktualisieren. Die elektronische Kopie kann mehr Informationen über die neue Bekanntschaft enthalten, als auf eine Visitenkarte passen. Zudem kann das eingebaute Adressbuch auch eine Verknüpfung zu der elektronischen Kopie speichern, sodass alle Änderungen an der elektronischen Kopie automatisch in dem Adressbuch des Mobiltelefons aktualisiert werden. In diesem Beispiel beinhaltet die Visitenkarte optional ein Symbol oder einen Text, der anzeigt, das eine elektronische Kopie existiert. Wenn keine elektronische Kopie existiert, kann das Mobiltelefon OCR und Kenntnisse über Visitenkarten-Standardformate verwenden, um für die neue Bekanntschaft einen Eintrag in dem Adressbuch auszufüllen. Symbole können auch beim Prozess der direkten Extraktion von Informationen aus dem Bild helfen. Ein Telefonsymbol neben der Telefonnummer auf einer Visitenkarte kann beispielsweise erkannt werden, um den Ort der Telefonnummer zu bestimmen.
  • 19.3. Korrekturlesen/Bearbeiten
  • Das System kann den Korrekturlese- und Bearbeitungsprozess verbessern. Eine Möglichkeit, wie das System den Bearbeitungsprozess verbessern kann, ist durch Verknüpfen der Interaktionen des Editors mit einem Papierdokument mit dessen elektronischem Gegenstück. Während ein Editor ein Papierdokument liest und verschiedene Teile des Dokuments erfasst, führt das System entsprechende Anmerkungen oder Bearbeitungen an einem elektronischen Gegenstück des Papierdokuments aus. Wenn der Redakteur beispielsweise einen Abschnitt des Textes erfasst und die „neuer Absatz”-Steuerungsgeste mit der Erfassungsvorrichtung macht, würde ein Computer, der mit der Erfassungsvorrichtung verbunden ist, einen „neuer Absatz”-Umbruch an der Stelle des erfassten Textes in die elektronische Kopie des Dokuments einfügen.
  • 19.4. Sprachanmerkungen
  • Ein Benutzer kann ein Dokument mit Sprachanmerkungen versehen, indem er einen Teil des Textes aus dem Dokument erfasst und dann eine Sprachaufzeichnung anfertigt, die mit dem erfassten Text verknüpft wird. In einigen Beispielen verfügt die Erfassungsvorrichtung über ein Mikrofon, um verbale Anmerkungen des Benutzers aufzuzeichnen. Nachdem die verbalen Anmerkungen aufgezeichnet sind, identifiziert das System das Dokument, aus welchem der Text erfasst wurde, und lokalisiert den erfassten Text innerhalb des Dokuments und fügt die Sprachanmerkung an dieser Stelle an. In einigen Beispielen wandelt das System die Sprache in Text um und fügt die Anmerkung als einen Textkommentar an.
  • In einigen Beispielen speichert das System Anmerkungen getrennt vom Dokument, sodass das Dokument nur einen Verweis auf die Anmerkungen enthält. Die Anmerkungen werden für einen bestimmten Abonnenten oder Benutzergruppen dann zu einer Anmerkungs-Markup-Ebene des Dokuments.
  • In einigen Beispielen geht das System für jede Erfassung und zugehörige Anmerkung wie folgt vor: es identifiziert das Dokument, öffnet es mithilfe eines Softwarepakets, scrollt zur Position der Erfassung und spielt die Sprachanmerkung ab. Der Benutzer kann anschließend mit einem Dokument interagieren, während er auf Sprachanmerkungen, vorgeschlagene Änderungen oder andere Kommentare Bezug nimmt, die entweder von ihm selbst oder von jemand anderem aufgezeichnet wurden.
  • 19.5. Hilfe im Text
  • Das beschriebene System kann dazu verwendet werden, Papierdokumente mit elektronischen Hilfemenüs zu erweitern. In einigen Beispielen enthält eine Markup-Ebene, die mit einem Papierdokument verknüpft ist, Hilfemenü-Informationen für das Dokument. Wenn ein Benutzer zum Beispiel Text aus einem bestimmten Abschnitt des Dokuments erfasst, überprüft das System das mit dem Dokument assoziierte Markup und stellt dem Benutzer ein Hilfemenü dar, wie etwa auf einer Anzeige der Erfassungsvorrichtung.
  • 19.6. Verwendung mit Anzeigen
  • In einigen Fällen kann es von Vorteil sein, Informationen von einem Fernseher, einem Computer-Monitor oder anderen ähnlichen Anzeigen erfassen zu können. In einigen Beispielen wird die Erfassungsvorrichtung verwendet, um Informationen von Computermonitoren und Fernsehern zu erfassen. In einigen Beispielen weist die Erfassungsvorrichtung einen Beleuchtungssensor auf, der dafür optimiert ist, mit herkömmlichen Kathodenstrahlröhren(CRT)-Anzeigetechniken wie etwa Rastern, Austasten usw. zu funktionieren.
  • Eine Spracherfassungsvorrichtung, die so funktioniert, dass sie Ton von dem Benutzer aufnimmt, der einen Text aus einem Dokument vorliest, funktioniert normalerweise unabhängig davon, ob das Dokument in Papierform vorliegt oder auf einer Anzeige oder einem anderen Medium angezeigt wird.
  • 19.6.1. Öffentliche Kioske und dynamische Session-IDs
  • Eine Verwendung für die direkte Erfassung von Anzeigen ist die Verknüpfung von Vorrichtungen wie in Abschnitt 15.6 beschrieben. In einigen Beispielen zeigt ein öffentliches Internet-Terminal zum Beispiel eine dynamische Sitzungs-ID auf seinem Monitor an. Das Terminal ist mit einem Kommunikationsnetzwerk wie etwa dem Internet oder einem firmeneigenen Intranet verbunden. Die Sitzungs-ID ändert sich periodisch, jedoch mindestens immer dann, wenn das Terminal verwendet wird, sodass jedem Benutzer eine neue Sitzungs-ID angezeigt wird. Um das Terminal zu verwenden, erfasst der Abonnent die auf dem Terminal angezeigte Sitzungs-ID; durch Erfassen der Sitzungs-ID teilt der Benutzer dem System mit, dass er wünscht, das Terminal für die Bereitstellung von Inhalten, die aus Erfassungen von gedruckten Dokumenten oder vom Terminalbildschirm selbst resultieren, vorübergehend mit seiner Erfassungsvorrichtung zu verbinden. Die Erfassungsvorrichtung kann die Sitzungs-ID und andere Informationen, die die Erfassungsvorrichtung authentifizieren (wie etwa eine Seriennummer, Kontonummer oder andere identifizierende Informationen) direkt an das System übermitteln. Die Erfassungsvorrichtung kann mit dem System zum Beispiel direkt kommunizieren (wobei „direkt” bedeutet, ohne die Nachricht über das Terminal zu vermitteln), durch Senden der Sitzungsbeginn-Nachricht über ein Mobilfunknetz, auf das die Erfassungsvorrichtung zugreifen kann. Alternativ dazu kann die Erfassungsvorrichtung eine Drahtlosverbindung mit dem Terminal herstellen und die Kommunikationsverbindung des Terminals nutzen, indem sie die Sitzungsbeginn-Informationen an das Terminal überträgt (eventuell über Nahbereichsfunk wie etwa BluetoothTM usw.); als Antwort sendet das Terminal die Sitzungsbeginn-Informationen über eine Internetverbindung an das System.
  • Das System kann verhindern, dass andere eine Vorrichtung, die bereits mit einer Erfassungsvorrichtung verknüpft ist, während des Zeitraums (oder der Session) verwenden, in dem die Vorrichtung mit der Erfassungsvorrichtung verknüpft ist. Dieses Merkmal ist nützlich, um zu verhindern, dass andere ein öffentliches Internetterminal nutzen, bevor die Sitzung einer anderen Person zu Ende ist. Als ein Beispiel für dieses Konzept, das mit der Verwendung eines Computers in einem Internetcafé zusammenhängt, erfasst der Benutzer einen Barcode auf einem Monitor eines PCs, den er verwenden möchte; als Reaktion sendet das System eine Sitzungs-ID an den Monitor, der diese anzeigt; der Benutzer initiiert die Sitzung durch Erfassen der Sitzungs-ID von dem Monitor (oder durch Eingeben über ein Tastenfeld oder Touchscreen oder Mikrofon auf der Erfassungsvorrichtung); und das System verknüpft in seinen Datenbanken die Sitzungs-ID mit der Seriennummer (oder einer anderen Kennung, die die Erfassungsvorrichtung des Benutzers eindeutig identifiziert) seiner Erfassungsvorrichtung, sodass eine andere Erfassungsvorrichtung die Sitzungs-ID nicht erfassen kann und den Monitor während der Sitzung nicht verwenden kann. Die Erfassungsvorrichtung ist in Kommunikation (über eine Drahtlosverbindung wie BluetoothTM, eine festverdrahtete Verbindung wie etwa eine Docking-Station usw.) mit einem PC, der mit dem Monitor verbunden ist, oder ist über andere Mittel, wie etwa ein Mobiltelefon usw., in direkter Kommunikation (d. h. ohne über den PC zu gehen) mit dem System.
  • 19.7. Social Networking oder Kollaborationsumgebung
  • Das System kann eine Social-Networking- oder Kollaborationsumgebung, wie etwa ein Wiki, gelegentlich auch als „Wiqi” bezeichnet, bereitstellen, wo Benutzer Seiten für Wörter, Wortverbindungen, Sätze usw. erstellen können, auf denen Benutzer relevante Informationen posten können. Ein Benutzer kann beispielsweise eine Seite für berühmte Zitate aus einem Buch oder Film erstellen, auf der Benutzer Bilder, Audio, Video usw. des verwendeten Zitats oder einen Index, der Informationen darüber enthält, wo das Zitat verwendet oder zitiert wurde, posten können. In einigen Beispielen kann das System diese Seiten automatisch aktualisieren, wenn ein Benutzer den betreffenden Text über eine Erfassungsvorrichtung erfasst. Als ein weiteres Beispiel kann die Erfassungsvorrichtung ein erfasstes Bild mit Links zu einer Wiki-Seite entsprechend dem erfassten Text überlagern. Eine Wiki-Seite für ein bestimmtes Wort oder eine Wortverbindung kann für alle Benutzer zur Verfügung stehen oder kann für eine ausgewählte Gruppe von Benutzern erstellt werden, wie etwa eine Familie oder eine Gruppe von Freunden. Neben anderen Vorteilen ermöglicht das System, in einigen Beispielen, somit die Verwendung von wiedergegebenen Dokumenten als Plattformen in eine digitale Umgebung mit gemeinschaftlichem Informationsaustausch.
  • 19.8. Concierge-Dienst
  • Ein Software-Concierge-System oder -Dienst bietet menschliche Unterstützung (z. B. einen virtuellen Concierge) an. Diese Person erhält Informationen zu Problemen, die bei einem Benutzer während der Verwendung einer Anwendung auftreten, und kann Maßnahmen ergreifen, um Lösungen anzubieten oder die Probleme zu beheben. Der menschliche Assistent kann Probleme beheben, die für automatisierte Prozesse schwer zu beheben sind, und kann dem Verfasser der Anwendung Feedback zu Problembereichen beim Verwenden der Software geben. Zum Beispiel kann ein Benutzer, der nach einem Dokument sucht, Probleme beim Auffinden des Dokuments haben, aber der menschliche Assistent kann die Schlüsselwörter begutachten, die der Benutzer zur Suche verwendet, kann eine Vorstellung davon haben, was der Benutzer zu suchen versucht, und kann bessere Schlüsselwörter in die Suchabfrage des Benutzers einbringen, sodass der Benutzer relevantere Suchergebnisse erhält. Als ein weiteres Beispiel, wenn das System nicht in der Lage ist, Text innerhalb eines erfassten Bildes zu identifizieren oder zu erkennen oder eine entsprechende elektronische Version eines wiedergegebenen Dokuments zu identifizieren, können diese Aufgaben zur Unterstützung an ein Software-Concierge-System gesendet werden. Desweiteren kann ein Benutzer das Concierge-System verwenden, um Produkte zu bestellen, die durch die Erfassungsvorrichtung identifiziert wurden. Dies spart dem Benutzer Zeit und verbessert die Benutzerzufriedenheit mit der und gesamte Meinung über die Anwendung. Somit stellt das Software-Concierge-System eine neue Ebene von Softwareleistung bereit, die Benutzererfahrungen verbessert und Wege ermöglicht, Software zu verwenden, die Softwareentwickler zuvor nicht implementieren konnten.
  • TEIL IV – SYSTEMDETAILS
  • Wie hierin beschrieben überwacht das System in einigen Beispielen die Eingabe, die von einem Benutzer empfangen wird, und lokalisiert die mit der empfangenen Eingabe verknüpften Inhalte und zeigt diese an – automatisch. Das System empfängt die Eingabe während der Erstellung. Bearbeitung oder Erfassung von Text, neben anderen Verfahren, und lokalisiert Inhalte von statischen Inhaltsquellen, die Inhalte bereitstellen, die vor dem Empfang der Eingabe erstellt wurden, und/oder von dynamischen Inhaltsquellen, die Inhalte bereitstellen, die während des Empfangs der Eingabe oder danach erstellt wurden, z. B. Inhalte in sozialen Netzwerken.
  • Automatische Erfassung und Anzeige von relevanten verknüpften Informationen
  • Software-Anwendungen wie beispielsweise Wortverarbeitungsanwendungen können zum Erstellen, Bearbeiten und/oder Anschauen von Informationen in Textform verwendet werden. Dementsprechend kann es in manchen Fällen wünschenswert sein, Informationen bereitzustellen, die für den Text relevant sind. Wie hierin beschrieben, stellt das System automatisch Informationen bereit, die die erhaltenen und/oder erfassten Informationen ergänzen, wie beispielsweise Informationen, die in einem Texteditor erhalten oder anderweitig in das System eingegeben oder eingesprochen werden.
  • Die Erfinder erkennen an, dass es während des Schreibens, Bearbeiten, Überprüfen und/oder Erfassen von Material durch eine Person hilfreich wäre, automatisch Informationen bereitzustellen, die die Person möglicherweise als nützlich für die Durchführung der Aufgabe, die sie erledigen soll, ansehen würde, wie etwa Informationen, die für das Thema des Materials oder der Aufgabe relevant sind. Die Erfinder schätzen, dass dies insbesondere dann hilfreich wäre, wenn die Person nicht den herkömmlichen Prozess der Festlegung einer Abfrage, Auswahl einer geeigneten Informationseinheit für die Suche und der ausdrücklichen Anforderung der Durchführung einer Suche in der Informationseinheit mithilfe der Abfrage durchlaufen muss.
  • Ein Hardware-, Firmware- und/oder Software-System oder ein System zur Bereitstellung relevanter Informationen, die andere Informationen ergänzen, wird beschrieben. Das System stellt automatisch relevante Informationen in Reaktion auf von einem Benutzer bereitgestellten Text bereit, der vom System überwacht werden kann, wie beispielsweise vom Benutzer eingegebener Text. Das System überwacht den vom Benutzer bereitgestellten Text und wählt automatisch einen Teil des Textes aus. Das System erzeugt auf Basis des ausgewählten Teils des Textes eine Abfrage, wählt einen Index aus, der unter Verwendung der Abfrage durchsucht werden soll, überträgt die Abfrage an den ausgewählten Index und empfängt Suchergebnisse, die für die Abfrage relevant sind. Neben anderen Vorteilen zeigt das System dann mindestens eines der Suchergebnisse an, sodass der Benutzer die Informationen einsehen kann, die für den vom Benutzer bereitgestellten Text relevant sind.
  • Sobald der Benutzer weiteren Text bereitstellt, fährt das System mit der Überwachung des weiteren Textes fort und wiederholt die Schritte zum Auswählen eines Textteils, Erstellen einer Abfrage basierend auf dem ausgewählten Teil, Auswählen eines Indexes, Übertragen der Abfrage an den Index, Empfangen von Suchergebnissen und Anzeigen eines Suchergebnisses. Auf diese Weise stellt das System automatisch, kontinuierlich und wiederholt Inhalte bereit, wie etwa ergänzende Informationen, die für den Text relevant sind, den der Benutzer bereitstellt und/oder erfasst.
  • Somit stellt das System dem Benutzer automatisch Inhalte bereit, die mit dem Thema des bereitgestellten Textes verknüpft sind und möglicherweise für diesen relevant sind, wie zum Beispiel ein Thema, über das der Benutzer schreibt bzw. das der Benutzer bearbeitet und/oder überprüft. Das System führt dies aus, ohne dass der Benutzer eine Abfrage erstellen, eine geeignete Informationseinheit für die Suche festlegen oder ausdrücklich anfordern muss, dass eine Suche durchgeführt wird, wobei jeder dieser Schritte andernfalls eine Aktion vom Benutzer erfordern und so möglicherweise den Schreib-, Bearbeitungs- und/oder Überprüfungsprozess des Benutzers behindern würde. Dementsprechend können das System und die Techniken, die hierin beschrieben werden, die Prozesse des Schreibens, Bearbeitens und/oder Überprüfens von Informationen für den Benutzer verbessern sowie zusätzliche Vorteile bringen.
  • Bereitstellen relevanter Informationen
  • 4 ist ein Anzeigediagramm, das eine beispielhafte Anzeige 400 zeigt, die von einem System im Zusammenhang mit der Anzeige von empfangenem Text und der Bereitstellung von für den empfangenen Text relevanten Informationen präsentiert wird. Wie dargestellt, wird die Anzeige 400 von einer Wortverarbeitungsanwendung einer Computervorrichtung bereitgestellt und von der Informationsausgabevorrichtung der Computervorrichtung (zum Beispiel der Anzeigevorrichtung der Computervorrichtung) angezeigt. Die Wortverarbeitungsanwendung kann das System beinhalten (die Wortverarbeitungsanwendung bindet das System zum Beispiel in einen oder mehrere ihrer Prozesse ein), das System kann ein von der Wortverarbeitungsanwendung unabhängiges System sein (ein oder mehrere von der Wortverarbeitungsanwendung unabhängige Prozesse beinhalten das System) oder es wird eine Kombination aus diesen oder anderen Konfigurationen verwendet. Andere Anwendungen einer Computervorrichtung, wie etwa eine Browser-Anwendung, eine E-Mail-Anwendung, eine Tabellenkalkulationsanwendung, eine Datenbankanwendung, eine Präsentationsanwendung, eine Softwareentwicklungsanwendung und/oder andere Anwendungen, können die Anzeige 400 darstellen. Alternativ oder zusätzlich kann ein Betriebssystem einer Computervorrichtung die Anzeige 400 präsentieren. Das System kann mit einer beliebigen Sammlung von Daten (hierin als Dokument bezeichnet) verwendet werden, einschließlich der Daten, die in wiedergegebenen Dokumenten präsentiert und von einer Erfassungsvorrichtung erfasst werden, die das System ausführt.
  • Die Anzeige 400 beinhaltet einen Textanzeigebereich 405 und einen Informationsanzeigebereich 410. Im Textanzeigebereich 405 wird Text angezeigt, der von einem Benutzer bereitgestellt wird, wie beispielsweise Text, der von einem Benutzer über eine Informationseingabevorrichtung wie eine Tastatur bereitgestellt wird. Der Benutzer kann Informationen über andere Informationseingabevorrichtungen bereitstellen, wie beispielsweise über ein Mikrofon, das gesprochene Informationen empfängt, die in Text umgewandelt werden, eine Erfassungskomponente, die Text aus einem wiedergegebenen Dokument erfasst, und andere hierin beschriebene Eingabegeräte. Der Benutzer kann Text auch auf andere Arten bereitstellen, z. B. durch Einfügen von Text in dem Textanzeigebereich 405. In einigen Ausführungsformen kann der Benutzer Text bereitstellen, indem er ein binäres Objekt mit verknüpftem Text, wie zum Beispiel ein Bild mit zugehörigem Text (z. B. eine Bildunterschrift, einen Titel, eine Beschreibung usw.) in dem Textanzeigebereich 405 einfügt. In diesem Beispiel betrachtet das System den mit dem binären Objekt verknüpften Text als den bereitgestellten Text.
  • Im Informationsanzeigebereich 410 werden mehrere Informationselemente angezeigt, die das System als relevant für den bereitgestellten Text erachtet, der im Textanzeigebereich 405 angezeigt wird. Wie dargestellt, werden im Informationsanzeigebereich 410 sechs verschiedene Informationselemente 415 (einzeln dargestellt als die Elemente 415a–f) angezeigt. Der Informationsanzeigebereich 410 beinhaltet auch ein Menüelement „Aktion” 430, über das der Benutzer verschiedene vom System durchzuführende Aktionen festlegen kann (z. B. Anzeigen eines Zeitstrahls, Analysieren von Text und andere Aktionen), und ein Menüelement „Optionen” 435, über das der Benutzer Optionen für das System festlegen kann (z. B. zu durchsuchende Indizes, Anzahl der anzuzeigenden Elemente und andere Optionen).
  • Die Routine, durch die das System Text empfängt und Informationen bereitstellt, die für den bereitgestellten Text relevant sind, ist in 5 dargestellt, die unter Bezugnahme auf das Beispiel in 4 beschrieben wird. In einigen Beispielen führt das System die Routine 500 automatisch kontinuierlich und wiederholt aus, während der Benutzer Text bereitstellt. Unter Bezugnahme auf 4 beinhaltet der Anzeigebereich 405 einen ersten Satz 480, den der Benutzer bereitgestellt hat.
  • In Schritt 510 überwacht das System den empfangenen Text, während der Benutzer den Text bereitstellt. Unter der Annahme, dass der Benutzer den ersten Satz zum Beispiel mithilfe einer Tastatur eingegeben hat, überwacht das System den Text, während der Benutzer den Text eingibt. Das System kann den Text per Hooking von Betriebssystem- oder Anwendungsereignissen unter Verwendung eines Gerätetreibers für die zur Bereitstellung des Textes verwendete Eingabevorrichtung, einer Spracherkennungsmaschine, einer Bildschirm-OCR-Funktion, mit der der Text erfasst wird, und/oder anderer Techniken überwachen. Das System kann den überwachten Text auf verschiedene Arten speichern, zum Beispiel indem es eine sekundäre Kopie der eingegebenen Zeichen in einem Pufferspeicher erstellt, Datenstrukturen mit Teilen des Textes füllt und/oder andere Techniken verwendet. Das System kann den gespeicherten Text und/oder die gespeicherten Datenstrukturen aktualisieren, während der Benutzer Text hinzufügt, den Text bearbeitet und/oder den Text löscht.
  • In Schritt 515 wählt das System einen Teil des überwachten Textes aus, um eine Abfrage zu erstellen. Das System kann verschiedene Techniken verwenden, um den Teil des überwachten Textes auszuwählen. So kann das System beispielsweise bestimmen, dass der Benutzer einen Satz oder Abschnitt beendet hat, und dann verschiedene Komponenten des Satzes oder Abschnitts identifizieren, wie etwa Subjekte, Prädikate, Objekte und/oder andere Komponenten. Das System kann dann eine oder mehrere Komponenten des Satzes oder Abschnitts, wie beispielsweise ein Substantiv, eine Nominalphrase, einen Eigennamen, eine Eigennamenphrase, ein Verb, ein Adverb und/oder andere Komponenten, auswählen. In einem weiteren Beispiel kann das System die erste Instanz eines Substantivs im bereitgestellten Text auswählen. Das System kann Techniken zur Zusammenfassung natürlicher Sprache, Synonymabgleichstechniken und/oder andere Techniken verwenden, um einen Teil des überwachten Textes zu identifizieren und auszuwählen. Wie in 4 durch die gestrichelten Linien, die durch Referenzzeichen 450 angegeben sind, dargestellt, hat das System die Nominalphrase „Comic-Buch” in Schritt 515 ausgewählt.
  • In Schritt 520 erstellt das System eine Abfrage basierend auf dem ausgewählten Text. Das System kann zum Beispiel den ausgewählten Text „Comic-Buch” verwenden, um die Abfrage „comic + buch” zu erstellen. Das System kann weitere Informationen voranstellen oder an die Abfrage anhängen. In Schritt 225 wählt das System mithilfe der Abfrage einen zu durchsuchenden Index aus. Das System kann unter mehreren Indizes auswählen, die das System gruppiert oder kategorisiert hat. Das System kann beispielsweise einen allgemeinen Index für die Suche auswählen (z. B. einen von Google, Yahoo, Bing usw. bereitgestellten Index). In einem anderen Beispiel kann das System einen Referenzindex für die Suche auswählen (z. B. einen von Wikipedia, anderen Enzyklopädie-Webseiten usw. bereitgestellten Index). In einem weiteren Beispiel kann das System einen Index eines kommerziellen Anbieters von Waren oder Dienstleistungen auswählen (z. B. einen von Google Products, Amazon, PriceGrabber usw. bereitgestellten Index). In einem weiteren Beispiel kann das System einen Index von Anbietern von Echtzeitinhalten auswählen (z. B. einen von Facebook, Twitter, Blogger, Flickr, Youtube, Vimeo und anderen Seiten mit benutzergenerierten Inhalten bereitgestellten Index). Zusätzlich oder alternativ kann das System einen Index aus anderen Gruppen oder Kategorien von Indizes auswählen. Das System kann den Index basierend auf dem ausgewählten Text und/oder basierend auf zusätzlichen Informationen, wie beispielsweise nicht ausgewähltem Text oder mit einem Dokument verknüpften Metadaten (z. B. Dokumententitel, Inhaber, Zusammenfassung usw.), und/oder anderen zusätzlichen Informationen (z. B. Rolle des Benutzers, Tageszeit, Jahreszeit, geografischer Standort des Benutzers, mit dem Benutzer verknüpfte historische Daten usw.) auswählen. In einigen Beispielen wählt das System mehrere Indizes für die Suche mithilfe der Abfrage aus.
  • In Schritt 530 übermittelt das System die Abfrage an den ausgewählten Index (d. h. an das entsprechende Computersystem oder die mehreren entsprechenden Computersysteme, das oder die auszuführende Abfragen von dem ausgewählten Index empfangen). In Schritt 535 empfängt das System ein oder mehrere Suchergebnisse von dem Index, die für die Abfrage relevant sind. In Schritt 540 zeigt das System ein Suchergebnis an. Unter erneuter Bezugnahme auf 4 zeigt das System einen Teil des Suchergebnisses für die Abfrage „comic + buch” als Element 415a im Informationsanzeigebereich 410 an. Das Element 415a beinhaltet einen Titelbereich 420a, in dem Informationen zum Titel des Ergebnisses angegeben sind, und einen Inhaltsbereich 425a, in dem mit dem Ergebnis verknüpfter Inhalt angezeigt wird. Wie dargestellt wird in dem Titelbereich 420a ein Titel einer Wikipedia-Webseite zu Comic-Büchern angezeigt. In dem Inhaltsbereich 425a wird ein Teil des Inhalts der Wikipedia-Webseite zu Comic-Büchern angezeigt. Obwohl dies nicht speziell in 4 dargestellt ist, verknüpft das System den Titelbereich 420a oder den Inhaltsbereich 425 oder beide Bereiche mit der aktuellen Wikipedia-Webseite, die die Quelle der angezeigten Informationen ist, damit der Benutzer leicht zur aktuellen Wikipedia-Webseite navigieren kann.
  • Wie dargestellt zeigt das System die Elemente 415 im Informationsanzeigebereich 410 in umgekehrter Reihenfolge zur entsprechenden Abfrageerstellungszeit an, wobei das zuletzt erstellte Element oben im Informationsanzeigebereich 410 angezeigt wird. Das System zeigt eine begrenzte Anzahl an Elementen 415 (beispielsweise drei bis sechs Elemente) gleichzeitig im angezeigten (nicht ausgeblendeten) Bereich des Informationsanzeigebereichs 410 an. Das System kann die Anzahl von Elementen 415 aus verschiedenen Gründen begrenzen, z. B. um zu verhindern. dass der Benutzer möglicherweise durch viel zu viele Suchergebnisse überfordert wird, und/oder um nur einen minimalen Bereich der Anzeige 400 zu belegen. Das System ist jedoch nicht auf die Anzeige von nur drei bis sechs Elementen 415 begrenzt und kann weniger oder mehr Elemente 415 anzeigen. In einigen Beispielen zeigt das System die Elemente 415 in einer Reihenfolge an, bei der das zuletzt erstellte Element unten in der verfügbaren Anzeige im Informationsanzeigebereich 410 angezeigt wird. In einigen Beispielen zeigt das System die Elemente 415 neben dem zugehörigen Text an. In einigen Beispielen zeigt das System die Elemente 415 als Markup an, das den Text innerhalb der Anzeige 400 überlagert.
  • Nach oder während der Anzeige von Suchergebnissen in Schritt 540 füährt die Routine 500 mit Schritt 545 fort, wobei das System bestimmt, ob weiterhin Text empfangen wird oder nicht, z. B. indem der Benutzer der Anwendung weiterhin Text bereitstellt. Wenn weiterhin Text empfangen wird, kehrt die Routine 500 zu Schritt 510 zurück. Unter erneuter Bezugnahme auf 4 beginnt ein zweiter vom Benutzer bereitgestellter und in dem Textanzeigebereich 405 angezeigter Satz mit „Marvel-Comics” 455. Das System hat diesen zweiten Satz in Schritt 510 überwacht, den Text „Marvel-Comics” 455 in Schritt 515 ausgewählt und eine Abfrage basierend auf dem ausgewählten Text in Schritt 520 erzeugt. Das System wählt in Schritt 525 einen Index für die Suche mithilfe der Abfrage aus, übermittelt die Abfrage in Schritt 530, empfängt ein Suchergebnis in Schritt 535 und zeigt einen Teil des Suchergebnisses in Schritt 540 an. Der Teil des Suchergebnisses, der relevant für diese Abfrage ist, wird als Element 515b im Informationsanzeigebereich 510 angezeigt.
  • Sobald der Benutzer Text bereitstellt, führt das System die unter Bezugnahme auf 5 beschriebenen Schritte kontinuierlich und wiederholt aus. In Anlehnung an das Beispiel aus 4 hat das System den Text „Stan Lee” 460 im dritten Satz ausgewählt. Das System zeigt Informationen, die relevant für den ausgewählten Text sind, als Element 415c in dem Informationsanzeigebereich 410 an. Es wird ein vom System ausgewähltes viertes Textelement gezeigt, wie durch Bezugszeichen 465 angegeben: „1960er”. Das System hat eine Abfrage entsprechend diesem ausgewählten Text erstellt, einen Index durchsucht und als Reaktion auf die Suche ein Suchergebnis empfangen, von dem ein Teil als Element 415d im Informationsanzeigebereich 410 angezeigt wird.
  • Nachdem der Benutzer einen Teil des Textes oder den kompletten Text bereitgestellt hat, der in dem Textanzeigebereich 405 angezeigt wird, bestimmt das System, dass ein primäres Thema des Textes die Geschichte von Comic-Büchern betrifft. Das System bestimmt dies unter Umständen basierend auf verschiedenen Elementen des Textes, wie beispielsweise dem Subjekt des ersten Satzes „Comic-Buch”, der Verwendung von Verben in der Vergangenheitsform („war” im dritten Satz und „erstellte” im letzten Satz”), dem Verweis auf einen bestimmten Zeitraum in der Vergangenheit (die „1960er”) und/oder weiteren Informationen im bereitgestellten Text. Das System kann auch die Suchergebnisse analysieren, die in Reaktion auf die verschiedenen erzeugten Abfragen bereitgestellt werden, um dies zu bestimmen. Dementsprechend kann das System eine Abfrage nicht nur basierend auf dem Text des zuletzt erstellten Satzes, sondern auch basierend auf Text von anderen Sätzen, Suchergebnissen und/oder anderen Informationen erzeugen. Das System hat eine Abfrage, die sich auf die „Geschichte von Comic-Büchern” bezieht, basierend auf diesen Faktoren erzeugt und einen entsprechenden Index ausgewählt, wie beispielsweise einen Index, der von einem oder mehreren kommerziellen Buchhändlern bereitgestellt wird. Das System kann diese Indizes auswählen, um nach Referenzmaterialien, die länger sind als diejenigen, die über das Internet bereitgestellt werden können, und/oder nach Referenzmaterialien, die nicht im Internet bereitgestellt werden, zu suchen.
  • Das System hat eine Abfrage bezüglich der Wortverbindung „Geschichte von Comic-Büchern” erzeugt, einen Index von kommerziellen Buchhändlern durchsucht und ein Suchergebnis von Amazon empfangen, das das System als Element 415e anzeigt. Auf diese Weise kann das System dem Benutzer Links zu Referenzmaterialien oder zusätzlichen, relevanten Informationen, die unter Umständen nicht unbedingt auf Internet-Webseiten bereitgestellt werden, bereitstellen oder den Zugriff darauf ermöglichen. Wie bereits zuvor erwähnt ist jedes der Elemente 415 auch mit einer Webseite verknüpft, sodass der Benutzer ein Element 415 auswählen kann (z. B. durch Klicken auf das Element 415). Die Auswahl eines Elements 415 veranlasst das System dazu, ein Browser-Fenster mit der URL (Uniform Resource Locator) zu öffnen, die mit dem Element 415 verknüpft ist, und die Inhalte der Webseite im Browser-Fenster anzuzeigen. Das System zeigt ein „R” umrandet von Strichen in ähnlicher Weise wie ein Fußnotenzeichen an, so wie vom Referenzeichen 470 angezeigt, um anzugeben, dass der gesamte Absatz im Textanzeigebereich 405 als Basis für die Abfrage gedient hat, die zum Element 415e geführt hat.
  • Das System bestimmt möglicherweise auch basierend auf einem Teil des Textes oder auf dem gesamten Text, der im Textanzeigebereich 405 angezeigt wird, dass der Benutzer am Kauf von Comic-Büchern interessiert ist. Dementsprechend hat das System eine Abfrage bezüglich des Kaufs von Comic-Büchern erzeugt, einen allgemeinen Index durchsucht und ein Suchergebnis empfangen, das das System als Element 415f anzeigt. Auf diese Weise kann das System dem Benutzer Links zu kommerziellen Webseiten, die Produkte verkaufen, an denen der Benutzer möglicherweise interessiert ist, bereitstellen oder den Zugriff darauf ermöglichen. Erneut kann der Buchstabe „R” 470 angeben, dass der gesamte Absatz im Textanzeigebereich 405 als Basis für die Abfrage gedient hat, die zum Element 415f geführt hat.
  • In einigen Beispielen zeigt das System neben oder alternativ zur Anzeige von Textinformationen als Elemente 415 nicht textliche Informationen (z. B. Bilder, Videos, Ton und/oder andere eingebettete Elemente) im Informationsanzeigebereich 410 an. In einigen Ausführungsformen sortiert das System die Elemente 415 nicht nach der Zeit, sondern nach anderen Informationen, wie beispielsweise nach der Relevanz der Elemente für den vom Benutzer bereitgestellten Text. Um Elemente nach ihrer Relevanz zu sortieren, kann das System einen Relevanzfaktor für jedes Element 415 zum Zeitpunkt der Erstellung des jeweiligen Elements berechnen. Das System kann den Relevanzfaktor auch zu einem späteren Zeitpunkt aktualisieren. Der Relevanzfaktor eines Suchergebnisses, das vom System zu Beginn des Empfangs von Text vom Benutzer als äußerst relevant erachtet wurde, könnte sich beispielsweise verringern, wenn das System basierend auf zusätzlichem vom Benutzer empfangenem Text bestimmt, dass das Suchergebnis doch nicht so relevant ist.
  • In einigen Beispielen bietet das System dem Benutzer die Möglichkeit, nach oben oder unten durch die Elemente 415 zu scrollen (Zeile für Zeile oder Seite für Seite), sodass der Benutzer andere Elemente 415 als die aktiv im Informationsanzeigebereich 415 angezeigten ansehen kann. In einigen Beispielen verknüpft das System neben der Verknüpfung des Elements 415 mit der Quell-Webseite das Element 415 mit dem Text im Textanzeigebereich 405, der als Basis für die Abfrage gedient hat, die zum Element 415 geführt hat, sodass der Benutzer leicht von dem Element zum verknüpften Text im Textanzeigebereich 405 navigieren kann. In einigen Beispielen verknüpft das System auch den Text im Textanzeigebereich 405, der als Basis für die Abfrage gedient hat, die zum Element 415 geführt hat, sodass der Benutzer leicht von dem Text im Textanzeigebereich 405 zum verknüpften Element 415 navigieren kann. In einigen Beispielen stellt das System eine Zeitachse bereit, die die Zeiten anzeigt, zu denen das System Abfragen erstellt und/oder die Durchführung von Suchen angefordert hat. In einigen Beispielen markiert das System Text, den das System als einem bestimmten Format entsprechend erkennt, wie z. B. Eigennamen, Telefonnummern, Orte und/oder andere Formate. In einigen Beispielen, wenn der Benutzer Text löscht, für den das System ein Element 415 bereitgestellt hat, entfernt das System das Element 415 aus dem Informationsanzeigebereich 415.
  • In einigen Beispielen zeigt das System Ansichten des Informationsanzeigebereich 410 an, die von einer Ansicht des Textanzeigebereichs 405 abhängen. Das System kann zum Beispiel Informationen anzeigen, die mit bestimmten Textfragmenten im Textanzeigebereich verknüpft sind, wenn die Anzeige im Textanzeigebereich auf Satzebene vergrößert wird, und Informationen anzeigen, die mit dem gesamten Dokument verknüpft sind, wenn im Textanzeigebereich das gesamte Dokument angezeigt wird. Somit führt eine Änderung der Ansicht zum Beispiel durch Vergrößern oder Verkleinern der Anzeige im Textanzeigebereich 405 dazu, dass im Informationsanzeigebereich 410 verschiedene Arten und Ebenen von Informationen angezeigt werden.
  • In einigen Beispielen zeigt das System den Textanzeigebereich 405 auf einer ersten Anzeige einer ersten Computervorrichtung und den Informationsanzeigebereich 410 auf einer zweiten Anzeige einer zweiten Computervorrichtung an. Das System kann dem Benutzer zum Beispiel die Möglichkeit zum Erstellen, Bearbeiten und/oder Löschen von schriftlichem Material auf einer ersten Computervorrichtung bereitstellen, wie beispielsweise auf einem Desktop oder Laptop, der eine Tastatur beinhaltet, über die der Benutzer Text einfach eingeben kann. Das System kann dann Informationen, die relevant für das geschriebene Material sind, auf einer Anzeige einer sekundären Computervorrichtung anzeigen, die mit der ersten Computervorrichtung wie einer Handheld-Computervorrichtung (z. B. ein Smartphone, Tablet-Computervorrichtung usw.) verbunden ist. Das System kann aus verschiedenen Gründen in solch einer Anordnung konfiguriert sein, z. B. um dem Benutzer die Wahl zu lassen, wann und/oder wie die relevanten Informationen angezeigt werden.
  • In einigen Beispielen beendet das System anstelle der Routine 500 aus 2 nach der Bestimmung, dass kein weiterer Text mehr empfangen wird, die Routine 200 in Reaktion auf eine andere Bestimmung, zum Beispiel auf die Bestimmung, dass das Dokument nicht länger aktiv ist, der Benutzer angefordert hat, dass das System nicht in Betrieb ist, und/oder andere Bestimmungen.
  • In einigen Beispielen bietet das System dem Benutzer anstatt oder neben der Option zur kontinuierlichen Überwachung von Text, der von einem Benutzer bereitgestellt wird, die Möglichkeit, die Bereitstellung relevanter Informationen zu verzögern, bis der Benutzer die Bereitstellung ausdrücklich anfordert. Nach einer speziellen Anforderung durch den Benutzer kann das System den bereitgestellten Text dann wie hierin beschreiben analysieren, einen oder mehrere Teile des bereitgestellten Textes auswählen und Informationen bereitstellen, die für die ausgewählten Teile relevant sind. Zum Beispiel bei der Erstellung eines Wortverarbeitungsdokuments verwendet der Benutzer möglicherweise das System nicht von Beginn an, sondern er wartet stattdessen, bis eine bestimmte Menge an geschriebenem Text (zum Beispiel ein Absatz, ein Abschnitt, ein Kapitel usw.) vorhanden ist, und fordert dann an, dass das System die relevanten Informationen bereitstellt. Das System würde dann den geschriebenen Text analysieren, mehrere Teile des Textes auswählen und mehrere Elemente von relevanten Informationen bereitstellen, wobei jedes Element einem anderen ausgewählten Teil des Textes entspricht. In einem weiteren Beispiel kann der Benutzer ein bereits erstelltes Dokument öffnen und anfordern, dass das System Informationen bereitstellt, die relevant für das bereits erstellte Dokument sind.
  • In einigen Beispielen wählt das System einen Teil des Textes aus, der vom Benutzer bereitgestellt wird, indem es automatisch eine Zusammenfassung des Textes erstellt oder indem es veranlasst, dass automatisch eine Zusammenfassung vom Text erstellt wird. Das System erzeugt dann die Abfrage basierend auf der Zusammenfassung des Textes.
  • In einigen Beispielen arbeitet das System gleichzeitig oder allgemein in mehreren Anwendungen (zum Beispiel gleichzeitig in einer Wortverarbeitungsanwendung und in einer Browser-Anwendung). In diesen Ausführungsformen kann das System Text überwachen, der vom Benutzer über mehrere Anwendungen hinweg bereitgestellt wird, und dazu relevante Informationen bereitstellen.
  • 6 ist ein Datenstrukturdiagramm, das eine Datenstruktur 600 zeigt, die vom System im Zusammenhang mit der Speicherung der vom System verwendeten Daten genutzt wird. Die in 6 dargestellte Datenstruktur 600 entspricht dem Beispiel, das in 4 dargestellt ist. Die Datenstruktur 600 beinhaltet Zeilen, wie die Zeilen 650a und 650b, wobei jede Zeile in die folgenden Spalten unterteilt ist: eine Dokumenten-ID-Spalte 601, die das Dokument identifiziert, das den Text enthält, für den das System relevante Informationen bereitgestellt hat; eine Textspalte 602, die den Text des Dokuments enthält, für den das System ein Element 415 bereitgestellt hat; eine Abfragespalte 605, die die vom System in Reaktion auf den vom Benutzer bereitgestellten Text erzeugte Abfrage beinhaltet; eine Indexspalte 610, die eine Kennung von einem Index beinhaltet, den das System für die Suche mithilfe der Abfrage ausgewählt hat; eine Titelspalte 615, die einen Titel von einem Suchergebnis beinhaltet, das in Reaktion auf das Durchsuchen des Index mithilfe der Abfrage bereitgestellt wurde; eine Inhaltsspalte 620, die beschreibende Informationen beinhaltet, die mit dem Suchergebnis verknüpft sind; ein Quellenspalte 625, die eine Quelle (z. B. eine URL) des Suchergebnisses beinhaltet; und eine Reihenfolgenspalte 630, die eine Zahl beinhaltet, die eine Reihenfolge angibt, in der das System das Suchergebnis in Bezug auf andere Suchergebnisse verarbeitet hat.
  • Wie dargestellt beinhaltet die Zeile 650a folgende Werte in den einzelnen Spalten: „445” in der Dokumenten-ID-Spalte 601, „Comic-Buch” in der Textspalte 602, „Comic + Buch” in der Abfragenspalte 605, „Referenz” in der Indexspalte 610 (zeigt an, dass ein Referenzindex durchsucht wurde), „Wikipedia” in der Titelspalte 615, Inhalt von einer bestimmten Wikipedia-Seite, die sich auf Comic-Bücher bezieht, in der Inhaltsspalte 620, eine URL (Uniform Resource Locator), die auf die Wikipedia-Seite verweist, in der Quellenspalte 625 und die Zahl „1” in der Reihenfolgenspalte 630 (zeigt an, dass dies das erste vom System bereitgestellte Suchergebnis ist). Die anderen Zeilen 650 beinhalten ähnliche Informationen, die anderen Elementen 415 aus 4 entsprechen. Die Textspalte 602 der Zeilen 650e und 650f enthält jeweils [Absatz 1], was anzeigt, dass der gesamte erste Absatz als Basis für Elemente von Informationen diente, die vom System bereitgestellt wurden.
  • Die Datenstruktur 600 kann andere Spalten beinhalten, die nicht spezifisch dargestellt sind, wie zum Beispiel eine Datums-/Zeitspalte, die das Datum und/oder die Uhrzeit beinhaltet, an dem bzw. zu der das System die Abfrage erzeugt hat; eine Anzeigespalte, die angibt, ob das System das Suchergebnis als Element 415 anzeigen soll oder nicht, eine oder mehrere Spalten, die Informationen zu sekundären Suchergebnissen beinhalten und/oder andere Spalten, die andere Informationen beinhalten oder anzeigen. Das System kann auch andere Datenstrukturen verwalten, die nicht spezifisch dargestellt sind, wie beispielsweise eine Datenstruktur, die Benutzerpräferenzen beinhaltet, eine Datenstruktur, die Informationen über zu durchsuchende Indizes beinhaltet, eine Datenstruktur, die Informationen zu einer Historie von Elementen von Informationen beinhaltet, und/oder andere Datenstrukturen.
  • Indem einer Person automatisch Informationen bereitgestellt werden, die für ein Thema von Interesse für die Person relevant sind, ermöglicht das System der Person, eine beträchtliche Menge Zeit zu sparen. Die automatische Bereitstellung relevanter Informationen durch das System eliminiert die Notwendigkeit, dass die Person Text zur Verwendung für eine Abfrage und Anforderung einer Suche auswählen muss. Auch wenn das System unter Bezugnahme auf das Beispiel eines Benutzer beschrieben wurde, der mithilfe einer Wortverarbeitungsanwendung oder einer anderen Anwendung Text schreibt, kann das System in anderen Kontexten und/oder Umgebungen verwendet werden, z. B. im Kontext einer Person, die ein zuvor geschriebenes Dokument editiert (z. B. ein Editor, der Fakten überprüft und/oder das schriftliche Material anderweitig bearbeitet), im Kontext einer Person, die ein geschriebenes Dokument liest (z. B. eine Person, die ein elektronisches Dokument liest oder Text von einem gedruckten Dokument erfasst) und/oder in anderen Kontexten. Dementsprechend ist die Verwendung des Systems nicht auf die hierin beschriebenen Beispiele beschränkt.
  • Neben den hierin beschriebenen Umgebungen und Vorrichtungen stellt 7 ein Übersichtsblockdiagramm dar, das eine Umgebung 700 zeigt, in der das System betrieben werden kann. Das Blockdiagramm zeigt ein Computersystem 750. Das Computersystem 750 beinhaltet einen Speicher 760. Der Speicher 760 beinhaltet Software 761, in der sowohl das System 762 als auch die Daten 763 eingebunden sind, die in der Regel vom System verwendet werden. Der Speicher beinhaltet des Weiteren ein Webclient-Computerprogramm 766 zum Empfangen von Webseiten und/oder anderen Informationen von anderen Computer. Während die Elemente 762 und 763 im Laufe ihrer Nutzung im Speicher gespeichert werden, wird Fachleuten auf dem Gebiet klar sein, dass diese Elemente oder Teile davon zum Zwecke des Speichermanagements, Datenintegrität und/oder zu anderen Zwecken zwischen dem Speicher und einer persistenten Speichervorrichtung 773 übertragen werden können. Das Computersystem 750 beinhaltet des Weiteren eine oder mehrere zentrale Verarbeitungseinheiten (CPU) 771 zum Ausführen von Programmen wie den Programmen 761, 762 und 766 und ein computerlesbares Medienlaufwerk 772 zum Lesen von Informationen oder zum Installieren von Programmen wie dem System von greifbaren computerlesbaren Speichermedien wie einer Diskette, einer CD-ROM, einer DVD, einem USB-Flash-Laufwerk und/oder anderen greifbaren computerlesbaren Speichermedien. Das Computersystem 750 beinhaltet außerdem eines oder mehrere der Folgenden: eine Netzwerkverbindungsvorrichtung 774 zum Herstellen einer Verbindung zu einem Netzwerk (zum Beispiel dem Internet 740) und Übertragen oder Empfangen von Daten über die Router, Switches, Hosts und anderen Vorrichtungen, aus denen das Netzwerk besteht, eine Informationseingabevorrichtung 775 und eine Informationsausgabevorrichtung 776.
  • Das Blockdiagramm veranschaulicht außerdem mehrere Servercomputersysteme, wie die Servercomputersysteme 710, 720 und 730. Jedes der Servercomputersysteme beinhaltet ein Webserver-Computerprogramm, wie z. B. die Webserver 711, 720 und 731, zur Bereitstellung von Webseiten und/oder anderen Informationen in Reaktion auf die Anforderungen von Webclient-Computerprogrammen wie dem Webclient-Computerprogramm 766. Die Servercomputersysteme sind über das Internet 740 oder ein Datenübertragungsnetzwerk anderer Art mit dem Computersystem 750 verbunden. Fachleuten auf diesem Gebiet wird klar sein, dass die Servercomputersysteme jedoch auch über andere Netzwerke als das Internet mit dem Computersystem 750 verbunden werden könnten.
  • Auch wenn verschiedene Beispiele in Zusammenhang mit den hierin beschriebenen Umgebungen beschrieben werden, wird Fachleuten auf dem Gebiet klar sein, dass das System in einer Vielzahl von anderen Umgebungen implementiert werden kann, einschließlich eines einzelnen monolithischen Computersystems und verschiedener anderer Kombinationen von Computersystemen oder ähnlichen Vorrichtungen, die auf verschiedene Weisen angeschlossen sind. In verschiedenen Beispielen können eine Vielzahl von Computersystemen oder andere verschiedene Client-Geräte anstelle der Webclient-Computersysteme verwendet werden, wie beispielsweise Mobiltelefone, Personal Digital Assistants, Fernseher, Kameras usw. So kann sich das System beispielsweise in einem Mobilgerät wie einem Smartphone befinden, das sowohl die Eingabe von Text über eine Eingabevorrichtung als auch die Erfassung von Text über eine Erfassungsvorrichtung ermöglicht.
  • Integrieren von wiedergegebenen Dokumenten in Inhaltestreams
  • Wie hierin beschrieben erfasst das System in einigen Beispielen Text aus einem wiedergegebenen Dokument und führt Aktionen durch und/oder stellt Inhalte im Zusammenhang mit dem erfassten Text oder dem wiedergegebenen Dokument bereit. Das System kann beispielsweise Inhalte von Inhaltsquellen sozialer Netzwerke, Archiven mit Benutzerinhalten, Echtzeit-Nachrichten und Inhaltsfeeds usw. bereitstellen.
  • 8 ist ein Flussdiagramm, das eine Routine 800 zur automatischen Präsentation von Informationen, die von einem wiedergegebenen Dokument erfasst wurden, darstellt. In Schritt 810 erfasst das System Informationen aus einem wiedergegebenen Dokument. Wie hierin beschrieben kann das System mithilfe einer Abbildungskomponente eines Mobilgeräts ein Bild von Text aus dem wiedergegebenen Dokument aufnehmen oder andere Techniken zur Erfassung der Informationen einsetzen.
  • In Schritt 820 identifiziert das System automatisch Inhalte, die mit den erfassten Informationen verknüpft sind. In einigen Fällen identifiziert das System spezifische Inhaltselemente, die mit den erfassten Informationen verknüpft sind, wie etwa Bilder, Videos, Text usw. In einigen Fällen identifiziert das System Inhaltsquellen, die mit den erfassten Informationen verknüpft sind, wie beispielsweise Nachrichten-Webseiten und andere Informations-Webseiten, Blogs, benutzergenerierte Inhaltsseiten, Podcast-Archive, Bild- und Video-Archive, Foren usw. Das System kann beim Identifizieren von Inhalten einen oder mehrere der hierin beschriebenen Indizes abfragen, wie etwa die Indizes, die mit Online-Inhaltsquellen verknüpft sind, die benutzergenerierte Inhalte beinhalten. Beispiele für derartige Inhaltsquellen sind unter anderem YouTube, Wikipedia, Flickr, Twitter, Yahoo, MSN, Boingboing.net, nytimes.com, Google usw. In einigen Fällen sind die Inhalte statisch und werden vor der Durchführung einer Erfassung von Informationen erstellt. In manchen Fällen ist der Inhalt dynamisch oder er wird während der Erfassung von Informationen in Echtzeit erstellt.
  • In Schritt 830 stell das System die identifizierten Inhalte dar. Das System kann die Inhalte beispielsweise über eine Anzeigekomponente einer Vorrichtung anzeigen, die die Informationen erfasst hat, wie z. B. einem Touchscreen eines Smartphones. Das System kann die Inhalte mithilfe einiger oder aller der hierin beschriebenen Techniken anzeigen, einschließlich Anzeigen der Inhalte (oder Angaben der Inhalte) neben den erfassten Informationen, Überlagern der erfassten Informationen mit den Inhalten, Anzeigen der Inhalte auf einer verknüpften Vorrichtung usw.
  • In Schritt 840 bestimmt das System, ob eine weitere Anforderung zur Erfassung von Informationen vom System empfangen wird. Ein Benutzer kann seine Erfassungsvorrichtung beispielsweise zu einem zweiten Teil eines wiedergegebenen Dokuments bewegen und so den Wunsch anzeigen, Inhalte zu finden, die mit dem zweiten Teil des Dokuments verknüpft sind. Wenn das System bestimmt, dass eine weitere Anforderungen vorhanden ist, kehrt die Routine 800 zu Schritt 810 zurück, wobei die Routine 800 anderenfalls endet.
  • Daher bietet das System Benutzern von Erfassungsvorrichtungen wie Mobilgeräten in einigen Beispielen neben anderen Vorteilen die Möglichkeit, automatisch Inhalte zu empfangen, die mit den von ihnen in Echtzeit erfassten Informationen verknüpft sind.
  • Wie hierin beschrieben bietet das System Benutzern in einigen Beispielen die Möglichkeit, auf benutzergenerierte Inhaltsquellen zuzugreifen und zu diesen beizutragen, die auf der Erfassung und Identifizierung von Dokumenten und anderen Informationsanzeigen basieren. 9 ist ein Flussdiagramm, das eine Routine 900 zur Bestimmung der Inhaltsquellen, die mit einem identifizierten wiedergegebenen Dokument verknüpft sind, veranschaulicht.
  • In Schritt 910 erfasst das System Informationen aus einem wiedergegebenen Dokument. Wie hierin beschrieben kann das System Text erfassen, etwa indem der Text mithilfe einer Abbildungskomponente eines Mobilgeräts abgebildet wird. Das System kann auch andere Arten von Informationen wie beispielsweise nichttextuelle Informationen erfassen.
  • In Schritt 920 identifiziert das System das Dokument basierend auf den erfassten Informationen. Wie hierin beschrieben kann das System das Dokument identifizieren, indem eine elektronische Version des Dokuments lokalisiert wird, die aus dem Dokument erfassten Text beinhaltet.
  • In Schritt 930 bestimmt das System, dass eine oder mehrere Inhaltsquellen mit dem wiedergegebenen Dokument verknüpft sind. Das System identifiziert beispielsweise einen Kanal oder ein Tag im Zusammenhang mit dem wiedergegebenen Dokument oder mit einem bestimmten Teil eines wiedergegebenen Dokuments und identifiziert Inhaltsquellen, die Inhalte mit ähnlichen Tags bereitstellen.
  • In Schritt 940 stellt das System dem Benutzer einen Hinweis auf die bestimmten Inhaltsquellen bereit. In einigen Fällen präsentiert das System zusammen mit dem wiedergegebenen Dokument einen Hinweis auf die Inhalte von den bestimmten Inhaltsquellen. In einigen Fällen greift das System auf die Inhaltsquelle zu und bietet einem Benutzer neben anderen Vorteilen so die Möglichkeit, zu einer Inhaltsquelle beizutragen.
  • In einem Beispiel zeigt das System einen Datenstrom von einer bestimmten Inhaltsquelle in einem Fensterbereich neben einem Bild des wiedergegebenen Dokuments an und verfolgt das Voranschreiten des Benutzers in dem wiedergegebenen Dokument, wobei der Fensterbereich mit Informationen aus dem Datenstrom, die für den Abschnitt relevant sind, den der Benutzer aktuell liest, aktualisiert wird. Der Fensterbereich kann verschiedene Arten von Inhalten oder Hinweise verschiedener Art bereitstellen, einschließlich Blog-Einträge/-Kommentare, Metadaten, verwandte Dokumente oder Inhalte, Hyperlinks, Videos, Bilder, Tweets, Foren, Nachrichten-Feeds, Podcasts, Querverweise zu anderen Dokumenten oder Positionen innerhalb des aktuellen Dokuments usw.
  • In einem anderen Beispiel liest ein Benutzer eine Zeitung und erfasst Text aus einem Artikel im Wirtschaftsteil über die private Finanzplanung für Paare mit seinem Mobilgerät. Das System identifiziert den Artikel und zugehörige Tags (z. B. „Private Finanzplanung”, „Beziehungen”). Das System bestimmt, dass zwei Inhaltsquellen Inhalte mit ähnlichen Tags enthalten – eine davon ein Kanal einer Video-Sharing-Webseite, der sich mit der Haushaltsplanung von Paaren befasst, und die andere ein Weblog für einen Autor bekannter Investmentbücher – und stellt dem Benutzer Hinweise auf diese Quellen über eine Anzeigekomponente des Mobilgeräts bereit.
  • Natürlich kann das System auch andere Inhaltsquellen identifizieren und bereitstellen, die hierin nicht spezifisch beschrieben sind.
  • Erfassen von Informationen aus audiobasierten Informationsquellen
  • Auch wenn das System zuvor allgemein so beschrieben ist, dass es mit Daten von gedruckten oder angezeigten Dokumenten interagiert und diese erfasst, kann das System ohne Weiteres so konfiguriert werden, dass es alternativ oder zusätzlich mit audiobasierten Informationen interagieren und diese erfassen kann, wie etwa Informationen, die über das Radio oder TV-Sendungen empfangen werden. Das System kann Informationen bereitstellen, die im Zusammenhang mit Inhalten stehen, die aus einem empfangenen Audiosignal extrahiert wurden. In einigen Beispielen empfängt das System ein Live-Audiosignal z. B. von einem Lautsprecher eines Radios, und konvertiert dieses über ein Mikrofon eines Mobilgeräts in ein elektrisches Audiosignal. Nach einigen optionalen Vorverarbeitungen des Audiosignals wandelt das System die Inhalte des Audiosignals, häufig gesprochene Sprache, in Text um und führt anschließend eine Aktion basierend auf diesem Text durch. Bei der durchzuführenden Aktion kann es sich beispielsweise um die Identifizierung von Suchbegriffen und die Durchführung einer Abfrage oder Suche auf Basis dieser Begriffe handeln. Das System empfängt dann Informationen, die mit den Audioinhalten im Zusammenhang stehen bzw. verknüpft sind, und gibt diese an den Benutzer aus, etwa durch Ausgeben dieser an ein Mobilgerät zur Anzeige für den Benutzer.
  • In einigen Beispielen beinhalten die präsentierten Informationen visuell anzeigbare Informationen, die mit den im empfangenen Audio bereitgestellten Inhalten verknüpft sind. Das empfangene Audio kann beispielsweise eine Radioübertragung oder ein Live-Vortrag über ein gegebenes Thema sein. Das empfangene Audio wird in Text umgewandelt und verarbeitet, um nicht nur Begriffe in Bezug auf das Hauptthema zu identifizieren, sondern auch weitere Begriffe oder Inhalte, die im Verlauf des empfangenen Audios erfasst werden oder logisch davon abgeleitet wurden. Somit kann das empfangene Audio in einem Beispiel einer Audiospur von einer Star-Trek-Episode entsprechen, die gerade auf einem Fernseher wiedergegeben wird. Das System empfängt diese Audiospur, wobei das Audio einen Verweis auf den Komponisten Brahms beinhaltet. Das System kann dann nicht nur Informationen in Bezug auf die Sendung „Star Trek”, sondern auch Informationen in Bezug auf Brahms abrufen, wie z. B. eine Biografie von Brahms und Bilder von ihm, Links zu (oder heruntergeladene Dateien von) ausgewählten Aufzeichnungen der von ihm komponierten Musik usw.
  • In einigen Beispielen tastet das System eine Audiosequenz ab, um die Sequenz und/oder eine Position in der Sequenz zu identifizieren. Das System kann zum Beispiel bei der Identifizierung der Sequenz oder Position in der Sequenz Sprache-zu-Text-Techniken oder Techniken zum Abgleichen nichttextueller Inhalte anwenden, wie hierin im Hinblick auf die Identifizierung von Text und/oder wiedergegebenen Dokumenten beschrieben. Das System kann anschließend die identifizierte Position verwenden, um eine bereinigte Version der Audiosequenz, ein Transkript der Audiosequenz, mit der Audiosequenz verknüpftes Markup usw. abzurufen, um Inhalte oder durchführbare Aktionen in Verbindung mit der Audiosequenz der Informationen, die von der Audiosequenz präsentiert werden, zu identifizieren.
  • In einigen Beispielen beziehen sich die zusätzlichen Informationen auf die Audioinhalte, entsprechen diesen jedoch nicht (z. B. handelt es sich nicht um ein Transkription oder Zusammenfassung der Audioinhalte). Stattdessen stellen sie Verbesserungen, Verdeutlichungen, Inspirationen oder Ausgangspunkte von den Audioinhalten zur Verfügung. Tatsächlich bilden die zusätzlichen Informationen und das hierin beschriebene System eine 1:n-Beziehung zwischen den Audioinhalten und den ergänzenden Informationen, die dazu beträgt, die Audioinhalte weiter zu definieren, zu verdeutlichen, zu erweitern oder anderweitig zu verbessern, und die mehrere verschiedene Seiten von Informationen in beliebiger unterschiedlicher Form darstellen kann.
  • 10 zeigt eine Gruppe von Funktionskomponenten oder -modulen, die in Reaktion auf das empfangene Audio zugehörige Informationen empfangen, analysieren und bereitstellen. Auch wenn die Komponenten allgemein als Funktionsmodule beschrieben werden, die in Software implementiert und von einem oder mehreren Mikroprozessoren (oder ähnlichen Vorrichtungen) ausgeführt werden, können die Komponenten aus 10 auch in Hardware, etwa mittels einer Gruppe von logischen Gates (z. B. feldprogrammierbaren Gate-Arrays (FPGAs)), anwendungsspezifischen integrierten Schaltkreisen (ASICs) usw., implementiert werden. Darüber hinaus können eine oder mehrere der in 10 gezeigten Komponenten extern implementiert werden, auch wenn sie in einer Einheit 1000 kombiniert dargestellt sind. Die meisten Komponenten können beispielsweise durch eine Erfassungsvorrichtung implementiert werden, wobei ein oder mehrere Module durch ein oder mehrere Servercomputer implementiert werden. Daher können einige Komponenten auf dem Mobilgerät installiert sein und ausgeführt werden, während andere zur Verarbeitung an das Netzwerk oder die Cloud gesendet werden.
  • Eine Audioempfangskomponente 1002 empfängt das Audio z. B. über ein Mikrofon, und das empfangene Audiosignal kann je nach Bedarf verstärkt oder abgeschwächt werden. Darüber hinaus kann die Audioempfangskomponente 1002 eine vorab aufgezeichnete Audiodatei oder eine extern erzeugte oder veröffentlichte Streaming-Audiosequenz empfangen. Das empfangene Audio kann von einer beliebigen Quelle stammen, dies ist aber insbesondere für inhaltsreiche Quellen wie Talkshows, Call-in-Sendungen, Nachrichtensendungen, Vorlesungen und Seminare, Podcasts usw. hilfreich.
  • Eine Audioverarbeitungskomponente 1004 kann eine bestimmte Verarbeitung des empfangenen Audiosignals durchführen, wie zum Beispiel Filterungen, um unerwünschte Signale herauszufiltern. Die Audioempfangskomponente und die Audioverarbeitungskomponente verarbeiten das empfangene Audio gemeinsam und bringen es in eine Form, in der es von der Sprache-zu-Text-Komponente 1006 am besten in Text umgewandelt werden kann. Wenn das empfange Audio beispielsweise in analoger Form vorliegt, digitalisieren die Audioempfangs- und -verarbeitungskomponenten das Audio, um einen digitalisierten Audiostream zu erzeugen. Wenn die empfange Audiodatei oder der Audiostream ein unerwünschtes Format aufweist, können diese Audiokomponenten sie bzw. ihn in ein anderes Format konvertieren (z. B. eine größere .wav-Datei in eine komprimierte .mp3-Datei konvertieren). Handelt es sich bei dem gewünschten Audioausschnitt um gesprochenes Audio, dann wenden diese Audiokomponenten einen Bandlückenfilter an, um Audiokomponenten mit hoher und niedriger Frequenz aus dem empfangenen Audio zu entfernen.
  • Die Sprache-zu-Text-Komponente 1006 wandelt gesprochene Wörter in dem empfangenen Audio in Text um. Die Sprache-zu-Text-Komponente kann außerdem eine Spracherkennungsfunktionalität beinhalten, wobei das System auf einen bestimmten Sprecher oder eine Gruppe von Sprechern abgestimmt wird, um zu versuchen, die sprechende Person zu identifizieren und auf Grundlage der bekannten Interessen, Schreibtendenzen und/oder anderer Sprach- und Aussprachemuster des Sprechers besser zu erkennen, was gesagt wird. Es gibt viele vorhandene Sprache-zu-Text-Komponenten wie zum Beispiel die, die von Nuance Communications Inc., IBM, Microsoft, usw. hergestellt werden. In einem Beispiel handelt es sich bei der Audioempfangskomponente 1002 um ein Mikrofon, das eine Funkübertragung empfängt und verstärkt, und die Audioverarbeitungskomponente 1004 filtert die Audiokomponenten mit niedriger und hoher Frequenz heraus, sodass die Sprache-zu-Text-Komponente 1006 idealerweise nur das gewünschte gesprochene Audio empfängt. Die Sprache-zu-Text-Komponente wandelt das gesprochene Audio anschließend in Text um, der als Textdatei zur weiteren Verarbeitung gespeichert werden kann.
  • Eine Textanalysekomponente 1008 verarbeitet die Textdatei unter Verwendung von einer oder mehreren Textanalyseroutinen. Die Textanalysekomponente kann zum Beispiel die Textdatei analysieren, um eine gesprochene Sprache in der Textdatei zu bestimmen, und diese Textdatei anschließend verarbeiten, um Korrekturen wie Rechtschreibprüfung, Grammatik-/Satzanalyse usw. vorzunehmen. Somit kann das System durch die Erkennung der Sprache, die mit dem gesprochenen Audioinhalt verknüpft ist, das beste Wörterbuch identifizieren, um die Umwandlung von Sprache zu Text und die mögliche Bearbeitung oder Verbesserung einer resultierenden Textdatei basierend auf einer Rechtschreibprüfung, Grammatikkorrektur usw. weiter zu unterstützen. Die Textanalysekomponente kann dabei helfen, Themen oder relevante Inhalte in der Textdatei zu bestimmen, um wichtige Themen innerhalb z. B. eines Konversationsprogramms durch Analysieren des empfangenen Audios hinsichtlich bestimmter Marker zu identifizieren. Diese Marker können Veränderungen der Stimme, z. B. laute Stimmen, zwei oder mehr gleichzeitig sprechende Personen, die Verwendung bestimmter Begriffe (z. B. „wichtig”, „zusammenzufassend ...”) usw., repräsentieren. Diese Marker können weitere relevante Teile der Textdatei repräsentieren. Die Audioverarbeitungskomponente könnte für die Textdatei einen Hinweis in dem empfangenen Audio für Instanzen lauterer Stimmen, möglicherweise gleichzeitig sprechenden Personen usw. einfügen.
  • Die Textanalysekomponente 1008 kann einen Index mit Begriffen und einen Zähler für diese Begriffe erstellen, um der Reihenfolge nach den am häufigsten gesprochenen Begriff zu identifizieren. Suchmaschinen führen automatische Indexierung durch, indem sie Text analysieren und speichern, um so einen schnellen und akkuraten Informationsabruf zu ermöglichen. In einem Beispiel führt die Textanalysekomponente eine Volltextindexierung des gesamten empfangenen und umgewandelten Audios durch, um Textdateien mit natürlicher Sprache zu erzeugen, wobei das System jedoch eine Teiltextindexierung durchführen kann, um die Indextiefe zu beschränken und die Indexgröße zu reduzieren. Ein Ziel der Erstellung und Speicherung eines Indexes für die Textdatei liegt darin, die Geschwindigkeit und Leistungsfähigkeit der Analyse von empfangenem Audio zur Erstellung einer Suchabfrage zu verbessern. Ohne einen Index müsste das System unter Umständen die Textdatei für jede durchgeführte Analyse oder Abfrage scannen, was viel Zeit und Rechenleistung erfordern würde. Häufige Begriffe, wie zum Beispiel Artikel (ein, eine, der, die, das), können gefiltert werden und es kann eine Stammformreduktion für Begriffe durchgeführt werden, sodass grammatikalisch ähnliche Begriffe in Gruppen zusammengefasst werden (z. B. alle Verbformen gruppiert werden, wie „springen”, „springt”, „ist gesprungen”). Als Stammformreduktion wird das Verfahren zur Reduktion gebeugter (oder gelegentlich abgeleiteter) Wortformen von ihrem Wortstamm, ihrer Grundform oder Ausgangsform – allgemein einer schriftlichen Wortform – bezeichnet. Der Wortstamm muss mit der morphologischen Ausgangsform des Wortes nicht identisch, sondern die verwandten Wörter müssen nur demselben Wortstamm entsprechen, selbst wenn der Wortstamm selbst keine gültige Ausgangsform ist. Das Stammformreduktionsverfahren ist nicht nur bei der Erstellung von Indizes, sondern auch bei der Erstellung von Abfragen für Suchmaschinen nützlich.
  • Die Textanalysekomponente 1008 kann nicht nur einen Index von gesprochenen Begriffen erstellen, sondern auch einen Zeitpunkt hinzufügen, zu dem diese gesprochen wurden. Wie nachfolgend beschrieben kann mithilfe des Zeitpunkts eine visuelle Oberfläche erstellt werden, um einem Benutzer, z. B. im Laufe eines Audioprogramms, Informationen anzuzeigen, die mit dem empfangenen Audio verknüpft sind. Die Textanalysekomponente kann das System auch bei der Identifizierung von Wortverbindungen unterstützen, indem sie benachbarte Begriffe zu grammatikalischen Wortverbindungen zusammenfasst. Wenn zum Beispiel der Begriff „Lake” (See) zeitlich häufig vor dem Begriff „Erie” auftritt, dann bestimmt das System, dass wahrscheinlich eher der Eigenname „Lake Erie” (Eriesee) als das allgemeine Substantiv „Lake” und der Eigenname „Erie” für eine Stadt gemeint sind. Die Textanalysekomponente kann die Textdatei mit einem Wörterbuch vergleichen, um Eigennamen zu identifizieren, und Eigennamen einen höheren Rang zuzuordnen oder diese anderweitig zu kennzeichnen, um sie wie hierin beschrieben weiterzuverarbeiten. Diese Eigennamen können zum Beispiel die Basis für Abfragen an externe Datenbanken bilden, um zugehörige Informationen abzurufen.
  • Die Textanalysekomponente 1008 kann viele anderen Operationen durchführen, wie hierin beschrieben. Die Textanalysekomponente 1008 kann beispielsweise versuchen, unerwünschte Informationen wie etwa Werbeanzeigen, Sender-Identifikationsnachrichten, öffentliche Broadcast-Nachrichten usw. herauszufiltern oder zu löschen.
  • Die Textanalysekomponente 1008 kann Funktionen zur automatischen Zusammenfassung oder automatischen Auszugserstellung nutzen, um automatisch einen Auszug des empfangenen Audios zu erzeugen. Die automatische Zusammenfassung beinhaltet die Erstellung einer gekürzten Version der Textdatei, entweder durch Extraktions- oder Abstraktionsprozesse, wobei die erstellte Zusammenfassung idealerweise die wichtigsten Elemente des Originaltextes beinhaltet. Extraktionstechniken kopieren lediglich die Informationen, die vom System als am wichtigsten erachtet werden, in die Zusammenfassung (z. B. wichtige Abschnitte, Sätze oder Absätze), während eine Abstraktion eine Paraphrasierung des Textdatei beinhaltet. Bei der Abstraktion wird eine Textdatei im Allgemeinen stärker komprimiert als bei der Extraktion, aber die dazu in der Regel notwendigen Prozesse verwenden typischerweise Technologien zur Erstellung natürlicher Sprache, die eine erhebliche Verarbeitungsleistung erfordern und zu unakzeptablen Ergebnissen führen können.
  • Die Textanalysekomponente 1008 kann die Textdatei analysieren, um zu versuchen, diskrete Audiosegmente zu identifizieren. Die Textanalysekomponente kann zum Beispiel die Textdatei analysieren und nach häufigen Wortverbindungen suchen, die einen Themenwechsel anzeigen, indem sie z. B. nach Textphrasen, wie „damit in Zusammenhang stehend”, „wenden wir uns nun ... zu”, „dies wirft eine weitere Frage auf ...”, und ähnlichen grammatikalischen Konstrukten sucht. Zusätzlich oder alternativ kann die Textanalysekomponente einfach eine statistische Analyse der Wörter in der Textdatei basierend auf deren Reihenfolge und dem Zeitpunkt des Auftretens durchführen, um eine Nutzungshäufigkeit während eines gegebenen Zeitintervalls zu bestimmen, um sich auf ein Thema oder Inhalte zu beziehen, die während des Zeitintervalls behandelt werden. Natürlich können viele andere Textanalysetechniken durchgeführt werden, um Audiosegmente innerhalb der Textdatei automatisch zu identifizieren.
  • Eine Abfrageerstellungskomponente 1010 erhält Informationen von der Textanalysekomponente und erstellt eine Abfrage, die an eine Suchmaschine übermittelt werden kann. In einem Beispiel werden die während eines vorbestimmten Zeitraums am häufigsten gesprochenen Begriffe von dem Mobilgerät über das Netzwerk an die Suchmaschine gesendet, um Informationen abzurufen, die mit den empfangenen Audioinhalten verknüpft sind. Die Abfrageerstellungskomponente kann eine anfängliche Abfrage oder Seed-Abfrage erstellen, indem sie automatisch Überlegungen zur Begriffshäufigkeit aus Anweisungen für natürliche Sprache in der Textdatei verwendet und innerhalb eines gegebenen Zeitraums häufig auftretende Begriffe mithilfe Boole'scher Operatoren und Boole'scher Suchformulierungen kombiniert.
  • Die Abfrageerstellungskomponente kann Abfrageerweiterungstechniken oder ähnliche Techniken durchführen. Als Abfrageerweiterung wird das Verfahren zur Neuformulierung einer Seed-Abfrage zur Verbesserung der Leistung beim Abrufen verknüpfter Informationen bezeichnet. Eine Abfrageerweiterung umfasst die Bewertung einer anfänglichen vom System erstellten Abfrage (welche Wörter wurden ausgewählt, wie z. B. das am häufigsten auftretende Subjektiv oder die am häufigsten auftretende Nominalphrase innerhalb eines Intervalls von zwei Minuten) und die Erweiterung der Suchabfrage, um zu versuchen, zusätzliche Informationen zu erhalten. Eine Abfrageerweiterung beinhaltet Techniken wie zum Beispiel das Finden von Synonymen von Wörtern, Finden aller verschiedenen morphologischen Formen von Wörtern mittels Stammformreduktion der einzelnen Wörter in der Abfrage, automatisches Suchen nach einer korrigierten Form (z. B. für Jargon- und Slang-Wortverbindungen), Neugewichten der Begriffe in der Originalabfrage und Hinzufügen von Kontextinformationen zur Originalabfrage, die nicht in der Originalabfrage enthalten sind.
  • Die Textanalysekomponente 1008 und die Abfrageerstellungskomponente 1010 analysieren die Textdatei oder den empfangenen Audiostream wie zuvor beschrieben und zerlegt sie oder ihn in Inhaltssegmente, die Inhalte des empfangenen Audiosignals repräsentieren, wie etwa einzelne behandelte Themen oder während eines Audioprogramms erwähnte Subjektive, und jedes dieser Inhaltssegmente wird zur Erstellung von einer oder mehreren Abfragen verwendet. Eine Komponente 1012 zur Verarbeitung der zugehörigen Informationen empfängt und verarbeitet dann die zugehörigen Informationen, die vom System abgerufen wurden. In einem Beispiel beinhaltet dies den Empfang der zugehörigen Informationen und die Bereitstellung dieser Informationen auf einer Anzeigevorrichtung, wo sie vom Benutzer angesehen werden können. Eine Komponente 1014 für den Verlauf zugehöriger Informationen protokolliert alle zugehörigen Informationen, die basierend auf einer übermittelten Abfrage empfangen werden. Dies gestattet dem Benutzer, die zugehörigen Informationen später zu einem für den Benutzer passenderen Zeitpunkt durchzusehen. Somit können alle Informationen bezüglich einer Radiosendung, die sich der Benutzer während der Fahrt zu einer Besprechung angehört hat, gespeichert und später vom Benutzer zu einer für ihn passenderen Zeit angesehen werden.
  • Eine Kommunikation- und Routingkomponente 1016 ist für den Empfang und das Weiterleiten von Informationen verantwortlich. Wie zuvor beschrieben kann das Audio über ein Mikrofon oder als Audiodatei über das Netzwerk empfangen werden. Gleichermaßen können zugehörige Informationen auf einem Mobilgerät empfangen und angezeigt oder aber an eine Vorrichtung weitergeleitet werden. Somit kann der Benutzer anfordern, dass das System die zugehörigen Informationen über die Kommunikationskomponente 1016 weiterleitet, um sie auf einer in der Nähe befindlichen Vorrichtung anzuzeigen (z. B. einem PC, einem drahtlosen Bildrahmen, einem Laptop, einer Set-Top-Box eines Fernsehers). Somit kann die Kommunikationskomponenten auf die gespeicherte elektronische Adresse dieser Vorrichtungen (Mobiltelefonnummer, URL, IP-Adresse usw.) zugreifen, um die Weiterleitung der zugehörigen Informationen zu gestatten. Weitere Details zu den Komponenten aus 10 sind hierin, z. B. in den vorstehenden Abschnitten II und III, beschrieben.
  • 11 zeigt eine Routine 1100 zur Verarbeitung von empfangenem Audio. In Schritt 1102 empfängt das System audiobasierte Informationen, etwa live oder voraufgezeichnet, wie vorstehend beschrieben. In Schritt 1104 verarbeitet das System das empfangene Audio vorab, z. B. durch Filterung mittels der Audioverarbeitungskomponente 1004. In Schritt 1106 wandelt das System das Audio zum Beispiel unter Verwendung der Sprache-zu-Text-Komponente 1006 in Text um. In Schritt 1108 führt das System eine Aktion basierend auf den Inhalten des empfangenen Audiostreams aus. Wie hierin beschrieben kann es sich bei der Aktion um eine von vielen verschiedenen handeln.
  • 12 zeigt ein Flussdiagramm, das die in Schritt 1108 ausgeführten Schritte darstellt. In Schritt 1202 identifiziert das System Suchbegriffe zum Beispiel unter Verwendung der Textanalyse und Komponente 1008. In Schritt 1204 führt das System eine Abfrage oder Suche zum Beispiel mithilfe der Abfrageerstellungskomponente 1010 aus. In Schritt 1206 empfängt das System zugehörige Informationen oder Inhalte (z. B. über die Kommunikations- und Routingkomponente 1016). In Schritt 1208 gibt das System die empfangenen und zugehörigen Informationen an eine identifizierte Vorrichtung, wie etwa der Vorrichtung, die die Informationen erfasst hat, zur Anzeige aus. Die Kommunikations- und Routingkomponente 1016 und die Komponente 1012 zur Verarbeitung zugehöriger Informationen leiten die zugehörigen Informationen beispielsweise an das Mobilgerät des Benutzers sowie den Computer des Benutzers weiter.
  • 13 veranschaulicht Benutzeroberflächen zur Anzeige ergänzender Informationen für den Benutzer. Das System kann die Benutzeroberflächen auf einer beliebigen der zuvor beschriebenen Anzeigevorrichtungen anzeigen. Die Komponente 1012 zur Verarbeitung zugehöriger Informationen kann einen grafischen Zeitstrahl 1302 erzeugen, der so segmentiert ist, dass er verschiedene Blöcke von Inhalten anzeigt, die in dem empfangen Audiosignal enthalten sind. In dem Beispiel aus 13 erstreckt sich das Audio von 2:00:00 bis 2:30:00 und repräsentiert ein 30-minütiges Audioprogramm. Ein linker „Zurück”-Pfeil 1304 und ein rechter „Vor”-Pfeil 1306 gestatten dem Benutzer, auf diese Pfeile zu zeigen und zu klicken, um eine grafische Darstellung der vorherigen und nächsten Audioabschnitte anzusehen, wie beispielsweise die vorherigen und nachfolgenden 30 Minuten einer Radiosendung. Wie hierin beschrieben analysiert das System die Textdatei und zerlegt die Textdatei in Inhaltssegmente, die einzelne während des Audioprogramms behandelte Themen oder Inhalte aus dem empfangenen Audio repräsentieren. Jedes dieser Inhaltssegmente entspricht einer oder mehreren von dem System erstellten Abfragen, und zugehörige Informationen werden vom System abgerufen. Jedes der einzelnen Inhaltssegmente wird von angezeigten rechteckigen Segmenten dargestellt, von denen die ersten drei in 13 jeweils als 1310, 1314 und 1318 ausgewiesen sind.
  • Die Komponente 1012 zur Verarbeitung zugehöriger Informationen ruft einen Satz zugehöriger Informationen ab, die von der Komponente 1014 zur Speicherung der Historie von zugehörigen Informationen indexiert und im Speicher gespeichert wurden. In diesem Beispiel wurden als Reaktion auf eine von der Abfrageerstellungskomponente 1010 erstellte Abfrage drei Seiten oder Bildschirme mit zugehörigen Informationen erhalten. Die bereitgestellten zugehörigen Informationen können stark variieren und von einem einfachen Link zu einer Webseite, über ein oder mehrere Seiten, die von einer Webseite kopiert wurden, bis hin zu einer oder mehreren Seiten, die basierend auf den erhaltenen zugehörigen Informationen erstellt wurden, reichen. Die erstellten Seiten können relevante Informationen beinhalten, die von einer oder mehreren Webseiten mit ausgeschnittenen Werbeanzeigen, von mehreren Seiten von Text, der auf eine einzelne Seite aggregiert wurde, von Bildern, die in einen separaten Bereich auf der erstellten Seite konsolidiert wurden, usw. erhalten wurden. Wie in 13 gezeigt beinhaltet jede Seite oder jeder Bildschirm einen Link oder eine URL, der oder die eine Adresse identifiziert, unter der die Seite mit den zugehörigen Informationen gefunden wurde, und die Seite oder der Bildschirm gestattet dem Benutzer, auf den Link zu klicken und dadurch zu dieser Seite zu gelangen. Die Seiten 1312 beinhalten auch Text und Bilder, die mithilfe der Abfrage erhalten wurden.
  • Gleichermaßen entspricht das zweite Audiosegment 1314 einer einzelnen Seite 1316 von Text, während das dritte Segment 1318 sechs abgerufenen und gespeicherten Seiten mit Inhalt 1320 entspricht, die jeweils über einen Link, Text und Bilder verfügen. Linien, die sich von der Unterseite der einzelnen Sätze gestapelter Seiten erstrecken und in einem entsprechenden Audiosegment zusammenlaufen, zeigen visuell an, welcher Seitenstapel mit dem jeweiligen Audiosegment verknüpft ist. Auch wenn dies nicht dargestellt ist, kann jedes Audiosegment die Suchabfrage beinhalten, die von der Abfrageerstellungskomponente 310 erstellt wurde, um dem Benutzer zu helfen, das Thema von jedem Audiosegment leicht zu bestimmen. Wenn also ein Schlüsselbegriff in der Abfrage „Brahms” lautete, dann wird das mit dieser Abfrage verknüpfte, angezeigte Audiosegment so bezeichnet.
  • Um den Benutzer weiter zu unterstützen, kann die Komponente 1012 zur Verarbeitung von zugehörigen Informationen einen Index 1322 erzeugen, der den gespeicherten zugehörigen Informationen entspricht. Wie dargestellt repräsentiert der Index eine Liste oder Tabelle aller Audiosegmente und entsprechenden zugehörigen Informationen, die empfangen und gespeichert wurden. Daher entspricht das erste Audiosegment einer ersten Zeit <Zeit 1>, gefolgt von einer Beschreibung dieser Inhalte <Beschreibung 1>, wie etwa der Abfrage, gefolgt von einer Liste der zugehörigen erhaltenen Informationen <RelatedlnfoList 1>. Ähnliche Einträge im Index sind auch für jedes nachfolgende Audiosegment zu finden, wie beispielsweise <Zeit 2>, <Beschreibung 2> und <RelatedlnfoList 2>.
  • Anstatt das empfangene Audiosignal zu speichern und später anzusehen, wie in 13 gezeigt, kann es unmittelbar zum Zeitpunkt der Audioerzeugung empfangen werden, wie z. B. während einer Vorlesung oder Live-Radiosendung, wodurch das System zugehörige Informationen zeitgleich zur Anzeige für den Benutzer bereitstellen kann. In diesem Fall können die dem Benutzer angezeigten zugehörigen Informationen minimal sein. Zum Beispiel kann eine Radiosendung sich mit den aktuellen Unruhen in der Welt befassen und dabei das afrikanische Land Darfür erwähnen. Das System kann dann einen Link zu Inhalten auf einer Wikipedia-Seite zu Darfur bereitstellen oder Inhalte von dieser Seite abrufen, aber die Verlaufskomponente speichert zusätzliche zugehörige Informationen zur späteren Betrachtung. Dadurch kann der Benutzer zum Beispiel die Wikipedia-Seite zu Darfur während der Radiosendung über das Mobilgerät des Benutzers anzeigen, aber später, z. B. abends, zu seinem persönlichen Computer gehen und mehrere Seiten über Darfur ansehen, die von der Verlaufskomponente gespeichert wurden.
  • Natürlich kann es zu Latenzen zwischen dem empfangenen Audio und den resultierenden zugehörigen Informationen kommen, die dem Benutzer präsentiert werden. In einigen Fällen erkennt das System diese Latenzen und stellt dem Benutzer Feedback zur Verfügung, um anzuzeigen, wie groß die Verzögerung unter Umständen ist. In einigen Fällen speichert das System das empfangene Audio in einem Zwischenspeicher, um die Verzögerung zu minimieren und die Präsentation des Audiosignals mit den präsentierten Informationen zu synchronisieren.
  • Bei live oder in Echtzeit empfangenem Audio hat die Komponente zur Verarbeitung zugehöriger Informationen möglicherweise nicht genug Zeit, um Audioinhalte akkurat zu disambiguieren oder zu aggregieren, wie in 13 dargestellt. Ursächlich dafür könnten Verarbeitungsbeschränkungen des Mobilgeräts, Zeitbeschränkungen, der Umfang des empfangenen Audios und darin enthaltenen Audioinhalten, ein zu großer Verarbeitungsaufwand bei der Verarbeitung von Audiodaten, um Text zu extrahieren (z. B. aufgrund einer sehr lauten Umgebung mit mehreren sprechenden Personen und Hintergrundmusik), usw. sein. Infolgedessen kann das System das empfangene Audio einfach in periodische Segmente, wie z. B. zweiminütige Segmente, segmentieren und eine einzelne Seite mit zugehörigen Informationen bereitstellen, die mit dem Begriff oder der Wortverbindung verknüpft sind, der oder die während dieses Segments am häufigsten interpretiert wurde. Der Benutzer kann die Möglichkeit haben, die Segmentierung des empfangenen Audios zu verlangsamen oder zu beschleunigen und somit die Rate einzustellen, mit der die zugehörigen Informationen dem Benutzer bereitgestellt werden. Nur wenige zugehörige Informationen werden in diesem Beispiel einer zeitgleichen Anzeige bereitgestellt, da die Informationen möglicherweise nicht in Zusammenhang mit den Audioinhalten stehen oder unwichtig für den Benutzer sind.
  • Der Benutzer kann die Möglichkeit haben, einen Merker in dem System zu setzen, der eine von mehreren Funktionen haben kann. Der Merker kann das System anweisen, weitaus mehr zugehörige Informationen als üblich zu den Inhalten des empfangenen Audios bereitzustellen. Ein anderer Merker kann einfach als Lesezeichen oder visueller Indikator dienen, der dem Benutzer angezeigt wird. In dem Beispiel aus 13 kann eines der Audiosegmente rot oder gelb hervorgehoben werden, um den Merker des Benutzers anzuzeigen, oder der Merker könnte mit dem kompletten Audioprogramm selbst verknüpft sein.
  • Ein anderer Merker könnte mit dem Kauf eines Elements, das in dem empfangenen Audio identifiziert wurde, verknüpft sein. Wenn in einer Radiosendung beispielsweise ein Buch erwähnt wird, kann der Benutzer dem Mobilgerät eine Eingabe bereitstellen, über die automatisch eine Kopie des erwähnten Buches bestellt wird, z. B. über das Amazon.com-Konto des Benutzers. Ein anderer Merker kann das System anweisen, eine Benachrichtigung an den Benutzer zu senden, wenn ein Nachfolgeartikel oder ein anderes Medium (z. B. Audiostream) zu denselben Audioinhalten verfügbar ist. Dies würde einem Benutzer gestatten, einem Bericht zu folgen und nachfolgende Ereignisse zu entdecken.
  • Merker können auch zur Ausführung anderer Aktionen bereitgestellt werden. Ein Merker kann das System beispielsweise dazu veranlassen, automatisch eine Benachrichtigung an den Benutzer zu senden (per E-Mail, SMS, Voicemail usw.), um anzuzeigen, wann ein Fernsehprogramm zu den Audioinhalten ausgestrahlt wird, und ein anderer Merker kann das System dazu veranlassen, eine Set-Top-Box oder einen digitalen Videorekorder anzuweisen, das Programm aufzuzeichnen.
  • Der Benutzer kann Standardwerte und Präferenzen eingeben. Der Benutzer kann beispielsweise festlegen, dass die zugehörigen Informationen von einer spezifischen Quelle stammen oder in einem spezifischen Format vorliegen müssen (z. B. wenn verfügbar, alle öffentlichen Fernsehinhalte bereitstellen, die mit den Audioinhalten verknüpft sind).
  • Viele alternative oder zusätzliche Prozesse können genutzt werden, um die Leistung des Systems zu verbessern. Um beispielsweise die Audioverarbeitung weiter zu verbessern, kann das System versuchen, die „beste” Audioversion aufzufinden. Falls der Benutzer zum Beispiel zu einer bestimmten Uhrzeit und Tageszeit den Sender National Public Radio hört, kann das System auf eine Datei oder einen Audiostream für das Audioprogramm unter www.npr.org zugreifen. Mit diesem Audio kann das System in der Lage sein, Sprache wesentlich genauer in Text umwandeln.
  • Falls das System Zugriff auf einen Videofeed hat, dass die Lippen eines Sprechers zeigt, wie es beispielsweise bei einer Fernsehsendung der Fall sein kann, kann das System die Umwandlung von Sprache in Text durch Durchführung automatischen Lippenlesens verbessern, um dabei zu helfen, die Umwandlung von Sprache in Text zu verbessern.
  • Die Textanalysekomponente 1008 (und/oder die Sprache-zu-Text-Komponente) kann Kontextinformationen analysieren, um eine bessere Textanalyse (oder Umwandlung von Sprache zu Text) zu verbessern. Somit kann das System eine Zeit analysieren, die mit dem empfangenen Audio verknüpft ist, und diese Zeit mit einem Kalendereintrag eines Kalenders oder Planungsprogramms vergleichen, um zu identifizieren, worauf sich das Audio möglicherweise bezieht. Wenn im Kalender des Benutzers angezeigt wird, dass der Benutzer zum Zeitpunkt des Empfangs des Audios auf dem Weg zu einer Besprechung war, dann kann das System annehmen, dass der Benutzer in seinem Fahrzeug saß und Radio hörte, während er zur Besprechung gefahren ist. Dies stünde im Gegensatz zu einem Kalender, der anzeigt, dass der Benutzer eine Vorlesung zum Thema Literatur der Maya besucht hat. Die Textanalysekomponente kann auch Standortinformationen abrufen, die zeigen, dass sich der Benutzer mit einer Geschwindigkeit von 60 Meilen pro Stunde bewegt hat, was ferner darauf hindeutet, dass der Benutzer mit seinem Fahrzeug unterwegs war. Standortinformationen können ebenfalls verwendet werden, um zu bestimmen, dass sich der Benutzer an der University of Washington aufhielt, was wiederum darauf hindeuten kann, dass der Benutzer die Vorlesung zum Thema Literatur der Maya besuchte. Bei Konflikten, z. B. einem Konflikt zwischen einem lokalen Kalender auf dem Mobilgerät des Benutzers und einem entfernten Kalender, der anderswo gespeichert ist, hat der mobile Kalender Vorrang.
  • In einem anderen Beispiel kann das System anhand des Kalenders des Benutzers bestimmen, dass der Benutzer zu einem gegebenen Zeitpunkt an einem gegebenen Ort an einer Medizinvorlesung teilnehmen sollte. Wenn ein Zeitstempel und geografische Koordinaten oder ähnliche Metadaten anzeigen, dass sich der Benutzer zur geplanten Zeit am vordefinierten Ort befindet, nimmt das System mit hoher Wahrscheinlichkeit an, dass sich der Benutzer in der Medizinvorlesung befindet. Infolgedessen kann das System ein medizinisches Wörterbuch als Hilfe nutzen, um die Sprache besser in Text umzuwandeln.
  • Wie zuvor beschrieben versucht das System automatisch, die Textdatei zu disambiguieren und wichtige Inhalte darin zu identifizieren. Wenn der Text beispielsweise den Begriff „Mission” neben dem Begriff „Impossible” beinhaltet, der wiederum in der Nähe des Begriffs „Film” steht, dann nimmt das System eine hohe Wahrscheinlichkeit dafür an, dass sich der Sprecher auf den Film „Mission Impossible” bezieht. Daher kann die Abfrageerstellungskomponente zugehörige Informationen zum Film Mission Impossible abrufen, möglicherweise mit Vorführungszeiten und Standorten von Kinos in der Nähe des derzeitigen Aufenthaltsorts des Benutzers. Tatsächlich kann das System versuchen, die Inhalte eines empfangenen Audios zu akkumulieren und sie auf Kontextinformationen bezüglich des Standorts des Benutzers und einen Vektor oder ein Muster vor und nach einem Zeitstempel des empfangenen Audios anwenden. Falls sich der Benutzer für zwei Stunden am Standort seines Büros befand, sich dann mit einer durchschnittlichen Geschwindigkeit von 30 Meilen pro Stunde von seinem Büro wegbewegt hat, um dann an einem Standort zu verweilen, der einer Adresse eines Kunden im privaten Telefonbuch des Benutzers entspricht, nimmt das System mit hoher Wahrscheinlichkeit an, dass der Benutzer eine Kundenbesprechung hat und das das empfangene Audio aus einer Besprechung mit dem Kunden stammt, auch wenn in dem Kalender keine derartige Besprechung aufgeführt ist.
  • Eine Bewegung des Mobilgeräts kann zur Durchführung bestimmter Aktionen führen. Wenn der Benutzer ein Buch auf einem Laptop oder digitalen Lesegerät (z. B Amazon Kindle) liest und das System erkennt, dass sich der Benutzer von seinem Haus zu seinem Fahrzeug bewegt hat und losfährt, dann kann das System das Audiosystem im Fahrzeug anweisen, das Buch in Audioform wiederzugeben. Dies kann erreicht werden, indem das Mobilgerät eine Audiokopie des Buchs lokal oder in dem Netzwerk lokalisiert und sie über eine drahtlose Verbindung einer Head-End-Audioeinheit im Fahrzeug bereitstellt. Alternativ kann das Mobilgerät den Text von einer Textversion des Buches in Sprache umwandeln und ihn über die Lautsprecher/Bluetooth-Verbindung/Audiobuchse des Mobilgeräts ausgeben oder ihn der Head-End-Einheit im Fahrzeug bereitstellen usw. Das System könnte automatisch nach ähnlichen Kontextwechseln suchen, etwa wenn das Buch oder der Artikel, den der Benutzer gerade gelesen hat, nun auf einem oder mehreren Kanälen oder Radiosendern/Satellitenkanälen im Fahrzeug des Benutzers, in einem Fernsehprogramm usw. verfügbar ist.
  • Die Abfragekomponente kann eine Hierarchie von Datenabfragen und Funktionen zum Abrufen zugehöriger Informationen implementieren, um die Wahrscheinlichkeit zu verbessern, dass die zugehörigen Informationen tatsächlich im Zusammenhang mit dem empfangenen Audio stehen und von Interesse für den Benutzer sind. Wenn also in einer Radiosendung ein Buch erwähnt wird, kann die Abfragekomponente zugehörige Informationen bezüglich des Autors des Buchs, Leitartikel oder Kritiken zu Arbeiten, die der Autor geschrieben hat, vom Sender bereitgestellte Informationen (wie vorstehend erwähnt) und infolge des Programms bereitgestellte oder erstellte Informationen abrufen. Derartig erstellte Inhalte können in Form von einem Diskussionsforum, zusätzlichen Call-In-Informationen, einem offenen Forum und anderen Audioinformationen sowie textbasierten Informationen vorliegen, die über das Internet verfügbar sind, wie etwa Blogs, RSS-Feeds, Twitter-Beiträge oder andere Versionen eines Buches, Artikels oder einer Publikation, die im empfangenen Audio erwähnt werden.
  • Auf ähnliche Weise kann das System bei der automatischen Erstellung von Beiträgen für den Benutzer helfen, sodass der Benutzer seinen eigenen Hauptkanal veröffentlichen kann, über den er seine eigene Sichtweise oder Beiträge bezüglich der Audioinhalte wiedergeben kann. So kann der Benutzer automatisch per Blog, Twitter, Einwahl, Podcasts usw. Inhalte einstellen, die das System automatisch empfangen und mithilfe der Verlaufskomponente gespeichert hat. Verschiedene Benutzer, die dieses System nutzen, können dann über eine Social-Networking-Community miteinander verbunden werden, sodass sie die jeweiligen Beiträge der anderen auf ihrem eigenen „Kanal” bewerten oder darüber abstimmen können, Informationen auf den Kanälen der anderen hinzufügen oder korrigieren können und dazu beitragen können, Empfehlungen für die Benutzer zu erstellen, deren Inhalte mehr Stimmen erhalten, von Dritten weniger bearbeitet werden usw.
  • Wie vorstehend beschrieben kann das System versuchen, die beste Version des empfangenen Audios zu identifizieren. Wenn das System keine Bestimmung anhand des Kontextes (z. B. dem Standort des Benutzers, der Bewegung des Benutzers, der Tageszeit, Kalendereinträge usw.) vornehmen kann, dann kann das System versuchen, die beste Audioversion anhand von Muster in dem Audio zu identifizieren, die mit den Muster in gespeicherten Audiodateien verglichen werden können. Die Audiomuster können Muster von ruhigen Stellen und deren Zeiten, Änderungen im Dynamikbereich des Audios usw. darstellen, die einer einfachen Analyse einer Audiodatei entsprechen, um ein im Wesentlichen eindeutige „Signatur” für dieses Audio zu erstellen. Daher ist keine komplizierte Umwandlung von Sprache in Text notwendig und nur ein kleiner Teil des Audiosignals muss tatsächlich analysiert werden. Anhand dieser Signatur kann das System die berechnete Signatur mit einer Datenbank von Signaturen vergleichen, wobei die Datenbank eine Tabelle von Signaturen und zugehörigen Audiodateien beinhaltet. Falls eine Übereinstimmung gefunden wird, kann das System anschließend auf diese kurze Audiodatei zugreifen und eine Umwandlung von Sprache in Text oder eine andere hierin beschriebene Verarbeitung durchführen, anstatt zu versuchen, eine solche Analyse basierend auf einer geräuschvolleren empfangenen Audioversion mit einer geringeren Wiedergabetreue durchzuführen.
  • Schlussfolgerung
  • Die vorherige detaillierte Beschreibung von Ausführungsformen und Beispielen des Systems soll nicht vollständig sein oder das System auf die exakten, vorstehend offenbarten Formen beschränken. Obwohl vorstehend spezifische Ausführungsformen und Beispiele für das System zu Veranschaulichungszwecken beschrieben sind, sind, wie der Fachmann auf dem relevanten Gebiet erkennen wird, verschiedene äquivalente Modifikationen innerhalb des Schutzumfangs des Systems möglich. Als ein Beispiel können alternative Ausführungsformen, obwohl Prozesse und Blöcke in einer gegebenen Reihenfolge dargestellt sind, in einer anderen Reihenfolge Routinen durchführen, die Schritte aufweisen, oder Systeme verwenden, die Blöcke aufweisen, und einige Prozesse oder Blöcke können entfernt, verschoben, hinzugefügt, unterteilt, kombiniert und/oder verändert werden. Jeder dieser Prozesse oder Blöcke kann in einer Reihe unterschiedlicher Weisen implementiert sein. Zudem können, obwohl Prozesse oder Blöcke gelegentlich als der Reihe nach durchgeführt gezeigt sind, diese Prozesse oder Blöcke stattdessen parallel durchgeführt werden oder können zu unterschiedlichen Zeiten durchgeführt werden.
  • Auch wenn viele der zuvor beschriebenen Ausführungsformen und Beispiele Software verwenden, die auf greifbaren Speichermedien innerhalb eines Mobilgeräts oder eines anderen Computersystems gespeichert ist, können Anwendungen und Prozesse in den Computersystemen hartcodiert sein (z. B. gespeichert in EEPROM, PROM usw.).
  • Die hierin bereitgestellten Lehren des Systems können auf andere Systeme angewendet werden, bei denen es sich nicht notwendigerweise um das vorstehend beschriebene System handelt. Die Elemente und Handlungen der verschiedenen vorstehend beschriebenen Ausführungsformen können kombiniert werden, um weitere Ausführungsformen bereitzustellen.
  • Alle der vorstehenden Patente und Anwendungen und andere Referenzen, einschließlich aller, die in zugehörigen Anmeldedokumenten aufgeführt sind, sind durch Verweise hierin einbezogen. Aspekte des System können, falls nötig, verändert werden, um die Systeme, Funktionen und Konzepte der verschiedenen vorstehend beschriebenen Bezugnahmen zu verwenden, um noch weitere Ausführungsformen des Systems bereitzustellen.
  • Diese und andere Änderungen können an dem System angesichts der vorherigen detaillierten Beschreibung vorgenommen werden. Obwohl die vorstehende Beschreibung bestimmte Ausführungsformen des Systems verdeutlicht und den besten erwogenen Modus beschreibt, kann das System unabhängig davon, wie detailliert das Vorstehende in Textform erscheint, auf viele Arten umgesetzt werden. Dementsprechend umfasst der tatsächliche Schutzumfang des Systems nicht nur die offenbarten Ausführungsformen, sondern auch alle äquivalenten Möglichkeiten zur Ausführung oder Umsetzung des Systems nach den Ansprüchen.
  • Während bestimmte Aspekte des Systems nachfolgend in bestimmten Anspruchsformen präsentiert werden, betrachten die Erfinder die verschiedenen Aspekte des Systems in beliebiger Anzahl von Anspruchsformen. Während zum Beispiel nur ein Aspekt des Systems als in einem computerlesbaren Medium ausgeführt aufgezählt wird, können andere Aspekte ebenso in einem computerlesbaren Medium ausgeführt sein. Dementsprechend behalten sich die Erfinder das Recht vor, nach Einreichen der Anmeldung zusätzliche Ansprüche hinzuzufügen, um solche zusätzlichen Anspruchsformen für andere Aspekte des Systems zu verfolgen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE-1394 [0301]

Claims (12)

  1. Computerlesbares Medium, dessen Inhalte ein oder mehrere erste Computervorrichtungen, die jeweils einen Prozessor und einen Speicher beinhalten, veranlassen, relevante Informationen bereitzustellen, wobei die Inhalte Folgendes umfassen: die wiederholte automatische Ausführung von folgenden Aktionen durch mindestens eine der einen oder mehreren ersten Computervorrichtungen, während vom Benutzer bereitgestellter Text empfangen wird: Überwachen (510) des empfangenen Textes; Auswählen (515) von einem Teil des Textes; Erstellen (520) einer Abfrage basierend auf mindestens einem Teil des ausgewählten Teils des Textes; Auswählen (525) von mindestens einem Index für die Suche; Übermitteln (530), ohne spezifische Aufforderung zur Übermittlung durch den Benutzer, der Abfrage an mindestens eine von einer oder mehreren zweiten Computervorrichtungen, die basierend auf mindestens einem Teil des ausgewählten Index ausgewählt wurden; Empfangen (535) von Informationen, die relevant für die Abfrage sind, von mindestens einer der einen oder mehreren zweiten Computervorrichtungen; und Anzeigen (540) der relevanten Informationen durch mindestens eine der einen oder mehreren ersten Computervorrichtungen.
  2. Computerlesbares Medium nach Anspruch 1. wobei das Empfangen von Text, der vom Benutzer bereitgestellt wird, das Empfangen von Text beinhaltet, der vom Benutzer im Rahmen der Erstellung eines Dokuments bereitgestellt wird.
  3. Computerlesbares Medium nach Anspruch 1 oder 2, wobei das Empfangen von Text, der durch den Benutzer bereitgestellt wird, das Empfangen von Text beinhaltet, der optisch von dem einen oder den mehreren ersten Computervorrichtungen erfasst wird.
  4. Computerlesbares Medium nach einem der Ansprüche 1 bis 3, wobei das Erstellen der Abfrage zumindest teilweise basierend auf den ausgewählten Teil des Textes ein Erstellen einer Abfrage beinhaltet, die andere Wörter als die im ausgewählten Teil des Textes enthaltenen Wörter beinhaltet.
  5. Computerlesbares Medium nach einem der Ansprüche 1 bis 4, wobei das Erstellen der Abfrage zumindest teilweise basierend auf dem ausgewählten Teil des Textes ein Erstellen einer ersten Abfrage, die mit dem ausgewählten Teil des Textes verknüpft ist, und ein Erstellen einer zweiten Abfrage, die mit dem Text verknüpft ist, der den ausgewählten Teil des Textes umgibt, beinhaltet.
  6. Computerlesbares Medium nach einem der Ansprüche 1 bis 5, wobei das Auswählen eines Teils des Textes ein optisches Erfassen von Text, der auf einem wiedergegebenen Dokument gedruckt ist, durch die eine oder die mehreren ersten Computervorrichtungen beinhaltet; und wobei das Erstellen einer Abfrage zumindest teilweise basierend auf dem ausgewählten Teil des Textes ein Identifizieren des wiedergegebenen Dokuments aus dem erfassten Text und ein Erstellen der Abfrage zumindest teilweise basierend auf dem identifizierten Dokument beinhaltet.
  7. Computerlesbares Medium nach einem der Ansprüche 1 bis 6, wobei der Text einen Satz beinhaltet und wobei das Auswählen eines Teils des Textes ein Identifizieren mehrerer Komponenten des Satzes und ein Auswählen von mindestens einer der mehreren Komponenten als den ausgewählten Teil des Textes beinhaltet.
  8. Computerlesbares Medium, dessen Inhalte eine oder mehrere erste Computervorrichtungen veranlassen, eine Bereitstellung relevanter Informationen durchzuführen, umfassend: Überwachen (510) von empfangenem Text; Auswählen (515) eines Teils des Textes; Erstellen (520) einer Abfrage zumindest teilweise basierend auf dem ausgewählten Teil des Textes; Auswählen (525) von mindestens einem Index für die Suche; Übermitteln (530), ohne eine spezifische Aufforderung zur Übermittlung erhalten zu haben, der Abfrage an mindestens eine von einer oder mehreren zweiten Computervorrichtungen, die zumindest teilweise basierend auf dem ausgewählten Index ausgewählt werden; Empfangen (535) von Informationen, die relevant für die Abfrage sind, von der mindestens einen der einen oder mehreren zweiten Computervorrichtungen; und Bereitstellen (540) der zweiten Informationen durch die Informationsausgabevorrichtung der mindestens einen der einen oder mehreren ersten Computervorrichtungen.
  9. Computerlesbares Medium nach Anspruch 8, wobei der Text von einer Wortverarbeitungsanwendung empfangen wird.
  10. System in einem Mobilgerät zur Interaktion mit einer elektronischen Inhaltsquelle, wobei das System dafür angepasst ist, dass es während des Empfangens von Text, der von einem Benutzer bereitgestellt wird, wiederholt automatisch Operationen durchzuführen, die Folgendes umfassen: Überwachen (510) des Textes; Auswählen (515) eines Teils des empfangenen Textes ohne Benutzerinteraktion mit dem Teil des empfangenen Textes; Erstellen (520) einer Abfrage zumindest teilweise basierend auf dem ausgewählten Teil des Textes; Auswählen (525) von mindestens einem Index für die Suche; Übermitteln (530), ohne spezifische Aufforderung zur Übermittlung durch den Benutzer, der Abfrage an mindestens eine von einer oder mehreren zweiten Computervorrichtungen, die zumindest teilweise basierend auf dem ausgewählten Index ausgewählt werden; Empfangen (535) von Informationen, die relevant für die Abfrage sind, von mindestens einer der einen oder mehreren zweiten Computervorrichtungen; und Anzeigen (540) der relevanten Informationen durch mindestens eine der einen oder mehreren ersten Computervorrichtungen.
  11. System nach Anspruch 10, ferner umfassend: eine optische Erfassungskomponente, wobei die optische Erfassungskomponente programmiert ist, unter Verwendung einer Abbildungskomponente des Mobilgeräts Informationen aus einem wiedergegebenen Dokument zu erfassen; eine Dokumentidentifikationskomponente, wobei die Dokumentidentifikationskomponente programmiert ist, das wiedergegebene Dokument basierend auf den erfassten Informationen zu identifizieren; und eine Inhaltsidentifikationskomponente, wobei die Inhaltsidentifikationskomponente programmiert ist, als Reaktion auf von der Dokumentidentifikationskomponente empfangene Informationen, die angeben, dass das wiedergegebene Dokument identifiziert wurde, eine Inhaltsquelle, die mit dem identifizierten wiedergegebenen Dokument verknüpft ist, automatisch zu identifizieren.
  12. System nach Anspruch 11, ferner umfassend: eine Inhaltsquellenkomponente, wobei die Inhaltsquellenkomponente programmiert ist, die identifizierte Inhaltsquelle basierend auf von einem Benutzer des Mobilgeräts empfangenen Eingaben zu aktualisieren.
DE202010018551.3U 2009-03-12 2010-03-12 Automatische Bereitstellung von Inhalten, die mit erfassten Informationen, wie etwa in Echtzeit erfassten Informationen, verknüpft sind Expired - Lifetime DE202010018551U1 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US15975709P 2009-03-12 2009-03-12
US61/159,757 2009-03-12
US18427309P 2009-06-04 2009-06-04
US61/184,273 2009-06-04
US30157610P 2010-02-04 2010-02-04
US30157210P 2010-02-04 2010-02-04
US61/301,576 2010-02-04
US61/301,572 2010-02-04

Publications (1)

Publication Number Publication Date
DE202010018551U1 true DE202010018551U1 (de) 2017-08-24

Family

ID=42729159

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202010018551.3U Expired - Lifetime DE202010018551U1 (de) 2009-03-12 2010-03-12 Automatische Bereitstellung von Inhalten, die mit erfassten Informationen, wie etwa in Echtzeit erfassten Informationen, verknüpft sind

Country Status (5)

Country Link
US (1) US8990235B2 (de)
EP (1) EP2406767A4 (de)
CN (1) CN102349087B (de)
DE (1) DE202010018551U1 (de)
WO (3) WO2010105246A2 (de)

Families Citing this family (508)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US9310892B2 (en) * 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US20120150888A1 (en) * 2003-09-10 2012-06-14 Geoffrey Hyatt Method and system for relationship management and intelligent agent
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US20100185538A1 (en) * 2004-04-01 2010-07-22 Exbiblio B.V. Content access with handheld document data capture devices
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US20100092095A1 (en) * 2008-10-14 2010-04-15 Exbiblio B.V. Data gathering in digital and rendered document environments
US20110075228A1 (en) * 2004-12-03 2011-03-31 King Martin T Scanner having connected and unconnected operational behaviors
US7788266B2 (en) 2005-08-26 2010-08-31 Veveo, Inc. Method and system for processing ambiguous, multi-term search queries
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8874477B2 (en) 2005-10-04 2014-10-28 Steven Mark Hoffberg Multifactorial optimization system and method
GB2431793B (en) * 2005-10-31 2011-04-27 Sony Uk Ltd Image processing
EP3822819A1 (de) 2006-04-20 2021-05-19 Veveo, Inc. Benutzerschnittstellenverfahren und systeme zur auswahl und darstellung von inhalt auf der basis von benutzernavigation sowie auswahlaktionen in zusammenhang mit dem inhalt
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
EP2067119A2 (de) 2006-09-08 2009-06-10 Exbiblio B.V. Optische scanner, zum beispiel tragbare optische scanner
US9235573B2 (en) * 2006-10-10 2016-01-12 Abbyy Infopoisk Llc Universal difference measure
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8775454B2 (en) 2008-07-29 2014-07-08 James L. Geer Phone assisted ‘photographic memory’
US9128981B1 (en) 2008-07-29 2015-09-08 James L. Geer Phone assisted ‘photographic memory’
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
EP2370911A1 (de) * 2008-12-02 2011-10-05 Telefonaktiebolaget LM Ericsson (publ) System und verfahren zur abstimmung von entitäten
US8326270B2 (en) * 2009-02-02 2012-12-04 Lemi Technology, Llc Optimizing operation of a radio program
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
EP2406767A4 (de) 2009-03-12 2016-03-16 Google Inc Automatische bereitstellung von mit erfassten informationen, z. b. in echtzeit erfassten informationen, assoziierten inhalten
US8843476B1 (en) * 2009-03-16 2014-09-23 Guangsheng Zhang System and methods for automated document topic discovery, browsable search and document categorization
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US8489685B2 (en) 2009-07-17 2013-07-16 Aryaka Networks, Inc. Application acceleration as a service system and method
US8909683B1 (en) 2009-07-17 2014-12-09 Open Invention Network, Llc Method and system for communicating with internet resources to identify and supply content for webpage construction
US8773589B2 (en) * 2009-07-24 2014-07-08 Digimarc Corporation Audio/video methods and systems
US11093544B2 (en) * 2009-08-13 2021-08-17 TunesMap Inc. Analyzing captured sound and seeking a match for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content
US8217251B2 (en) * 2009-09-28 2012-07-10 Lawrence E Anderson Interactive display
US11122009B2 (en) * 2009-12-01 2021-09-14 Apple Inc. Systems and methods for identifying geographic locations of social media content collected over social networks
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US8698845B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8423351B2 (en) * 2010-02-19 2013-04-16 Google Inc. Speech correction for typed input
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
EP2539865A4 (de) 2010-02-26 2014-12-17 Mmodal Ip Llc Abgleich klinischer daten als teil einer anwendung zur erzeugung von berichten
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9052926B2 (en) 2010-04-07 2015-06-09 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9513801B2 (en) 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US20110251837A1 (en) * 2010-04-07 2011-10-13 eBook Technologies, Inc. Electronic reference integration with an electronic reader
US9508011B2 (en) * 2010-05-10 2016-11-29 Videosurf, Inc. Video visual and audio query
US9311708B2 (en) 2014-04-23 2016-04-12 Microsoft Technology Licensing, Llc Collaborative alignment of images
US9413477B2 (en) 2010-05-10 2016-08-09 Microsoft Technology Licensing, Llc Screen detector
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US9100899B2 (en) * 2010-05-14 2015-08-04 Qualcomm Incorporated Apparatus and method for mobile search based on search triggers
US8994311B1 (en) * 2010-05-14 2015-03-31 Amdocs Software Systems Limited System, method, and computer program for segmenting a content stream
US8434134B2 (en) 2010-05-26 2013-04-30 Google Inc. Providing an electronic document collection
US9786268B1 (en) * 2010-06-14 2017-10-10 Open Invention Network Llc Media files in voice-based social media
US8495113B2 (en) * 2010-06-15 2013-07-23 International Business Machines Corporation Incorporating browser-based find functionality into customized webpage displays
US8577973B2 (en) * 2010-06-30 2013-11-05 International Business Machines Corporation Accelerated micro blogging using correlated history and targeted item actions
US8924198B2 (en) * 2010-07-26 2014-12-30 Radiant Logic, Inc. Searching and browsing of contextual information
US8732697B2 (en) * 2010-08-04 2014-05-20 Premkumar Jonnala System, method and apparatus for managing applications on a device
US20120047247A1 (en) * 2010-08-18 2012-02-23 Openwave Systems Inc. System and method for allowing data traffic search
CN102375866B (zh) * 2010-08-24 2013-04-03 腾讯科技(深圳)有限公司 一种转播消息呈现方法和系统
US9852732B2 (en) * 2010-10-07 2017-12-26 Avaya Inc. System and method for near real-time identification and definition query
US8869055B1 (en) * 2010-10-29 2014-10-21 Amazon Technologies, Inc. Universal item locator and acquisition tool
US8977979B2 (en) * 2010-12-06 2015-03-10 International Business Machines Corporation Social network relationship mapping
US9253304B2 (en) * 2010-12-07 2016-02-02 International Business Machines Corporation Voice communication management
US9928523B2 (en) * 2010-12-10 2018-03-27 Excalibur Ip, Llc System and method for booking an advertisement to an impression using a targeting dimension dictionary
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
WO2012094564A1 (en) * 2011-01-06 2012-07-12 Veveo, Inc. Methods of and systems for content search based on environment sampling
KR101901842B1 (ko) 2011-01-18 2018-09-27 에이치에스엔아이 엘엘씨 미디어 데이터에 있는 아이템을 인식하고 이와 관련된 정보를 전달하기 위한 시스템 및 방법
AU2011200696B2 (en) * 2011-02-17 2014-03-06 Canon Kabushiki Kaisha Method, apparatus and system for rating images
US9338215B2 (en) 2011-03-14 2016-05-10 Slangwho, Inc. Search engine
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
AU2012236649A1 (en) * 2011-03-28 2013-10-31 Ambientz Methods and systems for searching utilizing acoustical context
JP2014520297A (ja) * 2011-04-25 2014-08-21 ベベオ,インク. 高度な個人的時刻表アシスタントのためのシステムよび方法
US20120278078A1 (en) * 2011-04-26 2012-11-01 Avaya Inc. Input and displayed information definition based on automatic speech recognition during a communication session
US8621548B2 (en) 2011-05-12 2013-12-31 At&T Intellectual Property I, L.P. Method and apparatus for augmenting media services
US20120290926A1 (en) * 2011-05-12 2012-11-15 Infinote Corporation Efficient document management and search
US20120296652A1 (en) * 2011-05-18 2012-11-22 Sony Corporation Obtaining information on audio video program using voice recognition of soundtrack
US8584167B2 (en) 2011-05-31 2013-11-12 Echostar Technologies L.L.C. Electronic programming guides combining stored content information and content provider schedule information
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8185448B1 (en) 2011-06-10 2012-05-22 Myslinski Lucas J Fact checking method and system
US9015037B2 (en) 2011-06-10 2015-04-21 Linkedin Corporation Interactive fact checking system
US9176957B2 (en) 2011-06-10 2015-11-03 Linkedin Corporation Selective fact checking method and system
US9087048B2 (en) 2011-06-10 2015-07-21 Linkedin Corporation Method of and system for validating a fact checking system
EP2724249A4 (de) * 2011-06-22 2015-03-18 Rogers Communications Inc Systeme und verfahren zur erzeugung eines interessenprofils für einen benutzer
CN102299953B (zh) * 2011-06-24 2014-01-15 浪潮齐鲁软件产业有限公司 一种纳税人资料图像采集云端处理方法
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
KR101624060B1 (ko) * 2011-08-04 2016-05-24 이베이 인크. 사용자 논평 시스템 및 방법
US8437622B2 (en) 2011-08-23 2013-05-07 Echostar Technologies L.L.C. Altering presentation of received content based on use of closed captioning elements as reference locations
US8447170B2 (en) 2011-08-23 2013-05-21 Echostar Technologies L.L.C. Automatically recording supplemental content
US9621946B2 (en) * 2011-08-23 2017-04-11 Echostar Technologies L.L.C. Frequency content sort
US9357159B2 (en) 2011-08-23 2016-05-31 Echostar Technologies L.L.C. Grouping and presenting content
US8763027B2 (en) 2011-08-23 2014-06-24 Echostar Technologies L.L.C. Recording additional channels of a shared multi-channel transmitter
US8959566B2 (en) 2011-08-23 2015-02-17 Echostar Technologies L.L.C. Storing and reading multiplexed content
US8606088B2 (en) 2011-08-23 2013-12-10 Echostar Technologies L.L.C. System and method for memory jumping within stored instances of content
US8660412B2 (en) 2011-08-23 2014-02-25 Echostar Technologies L.L.C. System and method for dynamically adjusting recording parameters
US9185331B2 (en) 2011-08-23 2015-11-10 Echostar Technologies L.L.C. Storing multiple instances of content
US8627349B2 (en) 2011-08-23 2014-01-07 Echostar Technologies L.L.C. User interface
US8850476B2 (en) 2011-08-23 2014-09-30 Echostar Technologies L.L.C. Backwards guide
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
WO2013089674A1 (en) * 2011-12-13 2013-06-20 Intel Corporation Real-time mapping and navigation of multiple media types through a metadata-based infrastructure
CN103918247B (zh) 2011-09-23 2016-08-24 数字标记公司 基于背景环境的智能手机传感器逻辑
US8878785B1 (en) 2011-10-05 2014-11-04 Google Inc. Intent determination using geometric shape input
US8890827B1 (en) * 2011-10-05 2014-11-18 Google Inc. Selected content refinement mechanisms
US8825671B1 (en) * 2011-10-05 2014-09-02 Google Inc. Referent determination from selected content
WO2013052866A2 (en) 2011-10-05 2013-04-11 Google Inc. Semantic selection and purpose facilitation
US8930393B1 (en) * 2011-10-05 2015-01-06 Google Inc. Referent based search suggestions
US10013152B2 (en) * 2011-10-05 2018-07-03 Google Llc Content selection disambiguation
US9032316B1 (en) 2011-10-05 2015-05-12 Google Inc. Value-based presentation of user-selectable computing actions
US20150212696A1 (en) * 2011-10-05 2015-07-30 Google Inc. Selected content refinement mechanisms
CA2782793A1 (en) * 2011-10-17 2013-04-17 Research In Motion Limited Note compiler interface
JP2013089130A (ja) * 2011-10-20 2013-05-13 Sony Corp 情報処理装置、情報処理方法、プログラム、及び記録媒体
US9275421B2 (en) * 2011-11-04 2016-03-01 Google Inc. Triggering social pages
US8700599B2 (en) * 2011-11-21 2014-04-15 Microsoft Corporation Context dependent keyword suggestion for advertising
US20140006914A1 (en) * 2011-12-10 2014-01-02 University Of Notre Dame Du Lac Systems and methods for collaborative and multimedia-enriched reading, teaching and learning
US9588652B2 (en) 2011-12-12 2017-03-07 International Business Machines Corporation Providing feedback for screen sharing
US9852432B2 (en) 2011-12-12 2017-12-26 International Business Machines Corporation Customizing a presentation based on preferences of an audience
US20130151624A1 (en) * 2011-12-12 2013-06-13 International Business Machines Corporation Context-Sensitive Collaboration Channels
US9124657B2 (en) 2011-12-14 2015-09-01 International Business Machines Corporation Dynamic screen sharing for optimal performance
US9141264B2 (en) 2011-12-14 2015-09-22 International Business Machines Corporation Variable refresh rates for portions of shared screens
US8856640B1 (en) 2012-01-20 2014-10-07 Google Inc. Method and apparatus for applying revision specific electronic signatures to an electronically stored document
US9064245B2 (en) 2012-02-22 2015-06-23 Hewlett-Packard Development Company, L.P. Generating a calendar graphical visualization including pixels representing data records containing user feedback
US9171209B2 (en) * 2012-02-23 2015-10-27 Tyco Electronics Uk Infrastructure Limited Overlay-based asset location and identification system
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US8959544B2 (en) 2012-03-15 2015-02-17 Echostar Technologies L.L.C. Descrambling of multiple television channels
US8819722B2 (en) 2012-03-15 2014-08-26 Echostar Technologies L.L.C. Smartcard encryption cycling
US9489981B2 (en) 2012-03-15 2016-11-08 Echostar Technologies L.L.C. Successive initialization of television channel recording
US8989562B2 (en) 2012-03-15 2015-03-24 Echostar Technologies L.L.C. Facilitating concurrent recording of multiple television channels
US9804754B2 (en) * 2012-03-28 2017-10-31 Terry Crawford Method and system for providing segment-based viewing of recorded sessions
CN103389970B (zh) * 2012-05-08 2016-05-25 北京华宇软件股份有限公司 基于实时学习的word辅助编写系统和方法
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2015519656A (ja) 2012-05-09 2015-07-09 アップル インコーポレイテッド ユーザインタフェースオブジェクトを移動し、ドロップするためのデバイス、方法及びグラフィカルユーザインタフェース
WO2013169877A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting user interface objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN108287651B (zh) 2012-05-09 2021-04-13 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
DE112013002409T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
WO2013170428A1 (en) 2012-05-14 2013-11-21 Nokia Corporation Method and apparatus for determining context-aware similarity
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
CN102710632B (zh) * 2012-05-29 2016-03-30 华为终端有限公司 注册信息处理方法及终端设备和交互式系统
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
WO2013188317A1 (en) * 2012-06-10 2013-12-19 Kevin Mcgushion Active web page consolidator
US9374679B2 (en) 2012-06-11 2016-06-21 Samsung Electronics Co., Ltd. Service providing device, service providing system including user profile server, and service providing method for service providing device
EP2675147B1 (de) * 2012-06-11 2022-03-23 Samsung Electronics Co., Ltd. Dienstbereitstellungsystem in einem Fahrzeug mit Anzeigevorrichtung und mobile Vorrichtung, und Verfahren zur Bereitstellung von Diensten unter Verwendung davon
JP2013257327A (ja) 2012-06-11 2013-12-26 Samsung Electronics Co Ltd 目的地設定および情報提供のための端末装置、方法およびシステム
GB2505072A (en) 2012-07-06 2014-02-19 Box Inc Identifying users and collaborators as search results in a cloud-based system
US9595298B2 (en) 2012-07-18 2017-03-14 Microsoft Technology Licensing, Llc Transforming data to create layouts
US20140036099A1 (en) * 2012-08-03 2014-02-06 Be Labs, Llc Automated Scanning
US9619812B2 (en) * 2012-08-28 2017-04-11 Nuance Communications, Inc. Systems and methods for engaging an audience in a conversational advertisement
CN103678269A (zh) * 2012-08-30 2014-03-26 国际商业机器公司 一种信息处理方法和装置
US9237386B2 (en) 2012-08-31 2016-01-12 Google Inc. Aiding discovery of program content by providing deeplinks into most interesting moments via social media
US10915492B2 (en) * 2012-09-19 2021-02-09 Box, Inc. Cloud-based platform enabled with media content indexed for text-based searches and/or metadata extraction
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9256889B1 (en) 2012-09-20 2016-02-09 Amazon Technologies, Inc. Automatic quote generation
US9003293B2 (en) * 2012-09-28 2015-04-07 Interactive Memories, Inc. Online image and text-based project creation, editing, and order fulfillment service
US9349202B1 (en) * 2012-10-01 2016-05-24 Amazon Technologies, Inc. Digital conversion of imaged content
US9495364B2 (en) 2012-10-04 2016-11-15 Box, Inc. Enhanced quick search features, low-barrier commenting/interactive features in a collaboration platform
US20140101542A1 (en) * 2012-10-09 2014-04-10 Microsoft Corporation Automated data visualization about selected text
US9870554B1 (en) 2012-10-23 2018-01-16 Google Inc. Managing documents based on a user's calendar
CN103793446B (zh) * 2012-10-29 2019-03-01 汤晓鸥 音乐视频的生成方法和系统
US11308037B2 (en) 2012-10-30 2022-04-19 Google Llc Automatic collaboration
US9529916B1 (en) 2012-10-30 2016-12-27 Google Inc. Managing documents based on access context
US8793724B2 (en) 2012-11-08 2014-07-29 Eldon Technology Limited Image domain compliance
US9092509B2 (en) * 2012-11-19 2015-07-28 Microsoft Technology Licensing, Llc Search query user interface
US9147275B1 (en) * 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
RU2530268C2 (ru) 2012-11-28 2014-10-10 Общество с ограниченной ответственностью "Спиктуит" Способ обучения информационной диалоговой системы пользователем
US9684719B2 (en) * 2012-12-10 2017-06-20 Verint Systems Ltd. Object search by description
US9483159B2 (en) 2012-12-12 2016-11-01 Linkedin Corporation Fact checking graphical user interface including fact checking icons
US9483518B2 (en) * 2012-12-18 2016-11-01 Microsoft Technology Licensing, Llc Queryless search based on context
US9495341B1 (en) 2012-12-18 2016-11-15 Google Inc. Fact correction and completion during document drafting
US9384285B1 (en) 2012-12-18 2016-07-05 Google Inc. Methods for identifying related documents
GB201223450D0 (en) * 2012-12-27 2013-02-13 Touchtype Ltd Search and corresponding method
US10664657B2 (en) 2012-12-27 2020-05-26 Touchtype Limited System and method for inputting images or labels into electronic devices
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
EP2912542B1 (de) 2012-12-29 2022-07-13 Apple Inc. Vorrichtung und verfahren zum vermeiden der erzeugung von taktilen ausgaben für eine mehrkontaktgeste
EP2939098B1 (de) 2012-12-29 2018-10-10 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zum übergang zwischen berührungseingabe und anzeigenausgabe
EP3467634B1 (de) 2012-12-29 2020-09-23 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zur navigation durch benutzerschnittstellenhierarchien
JP6097843B2 (ja) 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2014110294A1 (en) * 2013-01-09 2014-07-17 Mcgushion Kevin D Active web page consolidator and internet history management system
EP2951719A4 (de) * 2013-02-01 2016-07-13 Parlor Labs Inc System und verfahren zur beurteilung einer leseraktivität
EP2954514B1 (de) 2013-02-07 2021-03-31 Apple Inc. Sprachtrigger für einen digitalen assistenten
US9401947B1 (en) 2013-02-08 2016-07-26 Google Inc. Methods, systems, and media for presenting comments based on correlation with content
US9894312B2 (en) * 2013-02-22 2018-02-13 The Directv Group, Inc. Method and system for controlling a user receiving device using voice commands
US9799005B2 (en) 2013-03-07 2017-10-24 Samsung Electronics Co., Ltd. Computing system with contextual interaction mechanism and method of operation thereof
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10629188B2 (en) * 2013-03-15 2020-04-21 International Business Machines Corporation Automatic note taking within a virtual meeting
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10075384B2 (en) 2013-03-15 2018-09-11 Advanced Elemental Technologies, Inc. Purposeful computing
US9378065B2 (en) 2013-03-15 2016-06-28 Advanced Elemental Technologies, Inc. Purposeful computing
US9721086B2 (en) 2013-03-15 2017-08-01 Advanced Elemental Technologies, Inc. Methods and systems for secure and reliable identity-based computing
US8965915B2 (en) 2013-03-17 2015-02-24 Alation, Inc. Assisted query formation, validation, and result previewing in a database having a complex schema
US9674132B1 (en) * 2013-03-25 2017-06-06 Guangsheng Zhang System, methods, and user interface for effectively managing message communications
US9460140B2 (en) 2013-04-29 2016-10-04 Microsoft Technology Licensing, Llc Automated librarian as contributor to a collection of content
US9734208B1 (en) * 2013-05-13 2017-08-15 Audible, Inc. Knowledge sharing based on meeting information
US9747900B2 (en) 2013-05-24 2017-08-29 Google Technology Holdings LLC Method and apparatus for using image data to aid voice recognition
US20140359637A1 (en) * 2013-06-03 2014-12-04 Microsoft Corporation Task continuance across devices
US20150206539A1 (en) * 2013-06-04 2015-07-23 Ims Solutions, Inc. Enhanced human machine interface through hybrid word recognition and dynamic speech synthesis tuning
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
DE112014002747T5 (de) 2013-06-09 2016-03-03 Apple Inc. Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
US20160259819A1 (en) 2013-06-18 2016-09-08 Blink Forward, L.L.C. Error identification, indexing and linking construction documents
US9292510B2 (en) * 2013-06-18 2016-03-22 Blink Forward, L.L.C. Systems and methods for indexing and linking electronic documents
US10489750B2 (en) 2013-06-26 2019-11-26 Sap Se Intelligent task scheduler
US20150012840A1 (en) * 2013-07-02 2015-01-08 International Business Machines Corporation Identification and Sharing of Selections within Streaming Content
US20160179831A1 (en) * 2013-07-15 2016-06-23 Vocavu Solutions Ltd. Systems and methods for textual content creation from sources of audio that contain speech
US9275349B2 (en) 2013-07-19 2016-03-01 Ricoh Company Ltd. Healthcare system integration
US20150058728A1 (en) * 2013-07-22 2015-02-26 MS Technologies Corporation Audio stream metadata integration and interaction
US9514113B1 (en) 2013-07-29 2016-12-06 Google Inc. Methods for automatic footnote generation
US20150039316A1 (en) * 2013-07-31 2015-02-05 GM Global Technology Operations LLC Systems and methods for managing dialog context in speech systems
US10776501B2 (en) 2013-08-07 2020-09-15 Microsoft Technology Licensing, Llc Automatic augmentation of content through augmentation services
US9842113B1 (en) * 2013-08-27 2017-12-12 Google Inc. Context-based file selection
US20150066475A1 (en) * 2013-08-29 2015-03-05 Mustafa Imad Azzam Method For Detecting Plagiarism In Arabic
US10977757B2 (en) * 2013-09-18 2021-04-13 James Brian Fry Video record receipt system and method of use
US20150095320A1 (en) 2013-09-27 2015-04-02 Trooclick France Apparatus, systems and methods for scoring the reliability of online information
US10169424B2 (en) 2013-09-27 2019-01-01 Lucas J. Myslinski Apparatus, systems and methods for scoring and distributing the reliability of online information
US9628838B2 (en) 2013-10-01 2017-04-18 Echostar Technologies L.L.C. Satellite-based content targeting
US9510181B2 (en) * 2013-10-18 2016-11-29 T-Mobile Usa, Inc. Image-based remote subscriber identity module activation
US20150112996A1 (en) * 2013-10-23 2015-04-23 Microsoft Corporation Pervasive search architecture
US20150134818A1 (en) * 2013-11-13 2015-05-14 CubeITz Ltd Data sharing method and data sharing gateway configuration
US10019716B1 (en) * 2013-11-21 2018-07-10 Google Llc Method for feedback submission resolution
US9600227B2 (en) * 2013-11-21 2017-03-21 Google Technology Holdings LLC System and method for speech-based navigation and interaction with a device's visible screen elements using a corresponding view hierarchy
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US20150162000A1 (en) * 2013-12-10 2015-06-11 Harman International Industries, Incorporated Context aware, proactive digital assistant
US9916284B2 (en) 2013-12-10 2018-03-13 International Business Machines Corporation Analyzing document content and generating an appendix
US9529791B1 (en) 2013-12-12 2016-12-27 Google Inc. Template and content aware document and template editing
US9491522B1 (en) * 2013-12-31 2016-11-08 Google Inc. Methods, systems, and media for presenting supplemental content relating to media content on a content interface based on state information that indicates a subsequent visit to the content interface
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
US10540801B1 (en) * 2014-02-20 2020-01-21 William Ernest Miller Method and system for construction project management using photo imaging measurements
US8990234B1 (en) 2014-02-28 2015-03-24 Lucas J. Myslinski Efficient fact checking method and system
US9643722B1 (en) 2014-02-28 2017-05-09 Lucas J. Myslinski Drone device security system
US9972055B2 (en) 2014-02-28 2018-05-15 Lucas J. Myslinski Fact checking method and system utilizing social networking information
US9727617B1 (en) 2014-03-10 2017-08-08 Google Inc. Systems and methods for searching quotes of entities using a database
CN103873687A (zh) * 2014-03-10 2014-06-18 联想(北京)有限公司 一种信息处理方法及电子设备
GB201405025D0 (en) * 2014-03-20 2014-05-07 Gould Tech Solutions Ltd Apparatus and method for content handling
US20150269672A1 (en) * 2014-03-21 2015-09-24 Hybrid Tittan Management, Llc Trading platform currently known as alphametrics and it's accompanying api (application programming interface) for its usage; to include a voice recognition software platform designed to aggregate end of day order imbalance sentiment for nyse traded issues
CN104978358B (zh) * 2014-04-11 2019-11-15 阿里巴巴集团控股有限公司 桌面展示网页片段的方法及截取网页片段至桌面展示系统
US9959265B1 (en) * 2014-05-08 2018-05-01 Google Llc Populating values in a spreadsheet using semantic cues
US20150339616A1 (en) * 2014-05-20 2015-11-26 Andreas Kurt PURSCHE System for real-time suggestion of a subject matter expert in an authoring environment
US20150339310A1 (en) * 2014-05-20 2015-11-26 Andreas Kurt PURSCHE System for recommending related-content analysis in an authoring environment
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
EP2963651A1 (de) * 2014-07-03 2016-01-06 Samsung Electronics Co., Ltd Verfahren und vorrichtung zur wiedergabe von multimedia
JP2016033757A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US9703763B1 (en) 2014-08-14 2017-07-11 Google Inc. Automatic document citations by utilizing copied content for candidate sources
US9189514B1 (en) 2014-09-04 2015-11-17 Lucas J. Myslinski Optimized fact checking method and system
US9818400B2 (en) * 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9626768B2 (en) 2014-09-30 2017-04-18 Microsoft Technology Licensing, Llc Optimizing a visual perspective of media
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10282069B2 (en) 2014-09-30 2019-05-07 Microsoft Technology Licensing, Llc Dynamic presentation of suggested content
US9741342B2 (en) * 2014-11-26 2017-08-22 Panasonic Intellectual Property Corporation Of America Method and apparatus for recognizing speech by lip reading
US10229148B1 (en) 2014-12-01 2019-03-12 Arimo, Inc. Multi-language support for interfacing with distributed data
US9756378B2 (en) 2015-01-07 2017-09-05 Echostar Technologies L.L.C. Single file PVR per service ID
TWI607340B (zh) * 2015-01-09 2017-12-01 Chunghwa Telecom Co Ltd Privacy data flow security and storage protection method and system
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10366151B1 (en) * 2015-03-12 2019-07-30 Google Llc Contextually relevant knowledge panels in an application environment
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US11727444B2 (en) * 2015-03-19 2023-08-15 Arris Enterprises Llc Customizing targeted advertisements based on profile information exchange
US20160292445A1 (en) 2015-03-31 2016-10-06 Secude Ag Context-based data classification
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10216709B2 (en) * 2015-05-22 2019-02-26 Microsoft Technology Licensing, Llc Unified messaging platform and interface for providing inline replies
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
CN106301627B (zh) * 2015-06-01 2018-11-27 中国科学院上海微系统与信息技术研究所 一种认知自组织网络中分布式协作频谱感知方法
US9971753B2 (en) * 2015-06-04 2018-05-15 University Of Central Florida Research Foundation, Inc. Computer system providing collaborative learning features and related methods
US10360902B2 (en) * 2015-06-05 2019-07-23 Apple Inc. Systems and methods for providing improved search functionality on a client device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10769184B2 (en) 2015-06-05 2020-09-08 Apple Inc. Systems and methods for providing improved search functionality on a client device
US11423023B2 (en) 2015-06-05 2022-08-23 Apple Inc. Systems and methods for providing improved search functionality on a client device
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US20160371725A1 (en) * 2015-06-18 2016-12-22 Duy Nguyen Campaign optimization system
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10242277B1 (en) * 2015-07-08 2019-03-26 Amazon Technologies, Inc. Validating digital content rendering
US20180293091A1 (en) * 2015-07-15 2018-10-11 Mitsubishi Electric Corporation Display control apparatus and display control method
EP3281122A4 (de) * 2015-07-24 2018-04-25 Samsung Electronics Co., Ltd. Verfahren zur automatischen erzeugung eines dynamischen index für auf einer elektronischen vorrichtung angezeigten inhalt
US9578351B1 (en) * 2015-08-28 2017-02-21 Accenture Global Services Limited Generating visualizations for display along with video content
US20170068436A1 (en) * 2015-09-03 2017-03-09 Microsoft Technology Licensing, Llc Interpreting and Supplementing Captured Stroke Information
US10210383B2 (en) 2015-09-03 2019-02-19 Microsoft Technology Licensing, Llc Interacting with an assistant component based on captured stroke information
US10387034B2 (en) 2015-09-03 2019-08-20 Microsoft Technology Licensing, Llc Modifying captured stroke information into an actionable form
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9898452B2 (en) 2015-10-16 2018-02-20 International Business Machines Corporation Annotation data generation and overlay for enhancing readability on electronic book image stream service
US20170124258A1 (en) * 2015-11-04 2017-05-04 Mmodal Ip Llc Dynamic De-Identification of Healthcare Data
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10445360B2 (en) * 2015-11-24 2019-10-15 Comcast Cable Communications, Llc Content analysis to enhance voice search
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10147416B2 (en) * 2015-12-09 2018-12-04 Amazon Technologies, Inc. Text-to-speech processing systems and methods
US10223400B2 (en) * 2015-12-17 2019-03-05 Facebook, Inc. Techniques to configure media packages
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US20170193087A1 (en) * 2015-12-31 2017-07-06 Quixey, Inc. Real-Time Markup of User Text with Deep Links
WO2017130201A1 (en) * 2016-01-28 2017-08-03 Subply Solutions Ltd. Method and system for providing audio content
US20170220581A1 (en) * 2016-02-02 2017-08-03 Microsoft Technology Licensing, Llc. Content Item and Source Detection System
US10838849B2 (en) * 2016-03-08 2020-11-17 International Business Machines Corporation Analyzing software test failures using natural language processing and machine learning
US10628505B2 (en) * 2016-03-30 2020-04-21 Microsoft Technology Licensing, Llc Using gesture selection to obtain contextually relevant information
CN105912615A (zh) * 2016-04-05 2016-08-31 重庆大学 一种基于人类语音内容索引的音频和视频文件管理方法
CN109074240B (zh) * 2016-04-27 2021-11-23 索尼公司 信息处理设备、信息处理方法和程序
US10652303B2 (en) * 2016-04-28 2020-05-12 Rabbit Asset Purchase Corp. Screencast orchestration
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US11094335B1 (en) * 2016-07-22 2021-08-17 Educational Testing Service Systems and methods for automatic detection of plagiarized spoken responses
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US11461806B2 (en) * 2016-09-12 2022-10-04 Sonobeacon Gmbh Unique audio identifier synchronization system
US10235336B1 (en) * 2016-09-14 2019-03-19 Compellon Incorporated Prescriptive analytics platform and polarity analysis engine
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
CN106776705A (zh) * 2016-11-16 2017-05-31 东北大学 一种面向搜索过程的交互式浏览器插件系统
US10158634B2 (en) 2016-11-16 2018-12-18 Bank Of America Corporation Remote document execution and network transfer using augmented reality display devices
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
WO2018118194A1 (en) * 2016-12-20 2018-06-28 Walmart Apollo, Llc Rules-based audio interface
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11042858B1 (en) 2016-12-23 2021-06-22 Wells Fargo Bank, N.A. Assessing validity of mail item
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
EP3571608A4 (de) 2017-01-17 2020-10-28 MModal IP LLC Verfahren und systeme zur manifestation und übertragung von folgebenachrichtigungen
US10380228B2 (en) 2017-02-10 2019-08-13 Microsoft Technology Licensing, Llc Output generation based on semantic expressions
US10402163B2 (en) * 2017-02-14 2019-09-03 Accenture Global Solutions Limited Intelligent data extraction
US11182549B2 (en) 2017-03-06 2021-11-23 AppExtremes, LLC Systems and methods for modifying and reconciling negotiated documents
WO2019108413A1 (en) * 2017-03-06 2019-06-06 AppExtremes, LLC Systems and methods for modifying and reconciling negotiated documents
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
CN110021300B (zh) * 2017-05-16 2021-07-06 苹果公司 数字助理服务的远场延伸
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10341852B2 (en) 2017-06-02 2019-07-02 Apple Inc. Informational articles in response to detection of devices or software
KR101924634B1 (ko) * 2017-06-07 2018-12-04 네이버 주식회사 콘텐츠 제공 서버, 콘텐츠 제공 단말 및 콘텐츠 제공 방법
WO2019027259A1 (en) 2017-08-01 2019-02-07 Samsung Electronics Co., Ltd. APPARATUS AND METHOD FOR PROVIDING SUMMARY INFORMATION USING ARTIFICIAL INTELLIGENCE MODEL
US10558861B2 (en) * 2017-08-02 2020-02-11 Oracle International Corporation Supplementing a media stream with additional information
JP2020531942A (ja) 2017-08-22 2020-11-05 サブプライ ソリューションズ エルティーディー. 再セグメント化されたオーディオコンテンツを提供するための方法およびシステム
US11822591B2 (en) * 2017-09-06 2023-11-21 International Business Machines Corporation Query-based granularity selection for partitioning recordings
US10733196B2 (en) * 2017-09-18 2020-08-04 Stephen Barry Glickman Method, apparatus, and computer readable medium for modeling relationships between query responses in a data set
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10839148B2 (en) * 2017-10-27 2020-11-17 Microsoft Technology Licensing, Llc Coordination of storyline content composed in multiple productivity applications
US11276321B2 (en) * 2017-11-07 2022-03-15 International Business Machines Corporation Method and system to train users interacting with a search engine
US10909321B2 (en) * 2017-11-14 2021-02-02 Microsoft Technology Licensing, Llc Automated travel diary generation
US10002259B1 (en) 2017-11-14 2018-06-19 Xiao Ming Mai Information security/privacy in an always listening assistant device
CN107808007A (zh) * 2017-11-16 2018-03-16 百度在线网络技术(北京)有限公司 信息处理方法和装置
US11282596B2 (en) 2017-11-22 2022-03-22 3M Innovative Properties Company Automated code feedback system
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10248306B1 (en) * 2017-12-20 2019-04-02 Motorola Mobility Llc Systems and methods for end-users to link objects from images with digital content
US10599783B2 (en) 2017-12-26 2020-03-24 International Business Machines Corporation Automatically suggesting a temporal opportunity for and assisting a writer in writing one or more sequel articles via artificial intelligence
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10733192B1 (en) * 2018-02-14 2020-08-04 Intuit Inc. Expression evaluation infrastructure
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
JP7110644B2 (ja) * 2018-03-22 2022-08-02 カシオ計算機株式会社 情報表示装置、情報表示方法及び情報表示プログラム
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US10949272B2 (en) 2018-06-14 2021-03-16 Microsoft Technology Licensing, Llc Inter-application context seeding
CN108933730A (zh) * 2018-06-29 2018-12-04 百度在线网络技术(北京)有限公司 信息推送方法和装置
US11436292B2 (en) 2018-08-23 2022-09-06 Newsplug, Inc. Geographic location based feed
US10984800B2 (en) * 2018-08-31 2021-04-20 International Business Machines Corporation Personal assistant device responses based on group presence
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
CN112997171A (zh) * 2018-09-27 2021-06-18 谷歌有限责任公司 分析网页以促进自动导航
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11295124B2 (en) * 2018-10-08 2022-04-05 Xerox Corporation Methods and systems for automatically detecting the source of the content of a scanned document
US11163777B2 (en) 2018-10-18 2021-11-02 Oracle International Corporation Smart content recommendations for content authors
US10909777B2 (en) * 2018-10-26 2021-02-02 Snap-On Incorporated Method and system for annotating graphs of vehicle data
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11263551B2 (en) * 2018-11-08 2022-03-01 Sap Se Machine learning based process flow engine
CN110381389B (zh) * 2018-11-14 2022-02-25 腾讯科技(深圳)有限公司 一种基于人工智能的字幕生成方法和装置
US10817654B2 (en) 2018-11-27 2020-10-27 Snap-On Incorporated Method and system for modifying web page based on tags associated with content file
US11023503B2 (en) * 2018-12-13 2021-06-01 Textio, Inc. Suggesting text in an electronic document
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11636431B2 (en) 2019-01-04 2023-04-25 AppExtremes, LLC Systems and methods for dynamic assignment, monitoring and management of discrete tasks
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109933802B (zh) * 2019-03-25 2023-05-26 腾讯科技(深圳)有限公司 图文匹配方法、装置及存储介质
CN110008884A (zh) * 2019-03-28 2019-07-12 维沃移动通信有限公司 一种文字处理方法及终端
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11017157B2 (en) 2019-05-15 2021-05-25 International Business Machines Corporation Group pattern based electronic dictionary modification and presentation
US10929596B2 (en) 2019-05-15 2021-02-23 International Business Machines Corporation Pattern based electronic dictionary modification and presentation
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11036816B2 (en) 2019-05-23 2021-06-15 International Business Machines Corporation Selective collaboration of users within a forum based on prior activity of the users within one or more forums
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
JP7311321B2 (ja) * 2019-06-25 2023-07-19 シャープ株式会社 画像形成装置、情報処理方法および情報処理プログラム
CN112289320A (zh) * 2019-07-25 2021-01-29 Tcl集团股份有限公司 一种智能终端语音控制方法、系统及可读存储介质
US20220197587A1 (en) * 2019-07-31 2022-06-23 Hewlett-Packard Development Company, L.P. Surface presentations
US11068758B1 (en) * 2019-08-14 2021-07-20 Compellon Incorporated Polarity semantics engine analytics platform
US10977431B1 (en) * 2019-09-09 2021-04-13 Amazon Technologies, Inc. Automated personalized Zasshi
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
JP7379051B2 (ja) * 2019-09-30 2023-11-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びそのプログラム
KR20210045891A (ko) * 2019-10-17 2021-04-27 삼성전자주식회사 전자 장치 및 전자 장치의 화면 캡쳐 운용 방법
US11501528B1 (en) * 2019-12-30 2022-11-15 Snap Inc. Selector input device to perform operations on captured media content items
US11113322B2 (en) 2020-01-07 2021-09-07 Bank Of America Corporation Dynamically generating strategic planning datasets based on collecting, aggregating, and filtering distributed data collections
US11074939B1 (en) 2020-04-21 2021-07-27 International Business Machines Corporation Disambiguation of audio content using visual context
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
CN113673277A (zh) * 2020-05-13 2021-11-19 百度在线网络技术(北京)有限公司 线上绘本内容的获取方法、装置以及智能屏设备
US20210365521A1 (en) * 2020-05-19 2021-11-25 Microsoft Technology Licensing, Llc Sidebar search pane
US11461540B2 (en) * 2020-06-18 2022-10-04 International Business Machines Corporation Cross-document propagation of entity metadata
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11508078B2 (en) * 2020-08-05 2022-11-22 Lineage Logistics, LLC Point cloud annotation for a warehouse environment
CN111935516B (zh) * 2020-08-21 2022-10-18 广州酷狗计算机科技有限公司 音频文件的播放方法、装置、终端、服务器及存储介质
US11829720B2 (en) 2020-09-01 2023-11-28 Apple Inc. Analysis and validation of language models
US11922967B2 (en) * 2020-10-08 2024-03-05 Gracenote, Inc. System and method for podcast repetitive content detection
CN112257104A (zh) * 2020-10-10 2021-01-22 北京字跳网络技术有限公司 权限控制方法、装置和电子设备
CN112562659B (zh) * 2020-12-11 2024-04-09 科大讯飞(上海)科技有限公司 语音识别方法、装置、电子设备和存储介质
CN112967310B (zh) * 2021-02-04 2023-07-14 成都国翼电子技术有限公司 一种基于fpga的模板匹配加速方法
US11366958B1 (en) * 2021-02-12 2022-06-21 Dell Products L.P. Intelligent automated note annotation
US11947894B2 (en) * 2021-04-28 2024-04-02 International Business Machines Corporation Contextual real-time content highlighting on shared screens
US11550784B2 (en) * 2021-05-10 2023-01-10 Jpmorgan Chase Bank, N.A. Method and system for facilitating universal search
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US20220368548A1 (en) 2021-05-15 2022-11-17 Apple Inc. Shared-content session user interfaces
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
US11875020B1 (en) * 2022-09-28 2024-01-16 Atlassian Pty Ltd. Electronic document management system with a content recommendation interface

Family Cites Families (1044)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3899687A (en) 1972-07-10 1975-08-12 Identicon Corp Optical label scanning
US3917317A (en) 1974-02-25 1975-11-04 Univ California Book indexing and processing system
US4135791A (en) 1974-12-02 1979-01-23 Varian Associates, Inc. Reduced glare scanner
US4052058A (en) 1976-04-08 1977-10-04 Hintz Ronald E Pistol draw target
US4065778A (en) 1976-06-17 1977-12-27 Eastman Kodak Company Automatic rangefinder and focusing apparatus
US4358824A (en) 1979-12-28 1982-11-09 International Business Machines Corporation Office correspondence storage and retrieval system
EP0051226B1 (de) * 1980-10-31 1987-03-04 Kabushiki Kaisha Toshiba Verarbeitungssystem für die Inhaltsangabe von Dokumenten mit nur einem Anzeigegerät
US5262628A (en) 1982-01-25 1993-11-16 Symbol Technologies, Inc. Narrow-bodied, single- and twin-windowed portable laser scanning head for reading bar code symbols
DE3214621A1 (de) 1982-04-20 1983-10-20 Siemens AG, 1000 Berlin und 8000 München Kombiniertes optisches handlesegeraet fuer maschinelle zeichenerkennung mit integriertem optischen system
JPS5955574A (ja) 1982-09-17 1984-03-30 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション マ−ク・シ−ト読取装置
US4526078A (en) 1982-09-23 1985-07-02 Joel Chadabe Interactive music composition and performance system
US4716804A (en) * 1982-09-23 1988-01-05 Joel Chadabe Interactive music performance system
US4553261A (en) 1983-05-31 1985-11-12 Horst Froessl Document and data handling and retrieval system
US4610025A (en) 1984-06-22 1986-09-02 Champollion Incorporated Cryptographic analysis system
US4941125A (en) 1984-08-01 1990-07-10 Smithsonian Institution Information storage and retrieval system
JPH0750483B2 (ja) 1985-05-22 1995-05-31 株式会社日立製作所 文書画像追加情報の蓄積方法
US4776464A (en) 1985-06-17 1988-10-11 Bae Automated Systems, Inc. Automated article handling system and process
JPH0797373B2 (ja) * 1985-08-23 1995-10-18 株式会社日立製作所 文書フアイリングシステム
US4829453A (en) 1987-03-05 1989-05-09 Sharp Kabushiki Kaisha Apparatus for cataloging and retrieving image data
US5576529A (en) 1986-08-08 1996-11-19 Norand Technology Corporation Hand-held optically readable information set reader focus with operation over a range of distances
US4713008A (en) 1986-09-09 1987-12-15 Stocker Elizabeth M Method and means for teaching a set of sound symbols through the unique device of phonetic phenomena
US5146404A (en) 1986-09-19 1992-09-08 Westinghouse Electric Corporation Electronic maintenance support work station
US4949391A (en) 1986-09-26 1990-08-14 Everex Ti Corporation Adaptive image acquisition system
US4901364A (en) * 1986-09-26 1990-02-13 Everex Ti Corporation Interactive optical scanner system
WO1988002586A1 (fr) * 1986-10-06 1988-04-07 Stefan Grigore De Fay Procede et dispositif portatif pour saisir, memoriser et eventuellement traiter et reproduire des signes graphiques figurant sur un support quelconque
US4890230A (en) 1986-12-19 1989-12-26 Electric Industry Co., Ltd. Electronic dictionary
US4903229A (en) * 1987-03-13 1990-02-20 Pitney Bowes Inc. Forms generating and information retrieval system
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US4804949A (en) * 1987-03-20 1989-02-14 Everex Ti Corporation Hand-held optical scanner and computer mouse
US4805099A (en) * 1987-04-17 1989-02-14 Wang Laboratories, Inc. Retrieval of related records from a relational database
US4829872A (en) 1987-05-11 1989-05-16 Fairlight Instruments Pty. Limited Detection of musical gestures
US4947261A (en) 1987-07-08 1990-08-07 Sharp Kabushiki Kaisha Portable image input device
USD306162S (en) 1987-10-20 1990-02-20 Everex Ti Corporation Hand-held OCR scanner
US5107256A (en) * 1987-11-02 1992-04-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for controlling terminals on communication network
JP2553608B2 (ja) 1988-01-04 1996-11-13 住友電気工業 株式会社 光学文字読取装置
JPH021057A (ja) 1988-01-20 1990-01-05 Ricoh Co Ltd 文書検索装置
JP2745406B2 (ja) 1988-03-11 1998-04-28 株式会社リコー 画像ファイリングシステムの制御方式
US7512254B2 (en) 2001-11-07 2009-03-31 Symbol Technologies, Inc. System and method for mobile biometric authentication
US5202985A (en) * 1988-04-14 1993-04-13 Racal-Datacom, Inc. Apparatus and method for displaying data communication network configuration after searching the network
WO1989011693A1 (en) * 1988-05-27 1989-11-30 Wang Laboratories, Inc. Document annotation and manipulation in a data processing system
US5133052A (en) 1988-08-04 1992-07-21 Xerox Corporation Interactive graphical search and replace utility for computer-resident synthetic graphic image editors
US5131053A (en) * 1988-08-10 1992-07-14 Caere Corporation Optical character recognition method and apparatus
US6688523B1 (en) 1988-08-31 2004-02-10 Intermec Ip Corp. System for reading optical indicia
US4968877A (en) 1988-09-14 1990-11-06 Sensor Frame Corporation VideoHarp
US5010500A (en) * 1989-01-26 1991-04-23 Xerox Corporation Gesture-modified diagram for retrieval of image resembling diagram, with parts selectable for further interactive retrieval
US5083218A (en) * 1989-02-08 1992-01-21 Casio Computer Co., Ltd. Hand-held image reading apparatus
US5418684A (en) 1989-06-07 1995-05-23 Norand Corporation Hand-held data capture system with interchangeable modules
US5252951A (en) 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5157384A (en) 1989-04-28 1992-10-20 International Business Machines Corporation Advanced user interface
US5201010A (en) * 1989-05-01 1993-04-06 Credit Verification Corporation Method and system for building a database and performing marketing based upon prior shopping history
US5159668A (en) 1989-05-08 1992-10-27 Apple Computer, Inc. Method and apparatus for manipulating outlines in improving digital typeface on raster output devices
US4914709A (en) * 1989-06-02 1990-04-03 Eastman Kodak Company Method for identifying unrecognizable characters in optical character recognition machines
US4955693A (en) 1989-06-09 1990-09-11 Spectra-Physics, Inc. Laser scanner having improved optical scanning window
US6053413A (en) 1989-06-16 2000-04-25 Symbol Technologies, Inc. Optical scanner with hand-held and hands-free modes of use
US5136687A (en) 1989-10-10 1992-08-04 Edelman Gerald M Categorization automata employing neuronal group selection with reentry
EP0424803B1 (de) 1989-10-24 1997-07-16 FROESSL, Horst Verfahren zur mindestens teilweisen Umsetzung von Bilddaten in Text mit Vorbereitung für nachfolgende Speicherung oder Weiterverarbeitung
US5133024A (en) 1989-10-24 1992-07-21 Horst Froessl Image data bank system with selective conversion
US5179652A (en) * 1989-12-13 1993-01-12 Anthony I. Rozmanith Method and apparatus for storing, transmitting and retrieving graphical and tabular data
US5185857A (en) * 1989-12-13 1993-02-09 Rozmanith A Martin Method and apparatus for multi-optional processing, storing, transmitting and retrieving graphical and tabular data in a mobile transportation distributable and/or networkable communications and/or data processing system
JPH03202967A (ja) * 1989-12-28 1991-09-04 Toshiba Corp 電子ファイリング装置
US6002491A (en) 1990-01-05 1999-12-14 Symbol Technologies, Inc. Apparatus for processing human-readable and machine-readable documents
US5040229A (en) 1990-02-02 1991-08-13 Eastman Kodak Company Contour feature-based method for identification and segmentation of touching characters
US5048097A (en) 1990-02-02 1991-09-10 Eastman Kodak Company Optical character recognition neural network system for machine-printed characters
US5062143A (en) 1990-02-23 1991-10-29 Harris Corporation Trigram-based method of language identification
US5146552A (en) 1990-02-28 1992-09-08 International Business Machines Corporation Method for associating annotation with electronically published material
US5355146A (en) 1990-03-05 1994-10-11 Bmc Micro-Industries Ltd. Multi-directional hand scanner and mouse
JPH03260768A (ja) 1990-03-09 1991-11-20 Fuji Electric Co Ltd キーワード強調表示装置
US5151951A (en) 1990-03-15 1992-09-29 Sharp Kabushiki Kaisha Character recognition device which divides a single character region into subregions to obtain a character code
US5271068A (en) 1990-03-15 1993-12-14 Sharp Kabushiki Kaisha Character recognition device which divides a single character region into subregions to obtain a character code
US5142161A (en) 1990-04-26 1992-08-25 Brackmann Rogers F Hand-held optical scanner and highlighter
USRE34476E (en) 1990-05-14 1993-12-14 Norwood Donald D Hybrid information management system for handwriting and text
US5109439A (en) * 1990-06-12 1992-04-28 Horst Froessl Mass document storage and retrieval system
US5140644A (en) 1990-07-23 1992-08-18 Hitachi, Ltd. Character string retrieving system and method
US5168147A (en) 1990-07-31 1992-12-01 Xerox Corporation Binary image processing for decoding self-clocking glyph shape codes
US5272324A (en) 1990-08-10 1993-12-21 Interlink Technologies, Inc. Portable scanner system with transceiver for two-way radio frequency communication
US5418717A (en) 1990-08-27 1995-05-23 Su; Keh-Yih Multiple score language processing system
US5212739A (en) 1990-10-17 1993-05-18 Hewlett-Packard Company Noise tolerant optical character recognition system
US5347295A (en) 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5288938A (en) * 1990-12-05 1994-02-22 Yamaha Corporation Method and apparatus for controlling electronic tone generation in accordance with a detected type of performance gesture
US5301243A (en) * 1990-12-21 1994-04-05 Francis Olschafskie Hand-held character-oriented scanner with external view area
US5574804A (en) 1990-12-21 1996-11-12 Olschafskie; Francis Hand-held scanner
US5203704A (en) * 1990-12-21 1993-04-20 Mccloud Seth R Method of communication using pointing vector gestures and mnemonic devices to assist in learning point vector gestures
US6434581B1 (en) 1991-03-20 2002-08-13 Microsoft Corporation Script character processing method for interactively adjusting space between writing element
US5231698A (en) 1991-03-20 1993-07-27 Forcier Mitchell D Script/binary-encoded-character processing method and system
US5229590A (en) 1991-06-10 1993-07-20 Spectra-Physics Scanning Systems, Inc. Dome-shaped handheld laser scanner
US5946406A (en) 1991-06-17 1999-08-31 Microsoft Corporation Method and system for data entry of handwritten symbols
US5550930A (en) 1991-06-17 1996-08-27 Microsoft Corporation Method and system for training a handwriting recognizer at the time of misrecognition
US5251316A (en) 1991-06-28 1993-10-05 Digital Equipment Corporation Method and apparatus for integrating a dynamic lexicon into a full-text information retrieval system
JPH0736142B2 (ja) * 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
DE69232493T2 (de) 1991-10-21 2003-01-09 Canon Kk Verfahren und Gerät zur Zeichenerkennung
US5568452A (en) 1991-11-01 1996-10-22 Kronenberg; Harry Alarm clock
US5848187A (en) 1991-11-18 1998-12-08 Compaq Computer Corporation Method and apparatus for entering and manipulating spreadsheet cell data
CA2078423C (en) 1991-11-19 1997-01-14 Per-Kristian Halvorsen Method and apparatus for supplementing significant portions of a document selected without document image decoding with retrieved information
US7006881B1 (en) 1991-12-23 2006-02-28 Steven Hoffberg Media recording device with remote graphic user interface
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
JP3103928B2 (ja) 1991-12-27 2000-10-30 株式会社日立製作所 可搬型ペン入力装置およびペン入力計算機システム
US5347477A (en) 1992-01-28 1994-09-13 Jack Lee Pen-based form computer
US5351995A (en) 1992-01-29 1994-10-04 Apple Computer, Inc. Double-sided, reversible electronic paper
US5539427A (en) * 1992-02-10 1996-07-23 Compaq Computer Corporation Graphic indexing system
US5838458A (en) 1992-02-25 1998-11-17 Tsai; Irving Method and apparatus for linking designated portions of a received document image with an electronic address
US5756981A (en) 1992-02-27 1998-05-26 Symbol Technologies, Inc. Optical scanner for reading and decoding one- and-two-dimensional symbologies at variable depths of field including memory efficient high speed image processing means and high accuracy image analysis means
US5251106A (en) 1992-03-06 1993-10-05 Everex Systems, Inc. Stackable enclosure for electronic devices
US5247285A (en) 1992-03-06 1993-09-21 Everex Systems, Inc. Standup portable personal computer with detachable wireless keyboard and adjustable display
US5699441A (en) 1992-03-10 1997-12-16 Hitachi, Ltd. Continuous sign-language recognition apparatus and input apparatus
US5360971A (en) 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5243149A (en) 1992-04-10 1993-09-07 International Business Machines Corp. Method and apparatus for improving the paper interface to computing systems
US5563996A (en) 1992-04-13 1996-10-08 Apple Computer, Inc. Computer note pad including gesture based note division tools and method
US5398310A (en) * 1992-04-13 1995-03-14 Apple Computer, Incorporated Pointing gesture based computer note pad paging and scrolling interface
CA2089784C (en) 1992-04-15 1996-12-24 William Joseph Anderson Apparatus and method for disambiguating an input stream generated by a stylus-based user interface
US5583542A (en) 1992-05-26 1996-12-10 Apple Computer, Incorporated Method for deleting objects on a computer display
US5592566A (en) * 1992-05-27 1997-01-07 Apple Computer, Incorporated Method and apparatus for computerized recognition
US5536930A (en) 1992-06-03 1996-07-16 Symbol Technologies, Inc. Apparatus and method for sensing positional orientations of a portable terminal
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5543591A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5889236A (en) * 1992-06-08 1999-03-30 Synaptics Incorporated Pressure sensitive scrollbar feature
US6028271A (en) * 1992-06-08 2000-02-22 Synaptics, Inc. Object position detector with edge motion feature and gesture recognition
US5701424A (en) 1992-07-06 1997-12-23 Microsoft Corporation Palladian menus and methods relating thereto
US5499108C1 (en) * 1992-07-29 2001-01-16 Primax Electronics Ltd Document-driven scanning input device communicating with a computer
JP3398981B2 (ja) 1992-07-31 2003-04-21 ソニー株式会社 手書き入力情報処理装置
IL106401A (en) 1992-08-07 1997-02-18 Donnelley & Sons Co Method and system for converting bitmap data into page definition language commands
GB9220404D0 (en) 1992-08-20 1992-11-11 Nat Security Agency Method of identifying,retrieving and sorting documents
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US6097392A (en) 1992-09-10 2000-08-01 Microsoft Corporation Method and system of altering an attribute of a graphic object in a pen environment
FR2696258B1 (fr) 1992-09-25 1994-10-28 Sextant Avionique Dispositif de gestion d'un système d'interaction homme-machine.
US5430558A (en) 1992-09-29 1995-07-04 Sohaei; Frank Portable optical scanner with integral audio recorder
US5963931A (en) 1992-10-05 1999-10-05 Expert Systems Publishing Co. Computer-assisted decision management system
US5371348A (en) 1992-10-16 1994-12-06 Khyber Technologies Corporation Portable device for handsfree data entry with variably-positionable display/scanner module detachable for handheld use
JPH06131437A (ja) * 1992-10-20 1994-05-13 Hitachi Ltd 複合形態による操作指示方法
US5481278A (en) * 1992-10-21 1996-01-02 Sharp Kabushiki Kaisha Information processing apparatus
EP0596247A3 (de) 1992-11-02 1994-10-12 Motorola Inc Verfahren zum Schaffen eines Index für komplette Dokumente, sowie zum Suchen, Wiederauffinden und Anzeigen.
US5583543A (en) 1992-11-05 1996-12-10 Sharp Kabushiki Kaisha Pen input processing apparatus
US5465325A (en) 1992-11-16 1995-11-07 Apple Computer, Inc. Method and apparatus for manipulating inked objects
US5404442A (en) * 1992-11-30 1995-04-04 Apple Computer, Inc. Visible clipboard for graphical computer environments
US5612719A (en) * 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
US6212299B1 (en) 1992-12-11 2001-04-03 Matsushita Electric Industrial Co., Ltd. Method and apparatus for recognizing a character
US5438630A (en) 1992-12-17 1995-08-01 Xerox Corporation Word spotting in bitmap images using word bounding boxes and hidden Markov models
JP3025121B2 (ja) 1992-12-24 2000-03-27 キヤノン株式会社 情報処理方法及び装置
JP2682364B2 (ja) * 1993-01-06 1997-11-26 ヤマハ株式会社 電子楽器のデータ設定装置
US5502803A (en) * 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
US6002798A (en) 1993-01-19 1999-12-14 Canon Kabushiki Kaisha Method and apparatus for creating, indexing and viewing abstracted documents
JP2501771B2 (ja) 1993-01-19 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 不所望のソフトウェア・エンティティの複数の有効なシグネチャを得る方法及び装置
US5399852A (en) 1993-02-19 1995-03-21 United Parcel Service Of America, Inc. Method and apparatus for illumination and imaging of a surface employing cross polarization
US5467425A (en) 1993-02-26 1995-11-14 International Business Machines Corporation Building scalable N-gram language models using maximum likelihood maximum entropy N-gram models
US5920694A (en) 1993-03-19 1999-07-06 Ncr Corporation Annotation of computer video displays
JPH06282375A (ja) 1993-03-29 1994-10-07 Casio Comput Co Ltd 情報処理装置及び電子ペン
DE69425607T2 (de) 1993-05-07 2001-04-19 Canon Kk Selektive Einrichtung und Verfahren zur Dokumentenwiederauffindung.
US5602376A (en) 1993-05-07 1997-02-11 Psc Inc. Hand-mounted optical scanner system
US5677710A (en) 1993-05-10 1997-10-14 Apple Computer, Inc. Recognition keypad
US5517578A (en) 1993-05-20 1996-05-14 Aha! Software Corporation Method and apparatus for grouping and manipulating electronic representations of handwriting, printing and drawings
US5377706A (en) * 1993-05-21 1995-01-03 Huang; Jih-Tung Garbage collecting device
US5581670A (en) 1993-07-21 1996-12-03 Xerox Corporation User interface having movable sheet with click-through tools
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5710831A (en) * 1993-07-30 1998-01-20 Apple Computer, Inc. Method for correcting handwriting on a pen-based computer
US5367453A (en) 1993-08-02 1994-11-22 Apple Computer, Inc. Method and apparatus for correcting words
US5485565A (en) * 1993-08-04 1996-01-16 Xerox Corporation Gestural indicators for selecting graphic objects
JP3282637B2 (ja) 1993-08-11 2002-05-20 ソニー株式会社 手書き入力表示装置および方法
US6021218A (en) * 1993-09-07 2000-02-01 Apple Computer, Inc. System and method for organizing recognized and unrecognized objects on a computer display
US5500937A (en) * 1993-09-08 1996-03-19 Apple Computer, Inc. Method and apparatus for editing an inked object while simultaneously displaying its recognized object
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
EP0645757B1 (de) * 1993-09-23 2000-04-05 Xerox Corporation Semantische Gleichereignisfilterung für Spracherkennung und Signalübersetzungsanwendungen
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
JP2804224B2 (ja) * 1993-09-30 1998-09-24 日立ソフトウエアエンジニアリング株式会社 ネットワーク図描画方法およびシステム
US5555363A (en) 1993-09-30 1996-09-10 Apple Computer, Inc. Resetting the case of text on a computer display
US5596697A (en) * 1993-09-30 1997-01-21 Apple Computer, Inc. Method for routing items within a computer system
US5583946A (en) 1993-09-30 1996-12-10 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
GB2282906B (en) 1993-10-13 1996-11-06 Dataquill Ltd Data enty systems
CA2129075C (en) 1993-10-18 1999-04-20 Joseph J. Daniele Electronic copyright royalty accounting system using glyphs
JP2986345B2 (ja) 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
JPH07175813A (ja) 1993-10-27 1995-07-14 Ricoh Co Ltd 複合通信処理装置
US5764794A (en) 1993-10-27 1998-06-09 Perlin; Kenneth Method and apparatus for electronically storing alphanumeric characters
GB2283591B (en) 1993-11-04 1998-04-15 Northern Telecom Ltd Database management
US5862260A (en) * 1993-11-18 1999-01-19 Digimarc Corporation Methods for surveying dissemination of proprietary empirical data
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
US6339767B1 (en) 1997-06-02 2002-01-15 Aurigin Systems, Inc. Using hyperbolic trees to visualize data generated by patent-centric and group-oriented data processing
US5623681A (en) 1993-11-19 1997-04-22 Waverley Holdings, Inc. Method and apparatus for synchronizing, displaying and manipulating text and image documents
US5905251A (en) 1993-11-24 1999-05-18 Metrologic Instruments, Inc. Hand-held portable WWW access terminal with visual display panel and GUI-based WWW browser program integrated with bar code symbol reader in a hand-supportable housing
JPH07160827A (ja) 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JPH07200155A (ja) 1993-12-10 1995-08-04 Microsoft Corp ペン型コンピュータシステムの非目的結果検出
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5583980A (en) 1993-12-22 1996-12-10 Knowledge Media Inc. Time-synchronized annotation method
EP0661620B1 (de) 1993-12-30 2001-03-21 Xerox Corporation Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
DE69428675T2 (de) 1993-12-30 2002-05-08 Xerox Corp Apparat und Verfahren zur Unterstützung einer impliziten Strukturation von Freiform-Listen, Übersichten, Texten, Tabellen und Diagrammen in einem auf Handzeichen basierenden Eingabesystem und Editiersystem
US5488196A (en) * 1994-01-19 1996-01-30 Zimmerman; Thomas G. Electronic musical re-performance and editing system
US6095418A (en) 1994-01-27 2000-08-01 Symbol Technologies, Inc. Apparatus for processing symbol-encoded document information
JP3630712B2 (ja) * 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
US5889896A (en) * 1994-02-09 1999-03-30 Meshinsky; John System for performing multiple processes on images of scanned documents
USH2098H1 (en) 1994-02-22 2004-03-02 The United States Of America As Represented By The Secretary Of The Navy Multilingual communications device
US5577135A (en) 1994-03-01 1996-11-19 Apple Computer, Inc. Handwriting signal processing front-end for handwriting recognizers
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
US6522770B1 (en) 1999-05-19 2003-02-18 Digimarc Corporation Management of documents and other objects using optical devices
US6947571B1 (en) 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
US5815577A (en) 1994-03-18 1998-09-29 Innovonics, Inc. Methods and apparatus for securely encrypting data in conjunction with a personal computer
US5541419A (en) 1994-03-21 1996-07-30 Intermec Corporation Symbology reader wth reduced specular reflection
NZ248751A (en) 1994-03-23 1997-11-24 Ryan John Kevin Text analysis and coding
US5465353A (en) 1994-04-01 1995-11-07 Ricoh Company, Ltd. Image matching and retrieval by multi-access redundant hashing
IL109268A (en) 1994-04-10 1999-01-26 Advanced Recognition Tech Method and system for image recognition
US6961712B1 (en) 1996-10-25 2005-11-01 Ipf, Inc. Consumer product information request (CPIR) enabling servlets and web-based consumer product information catalogs employing the same
US6625581B1 (en) 1994-04-22 2003-09-23 Ipf, Inc. Method of and system for enabling the access of consumer product related information and the purchase of consumer products at points of consumer presence on the world wide web (www) at which consumer product information request (cpir) enabling servlet tags are embedded within html-encoded documents
WO1995032469A2 (en) 1994-05-13 1995-11-30 Apple Computer, Inc. Unified hierarchical and tear-off menus in a graphical, event-driven computer system
US6154758A (en) 1994-05-13 2000-11-28 Apple Computer, Inc. Text conversion method for computer systems
US6164534A (en) 1996-04-04 2000-12-26 Rathus; Spencer A. Method and apparatus for accessing electronic data via a familiar printed medium
US6866196B1 (en) 1994-05-25 2005-03-15 Spencer A. Rathus Method and apparatus for accessing electronic data via a familiar printed medium
US5932863A (en) 1994-05-25 1999-08-03 Rathus; Spencer A. Method and apparatus for accessing electric data via a familiar printed medium
US5687254A (en) 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
JP3423413B2 (ja) 1994-06-21 2003-07-07 キヤノン株式会社 手書き情報認識装置及び方法
JP3486459B2 (ja) 1994-06-21 2004-01-13 キヤノン株式会社 電子情報機器及びその制御方法
US5570113A (en) 1994-06-29 1996-10-29 International Business Machines Corporation Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system
US5624265A (en) * 1994-07-01 1997-04-29 Tv Interactive Data Corporation Printed publication remote contol for accessing interactive media
US5462473A (en) 1994-07-01 1995-10-31 Sheller; Ken Toy with slow movement recovery
US5752051A (en) 1994-07-19 1998-05-12 The United States Of America As Represented By The Secretary Of Nsa Language-independent method of generating index terms
US6115053A (en) 1994-08-02 2000-09-05 New York University Computer animation method and system for synthesizing human-like gestures and actions
US5949921A (en) 1994-08-09 1999-09-07 Matsushita Electric Industrial Co., Ltd. Image processing apparatus for reading an image by hand scanning
US5640193A (en) 1994-08-15 1997-06-17 Lucent Technologies Inc. Multimedia service access by reading marks on an object
US5625711A (en) 1994-08-31 1997-04-29 Adobe Systems Incorporated Method and apparatus for producing a hybrid data structure for displaying a raster image
US6052481A (en) 1994-09-02 2000-04-18 Apple Computers, Inc. Automatic method for scoring and clustering prototypes of handwritten stroke-based data
JPH0887378A (ja) 1994-09-19 1996-04-02 Nec Corp マウス動作認識によるコマンド実行方式
US5608778A (en) * 1994-09-22 1997-03-04 Lucent Technologies Inc. Cellular telephone as an authenticated transaction controller
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
GB9419126D0 (en) 1994-09-22 1994-11-09 At & T Global Inf Solution Method and apparatus for displaying translucent overlapping graphical objects on a computer monitor
US5831615A (en) 1994-09-30 1998-11-03 Intel Corporation Method and apparatus for redrawing transparent windows
US5777614A (en) 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
US5522798A (en) 1994-10-17 1996-06-04 Abbott Laboratories Control of a multi-channel drug infusion pump using a pharmacokinetic model
US5724521A (en) * 1994-11-03 1998-03-03 Intel Corporation Method and apparatus for providing electronic advertisements to end users in a consumer best-fit pricing manner
US6460036B1 (en) 1994-11-29 2002-10-01 Pinpoint Incorporated System and method for providing customized electronic newspapers and target advertisements
US5818612A (en) 1994-11-29 1998-10-06 Nec Corporation Scanning method and apparatus for pre-scanning document to allow manual adjustment of its orientation
US5758257A (en) 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US6029195A (en) * 1994-11-29 2000-02-22 Herz; Frederick S. M. System for customized electronic identification of desirable objects
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
US5814803A (en) * 1994-12-23 1998-09-29 Spectra-Physics Scanning Systems, Inc. Image reader with multi-focus lens
KR960028113A (ko) 1994-12-27 1996-07-22 김광호 팩시밀리의 원고자동 송신장치 및 방법
US5668891A (en) 1995-01-06 1997-09-16 Xerox Corporation Methods for determining font attributes of characters
FI97508C (fi) 1995-01-09 1996-12-27 Nokia Mobile Phones Ltd Pikavalinta henkilökohtaisessa matkaviestimessä
US5880743A (en) * 1995-01-24 1999-03-09 Xerox Corporation Apparatus and method for implementing visual animation illustrating results of interactive editing operations
US6745937B2 (en) 1995-06-07 2004-06-08 E-Comm, Inc. Low-power hand-held transaction device
US7093759B2 (en) 1995-02-13 2006-08-22 E-Comm Incorporated Low-power hand-held transaction device
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5732214A (en) * 1995-02-28 1998-03-24 Lucent Technologies, Inc. System for universal archival service where transfer is initiated by user or service and storing information at multiple locations for user selected degree of confidence
US5982853A (en) 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US5652849A (en) 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
US5852676A (en) 1995-04-11 1998-12-22 Teraform Inc. Method and apparatus for locating and identifying fields within a document
JPH08286831A (ja) 1995-04-14 1996-11-01 Canon Inc ペン入力型電子装置及びその制御方法
JPH08286807A (ja) 1995-04-18 1996-11-01 Canon Inc データ処理装置及びそのジェスチャ認識方法
US5893130A (en) 1995-04-28 1999-04-06 Sharp Kabushiki Kaisha Image output device
US5663514A (en) 1995-05-02 1997-09-02 Yamaha Corporation Apparatus and method for controlling performance dynamics and tempo in response to player's gesture
US5757360A (en) 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
JPH08315185A (ja) 1995-05-18 1996-11-29 Hitachi Ltd 手話編集装置
US5708825A (en) 1995-05-26 1998-01-13 Iconovex Corporation Automatic summary page creation and hyperlink generation
JP3671259B2 (ja) 1995-05-31 2005-07-13 カシオ計算機株式会社 表示装置
US5798693A (en) 1995-06-07 1998-08-25 Engellenner; Thomas J. Electronic locating systems
US5991441A (en) 1995-06-07 1999-11-23 Wang Laboratories, Inc. Real time handwriting recognition system
US5978773A (en) 1995-06-20 1999-11-02 Neomedia Technologies, Inc. System and method for using an ordinary article of commerce to access a remote computer
IL114367A (en) 1995-06-27 1999-11-30 Wizcom Technologies Ltd Hand-holdable optical scanner particularly useful as electronic translator
US5754308A (en) 1995-06-27 1998-05-19 Panasonic Technologies, Inc. System and method for archiving digital versions of documents and for generating quality printed documents therefrom
US5713045A (en) * 1995-06-29 1998-01-27 Object Technology Licensing Corporation System for processing user events with input device entity associated with event producer which further links communication from event consumer to the event producer
US6018342A (en) * 1995-07-03 2000-01-25 Sun Microsystems, Inc. Automatically generated content-based history mechanism
JP3689455B2 (ja) 1995-07-03 2005-08-31 キヤノン株式会社 情報処理方法及び装置
US5737507A (en) 1995-07-07 1998-04-07 Sun Microsystems, Inc. Representation of inter-relationships between graphical objects in a computer display device
US7562392B1 (en) 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
US6788800B1 (en) 2000-07-25 2004-09-07 Digimarc Corporation Authenticating objects using embedded data
US6650761B1 (en) 1999-05-19 2003-11-18 Digimarc Corporation Watermarked business cards and methods
US6505160B1 (en) 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
US20030040957A1 (en) 1995-07-27 2003-02-27 Willam Y. Conwell Advertising employing watermarking
US5724985A (en) * 1995-08-02 1998-03-10 Pacesetter, Inc. User interface for an implantable medical device using an integrated digitizer display screen
US5682439A (en) 1995-08-07 1997-10-28 Apple Computer, Inc. Boxed input correction system and method for pen based computer systems
US6026388A (en) * 1995-08-16 2000-02-15 Textwise, Llc User interface and other enhancements for natural language information retrieval system and method
EP0848552B1 (de) 1995-08-30 2002-05-29 Hitachi, Ltd. Gebärdensprachentelefonsystem für die kommunikation zwischen hörgeschädigten und nicht-hörgeschädigten
US6477239B1 (en) 1995-08-30 2002-11-05 Hitachi, Ltd. Sign language telephone device
US5867597A (en) * 1995-09-05 1999-02-02 Ricoh Corporation High-speed retrieval by example
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6360949B1 (en) 1995-10-10 2002-03-26 Symbol Technologies, Inc. Retro-reflective scan module for electro-optical readers
US6081623A (en) 1995-10-11 2000-06-27 Citrix Systems, Inc. Method for lossless bandwidth compression of a series of glyphs
US6061050A (en) 1995-10-27 2000-05-09 Hewlett-Packard Company User interface device
US5963966A (en) 1995-11-08 1999-10-05 Cybernet Systems Corporation Automated capture of technical documents for electronic review and distribution
US5767457A (en) 1995-11-13 1998-06-16 Cirque Corporation Apparatus and method for audible feedback from input device
US6714969B1 (en) 1995-11-17 2004-03-30 Symbol Technologies, Inc. Mobile terminal with integrated host application software
US6184847B1 (en) 1998-09-22 2001-02-06 Vega Vista, Inc. Intuitive control of portable data displays
US5822539A (en) 1995-12-08 1998-10-13 Sun Microsystems, Inc. System for adding requested document cross references to a document by annotation proxy configured to merge and a directory generator and annotation server
US6078308A (en) 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US5774591A (en) 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5818965A (en) 1995-12-20 1998-10-06 Xerox Corporation Consolidation of equivalence classes of scanned symbols
US5595445A (en) * 1995-12-27 1997-01-21 Bobry; Howard H. Hand-held optical scanner
US6055333A (en) 1995-12-28 2000-04-25 Motorola, Inc. Handwriting recognition method and apparatus having multiple selectable dictionaries
JP3254642B2 (ja) 1996-01-11 2002-02-12 株式会社日立製作所 索引の表示方法
USRE37654E1 (en) 1996-01-22 2002-04-16 Nicholas Longo Gesture synthesizer for electronic sound device
US6066794A (en) 1997-01-21 2000-05-23 Longo; Nicholas C. Gesture synthesizer for electronic sound device
US5821925A (en) 1996-01-26 1998-10-13 Silicon Graphics, Inc. Collaborative work environment supporting three-dimensional objects and multiple remote participants
WO1997027553A1 (en) * 1996-01-29 1997-07-31 Futuretense, Inc. Distributed electronic publishing system
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US5799219A (en) 1996-02-20 1998-08-25 Eastman Kodak Company System and method for remote image communication and processing using data recorded on photographic film
US5832474A (en) 1996-02-26 1998-11-03 Matsushita Electric Industrial Co., Ltd. Document search and retrieval system with partial match searching of user-drawn annotations
US6069622A (en) 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
US6549891B1 (en) 1996-03-26 2003-04-15 Recovery Management Corporation Method for managing inventory
US5893095A (en) 1996-03-29 1999-04-06 Virage, Inc. Similarity engine for content-based retrieval of images
US5809172A (en) 1996-04-17 1998-09-15 Canon Kabushiki Kaisha Non-linear aggregation mapping compression of image data and method
US5692073A (en) 1996-05-03 1997-11-25 Xerox Corporation Formless forms and paper web using a reference-based mark extraction technique
US6233591B1 (en) 1996-05-06 2001-05-15 Adobe Systems Incorporated Dropping hyperlink onto document object
US5884014A (en) * 1996-05-23 1999-03-16 Xerox Corporation Fontless structured document image representations for efficient rendering
US5923848A (en) * 1996-05-31 1999-07-13 Microsoft Corporation System and method for resolving names in an electronic messaging environment
US5781723A (en) 1996-06-03 1998-07-14 Microsoft Corporation System and method for self-identifying a portable information device to a computing unit
US5862256A (en) * 1996-06-14 1999-01-19 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by size discrimination
US5864635A (en) * 1996-06-14 1999-01-26 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by stroke analysis
US6314406B1 (en) 1996-06-26 2001-11-06 Telxon Corporation Customer information network
US5861886A (en) * 1996-06-26 1999-01-19 Xerox Corporation Method and apparatus for grouping graphic objects on a computer based system having a graphical user interface
US5784061A (en) 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
US6236767B1 (en) 1996-06-27 2001-05-22 Papercomp, Inc. System and method for storing and retrieving matched paper documents and electronic images
DE69736622T2 (de) 1996-07-03 2007-09-13 Hitachi, Ltd. System zur Bewegungserkennung
US6021403A (en) * 1996-07-19 2000-02-01 Microsoft Corporation Intelligent user assistance facility
EP1012737A1 (de) 1996-07-21 2000-06-28 Ernestine, LLC System zum www-zugriff mit streifenkoder
IL118914A0 (en) 1996-07-22 1996-10-31 Zohar Argamanit Ltd Hand-holdable optical scanner particularly useful as electronic translator
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6476830B1 (en) 1996-08-02 2002-11-05 Fujitsu Software Corporation Virtual objects for building a community in a virtual world
US5913185A (en) 1996-08-19 1999-06-15 International Business Machines Corporation Determining a natural language shift in a computer document
US5867795A (en) * 1996-08-23 1999-02-02 Motorola, Inc. Portable electronic device with transceiver and visual image display
US6837436B2 (en) 1996-09-05 2005-01-04 Symbol Technologies, Inc. Consumer interactive shopping system
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
JP3904637B2 (ja) 1996-09-13 2007-04-11 株式会社東芝 情報入力装置及び方法
US6218964B1 (en) 1996-09-25 2001-04-17 Christ G. Ellis Mechanical and digital reading pen
US5838326A (en) 1996-09-26 1998-11-17 Xerox Corporation System for moving document objects in a 3-D workspace
US6081621A (en) 1996-10-01 2000-06-27 Canon Kabushiki Kaisha Positioning templates in optical character recognition systems
US5995976A (en) 1996-10-11 1999-11-30 Walker Asset Management Limited Partnership Method and apparatus for distributing supplemental information related to printed articles
EP0837418A3 (de) 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Verfahren und System zum Erzeugen von Eingabeinformationen unter Verwendung des Zielobjektbildes, das aus reflektiertem Licht hergestellt ist
US6085162A (en) 1996-10-18 2000-07-04 Gedanken Corporation Translation system and method in which words are translated by a specialized dictionary and then a general dictionary
US6616038B1 (en) 1996-10-28 2003-09-09 Francis Olschafskie Selective text retrieval system
JPH10133847A (ja) 1996-10-28 1998-05-22 Casio Comput Co Ltd 移動端末音声認識/データベース検索/リソースアクセス通信システム
US6088484A (en) 1996-11-08 2000-07-11 Hughes Electronics Corporation Downloading of personalization layers for symbolically compressed objects
WO1998020411A1 (en) 1996-11-08 1998-05-14 Neomedia Technologies, Inc. Automatic access of electronic information through machine-readable codes on printed documents
ATE376696T1 (de) 1996-11-15 2007-11-15 Toho Business Man Ct Geschäftsverwaltungssystem
US8225089B2 (en) 1996-12-04 2012-07-17 Otomaku Properties Ltd., L.L.C. Electronic transaction systems utilizing a PEAD and a private key
US6175922B1 (en) 1996-12-04 2001-01-16 Esign, Inc. Electronic transaction systems and methods therefor
US6111588A (en) 1996-12-05 2000-08-29 Adobe Systems Incorporated Creating and modifying curves on a computer display
US6154723A (en) 1996-12-06 2000-11-28 The Board Of Trustees Of The University Of Illinois Virtual reality 3D interface system for data creation, viewing and editing
US6157935A (en) 1996-12-17 2000-12-05 Tran; Bao Q. Remote data access and management system
US5952599A (en) 1996-12-19 1999-09-14 Interval Research Corporation Interactive music generation system making use of global feature control by non-musicians
EP0849697B1 (de) 1996-12-20 2003-02-12 Hitachi Europe Limited Verfahren und System zur Erkennung von Handgesten
US5937110A (en) 1996-12-20 1999-08-10 Xerox Corporation Parallel propagating embedded binary sequences for characterizing objects in N-dimensional address space
US5966126A (en) 1996-12-23 1999-10-12 Szabo; Andrew J. Graphic user interface for database system
JPH10240552A (ja) 1996-12-26 1998-09-11 Canon Inc 情報処理装置及びその方法
JPH10200804A (ja) 1997-01-07 1998-07-31 Nikon Corp カメラ型スキャナ
US7437351B2 (en) 1997-01-10 2008-10-14 Google Inc. Method for searching media
US5953541A (en) 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
US6154757A (en) * 1997-01-29 2000-11-28 Krause; Philip R. Electronic text reading environment enhancement method and apparatus
JP4005165B2 (ja) 1997-01-29 2007-11-07 株式会社東芝 画像入力システムおよび画像入力方法
US5864848A (en) * 1997-01-31 1999-01-26 Microsoft Corporation Goal-driven information interpretation and extraction system
JP3634099B2 (ja) 1997-02-17 2005-03-30 株式会社リコー 文書情報管理システム,媒体用紙情報作成装置および文書情報管理装置
US5884267A (en) * 1997-02-24 1999-03-16 Digital Equipment Corporation Automated speech alignment for image synthesis
US5960383A (en) 1997-02-25 1999-09-28 Digital Equipment Corporation Extraction of key sections from texts using automatic indexing techniques
US6118888A (en) 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US6747632B2 (en) 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US5890147A (en) 1997-03-07 1999-03-30 Microsoft Corporation Scope testing of documents in a search engine using document to folder mapping
CA2199999A1 (en) 1997-03-14 1998-09-14 Peter Johann Kielland Parking regulation enforcement system
AUPO799197A0 (en) 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART01)
US5970455A (en) 1997-03-20 1999-10-19 Xerox Corporation System for capturing and retrieving audio data and corresponding hand-written notes
US5796952A (en) 1997-03-21 1998-08-18 Dot Com Development, Inc. Method and apparatus for tracking client interaction with a network resource and creating client profiles and resource database
US6643696B2 (en) 1997-03-21 2003-11-04 Owen Davis Method and apparatus for tracking client interaction with a network resource and creating client profiles and resource database
US6208435B1 (en) 1997-03-25 2001-03-27 Jan Scott Zwolinski Method and apparatus for providing a handheld scanner-dictionary apparatus
US6154222A (en) 1997-03-27 2000-11-28 At&T Corp Method for defining animation parameters for an animation definition interface
US6483513B1 (en) 1998-03-27 2002-11-19 At&T Corp. Method for defining MPEP 4 animation parameters for an animation definition interface
US6036086A (en) * 1997-03-28 2000-03-14 Lucent Technologies Inc. Apparatus and method for initiating a telephone transaction using a scanner
US5895470A (en) 1997-04-09 1999-04-20 Xerox Corporation System for categorizing documents in a linked collection of documents
JPH10289006A (ja) 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US5937422A (en) * 1997-04-15 1999-08-10 The United States Of America As Represented By The National Security Agency Automatically generating a topic description for text and searching and sorting text by topic using the same
US6049327A (en) 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US6546378B1 (en) 1997-04-24 2003-04-08 Bright Ideas, L.L.C. Signal interpretation engine
US6057844A (en) 1997-04-28 2000-05-02 Adobe Systems Incorporated Drag operation gesture controller
AU7475798A (en) 1997-05-07 1998-11-27 Neomedia Technologies, Inc. Scanner enhanced remote control unit and system for automatically linking to on-line resources
WO1998051035A1 (en) 1997-05-09 1998-11-12 Neomedia Technologies, Inc. Method and system for accessing electronic resources via machine-readable data on intelligent documents
JP3904671B2 (ja) * 1997-05-28 2007-04-11 富士通株式会社 仮想粘土システムおよびそのシミュレーション方法
US6003775A (en) 1997-06-11 1999-12-21 Intermec Ip Corp. Generic handheld symbology scanner with a modular optical sensor
US6104401A (en) 1997-06-12 2000-08-15 Netscape Communications Corporation Link filters
US6025844A (en) * 1997-06-12 2000-02-15 Netscape Communications Corporation Method and system for creating dynamic link views
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6072502A (en) 1997-06-25 2000-06-06 Adobe Systems Incorporated Characterization of corners of curvilinear segment
US6029141A (en) * 1997-06-27 2000-02-22 Amazon.Com, Inc. Internet-based customer referral system
US6252598B1 (en) 1997-07-03 2001-06-26 Lucent Technologies Inc. Video hand image computer interface
US5970483A (en) 1997-07-25 1999-10-19 Claritech Corporation Apparatus and methodology for submitting search queries
IL121457A (en) 1997-08-03 2004-06-01 Guru Internat Inc Computerized dictionary and thesaurus applications
US6178261B1 (en) 1997-08-05 2001-01-23 The Regents Of The University Of Michigan Method and system for extracting features in a pattern recognition system
US6092068A (en) 1997-08-05 2000-07-18 Netscape Communication Corporation Marked document tutor
US5907328A (en) 1997-08-27 1999-05-25 International Business Machines Corporation Automatic and configurable viewpoint switching in a 3D scene
US5917491A (en) 1997-08-29 1999-06-29 Netscape Communications Corporation Page proxy
US6344906B1 (en) 1997-09-16 2002-02-05 Cyberscan Technology, Inc. Universal document scanner controller
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US6081629A (en) 1997-09-17 2000-06-27 Browning; Denton R. Handheld scanner and accompanying remote access agent
US5899700A (en) 1997-09-22 1999-05-04 Didacticom Partners Embedded multimedia control code method and apparatus
EP0905644A3 (de) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Handgebärden
US6044378A (en) * 1997-09-29 2000-03-28 International Business Machines Corporation Method and system for a federated digital library by managing links
US6201903B1 (en) 1997-09-30 2001-03-13 Ricoh Company, Ltd. Method and apparatus for pen-based faxing
US6518950B1 (en) 1997-10-07 2003-02-11 Interval Research Corporation Methods and systems for providing human/computer interfaces
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6546405B2 (en) 1997-10-23 2003-04-08 Microsoft Corporation Annotating temporally-dimensioned multimedia content
US5986655A (en) 1997-10-28 1999-11-16 Xerox Corporation Method and system for indexing and controlling the playback of multimedia documents
US5983295A (en) 1997-10-31 1999-11-09 Unisys Corporation Method and system for wrapping single files for burning into compact disk
DE19748702C1 (de) 1997-11-04 1998-11-05 Siemens Ag Verfahren und Anordnung zum Erkennen von Verteilinformationen auf Sendungen
US6057845A (en) 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US6134532A (en) 1997-11-14 2000-10-17 Aptex Software, Inc. System and method for optimal adaptive matching of users to most relevant entity and information in real-time
US5999664A (en) 1997-11-14 1999-12-07 Xerox Corporation System for searching a corpus of document images by user specified document layout components
US20030173405A1 (en) 2000-01-12 2003-09-18 Metrologic Instruments, Inc. Bar code symbol driven systems for accessing information resources on the internet
US5889523A (en) * 1997-11-25 1999-03-30 Fuji Xerox Co., Ltd. Method and apparatus for dynamically grouping a plurality of graphic objects
US5986200A (en) 1997-12-15 1999-11-16 Lucent Technologies Inc. Solid state interactive music playback device
US6145003A (en) 1997-12-17 2000-11-07 Microsoft Corporation Method of web crawling utilizing address mapping
US6925182B1 (en) 1997-12-19 2005-08-02 Koninklijke Philips Electronics N.V. Administration and utilization of private keys in a networked environment
US6804659B1 (en) 2000-01-14 2004-10-12 Ricoh Company Ltd. Content based web advertising
US7124093B1 (en) 1997-12-22 2006-10-17 Ricoh Company, Ltd. Method, system and computer code for content based web advertising
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
GB9727322D0 (en) 1997-12-29 1998-02-25 Xerox Corp Multilingual information retrieval
US6427032B1 (en) 1997-12-30 2002-07-30 Imagetag, Inc. Apparatus and method for digital filing
US6192165B1 (en) 1997-12-30 2001-02-20 Imagetag, Inc. Apparatus and method for digital filing
US6744936B2 (en) 1997-12-30 2004-06-01 Imagetag, Inc. Apparatus and method for simultaneously managing paper-based documents and digital images of the same
US6514083B1 (en) 1998-01-07 2003-02-04 Electric Planet, Inc. Method and apparatus for providing interactive karaoke entertainment
US6509912B1 (en) 1998-01-12 2003-01-21 Xerox Corporation Domain objects for use in a freeform graphics system
US6018346A (en) * 1998-01-12 2000-01-25 Xerox Corporation Freeform graphics system having meeting objects for supporting meeting objectives
US6212504B1 (en) 1998-01-12 2001-04-03 Unisys Corporation Self-authentication of value documents using encoded indices
JPH11212691A (ja) 1998-01-21 1999-08-06 Fuji Xerox Co Ltd ペン入力方法及び装置
JP3849279B2 (ja) 1998-01-23 2006-11-22 富士ゼロックス株式会社 インデクス作成方法および検索方法
EP1717684A3 (de) 1998-01-26 2008-01-23 Fingerworks, Inc. Verfahren und Vorrichtung zur Integration von manuellen Eingaben
US6092038A (en) 1998-02-05 2000-07-18 International Business Machines Corporation System and method for providing lossless compression of n-gram language models in a real-time decoder
US6985169B1 (en) 1998-02-09 2006-01-10 Lenovo (Singapore) Pte. Ltd. Image capture system for mobile communications
US6094689A (en) 1998-02-13 2000-07-25 Hewlett-Packard Company System for coupling a host computer to an image scanner in which high level functions are migrated to the attached host computer
US6249606B1 (en) 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6560281B1 (en) 1998-02-24 2003-05-06 Xerox Corporation Method and apparatus for generating a condensed version of a video sequence including desired affordances
US6433784B1 (en) 1998-02-26 2002-08-13 Learn2 Corporation System and method for automatic animation generation
US6192478B1 (en) 1998-03-02 2001-02-20 Micron Electronics, Inc. Securing restricted operations of a computer program using a visual key feature
US6055513A (en) 1998-03-11 2000-04-25 Telebuyer, Llc Methods and apparatus for intelligent selection of goods and services in telephonic and electronic commerce
US20020055906A1 (en) 1998-03-11 2002-05-09 Katz Ronald A. Methods and apparatus for intelligent selection of goods and services in telephonic and electronic commerce
US6269188B1 (en) 1998-03-12 2001-07-31 Canon Kabushiki Kaisha Word grouping accuracy value generation
US6421675B1 (en) 1998-03-16 2002-07-16 S. L. I. Systems, Inc. Search engine
JP3597697B2 (ja) 1998-03-20 2004-12-08 富士通株式会社 文書要約装置およびその方法
GB9806085D0 (en) 1998-03-23 1998-05-20 Xerox Corp Text summarisation using light syntactic parsing
AU3460799A (en) 1998-03-31 1999-10-18 Logic Controls, Inc. Integrated keyboard input device
US6031525A (en) * 1998-04-01 2000-02-29 New York University Method and apparatus for writing
US6330976B1 (en) 1998-04-01 2001-12-18 Xerox Corporation Marking medium area with encoded identifier for producing action through network
US6208355B1 (en) 1998-04-07 2001-03-27 Adobe Systems Incorporated Sketch-based editing of curves
US6064854A (en) 1998-04-13 2000-05-16 Intel Corporation Computer assisted interactive entertainment/educational character goods
US6313853B1 (en) 1998-04-16 2001-11-06 Nortel Networks Limited Multi-service user interface
US6285794B1 (en) 1998-04-17 2001-09-04 Adobe Systems Incorporated Compression and editing of movies by multi-image morphing
US6088731A (en) 1998-04-24 2000-07-11 Associative Computing, Inc. Intelligent assistant for use with a local computer and with the internet
US6033086A (en) 1998-04-30 2000-03-07 Hewlett-Packard Company Compact illumination system for image scanner
US6249292B1 (en) 1998-05-04 2001-06-19 Compaq Computer Corporation Technique for controlling a presentation of a computer generated object having a plurality of movable components
GB9809679D0 (en) 1998-05-06 1998-07-01 Xerox Corp Portable text capturing method and device therefor
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US6571025B2 (en) 1998-05-18 2003-05-27 Olympus Optical Co., Ltd. Handheld code reader with optimal optical reading distance
US6438523B1 (en) 1998-05-20 2002-08-20 John A. Oberteuffer Processing handwritten and hand-drawn input and speech input
US6766494B1 (en) 1998-06-15 2004-07-20 Fuji Xerox Co., Ltd. Method and system for creating ad-hoc links from free-form ink
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US6347290B1 (en) 1998-06-24 2002-02-12 Compaq Information Technologies Group, L.P. Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device
US6151208A (en) 1998-06-24 2000-11-21 Digital Equipment Corporation Wearable computing device mounted on superior dorsal aspect of a hand
US6638314B1 (en) 1998-06-26 2003-10-28 Microsoft Corporation Method of web crawling utilizing crawl numbers
US6430567B2 (en) 1998-06-30 2002-08-06 Sun Microsystems, Inc. Method and apparatus for multi-user awareness and collaboration
US6265844B1 (en) 1998-07-02 2001-07-24 Ericsson Inc. Battery pack with photo means for enabling integral circuitry
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6417797B1 (en) 1998-07-14 2002-07-09 Cirrus Logic, Inc. System for A multi-purpose portable imaging device and methods for using same
JP3952599B2 (ja) 1998-07-16 2007-08-01 松下電器産業株式会社 映像表示装置および映像表示方法
US6304674B1 (en) 1998-08-03 2001-10-16 Xerox Corporation System and method for recognizing user-specified pen-based gestures using hidden markov models
US6169969B1 (en) 1998-08-07 2001-01-02 The United States Of America As Represented By The Director Of The National Security Agency Device and method for full-text large-dictionary string matching using n-gram hashing
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6356899B1 (en) 1998-08-29 2002-03-12 International Business Machines Corporation Method for interactively creating an information database including preferred information elements, such as preferred-authority, world wide web pages
US6369811B1 (en) 1998-09-09 2002-04-09 Ricoh Company Limited Automatic adaptive document help for paper documents
US6384744B1 (en) 1998-09-11 2002-05-07 Digital:Convergence Corp. Method and system for data transmission from an optical reader
US6643692B1 (en) 1998-09-11 2003-11-04 Lv Partners, L.P. Method for controlling a computer using an embedded unique code in the content of video tape media
US6629133B1 (en) 1998-09-11 2003-09-30 Lv Partners, L.P. Interactive doll
US6708208B1 (en) 1998-09-11 2004-03-16 L.V. Partners, L.P. Unique bar code for indicating a link between a product and a remote location on a web network
US6792452B1 (en) 1998-09-11 2004-09-14 L.V. Partners, L.P. Method for configuring a piece of equipment with the use of an associated machine resolvable code
US6757715B1 (en) 1998-09-11 2004-06-29 L.V. Partners, L.P. Bar code scanner and software interface interlock for performing encrypted handshaking and for disabling the scanner in case of handshaking operation failure
US6594705B1 (en) 1998-09-11 2003-07-15 Lv Partners, L.P. Method and apparatus for utilizing an audibly coded signal to conduct commerce over the internet
US6688522B1 (en) 1998-09-11 2004-02-10 L. V. Partners, L.P. Unique bar code
US6098106A (en) 1998-09-11 2000-08-01 Digitalconvergence.Com Inc. Method for controlling a computer with an audio signal
US6829650B1 (en) 1998-09-11 2004-12-07 L. V. Partners, L.P. Method and apparatus for opening and launching a web browser in response to an audible signal
US6745234B1 (en) 1998-09-11 2004-06-01 Digital:Convergence Corporation Method and apparatus for accessing a remote location by scanning an optical code
US6526449B1 (en) 1998-09-11 2003-02-25 Digital Convergence Corporation Method and apparatus for controlling a computer from a remote location
US6754698B1 (en) 1998-09-11 2004-06-22 L. V. Partners, L.P. Method and apparatus for accessing a remote location with an optical reader having a dedicated memory system
US6791588B1 (en) 1998-09-11 2004-09-14 L.V. Partners, L.P. Method for conducting a contest using a network
US6823388B1 (en) 1998-09-11 2004-11-23 L.V. Parners, L.P. Method and apparatus for accessing a remote location with an optical reader having a programmable memory system
US6631404B1 (en) 1998-09-11 2003-10-07 Lv Partners, L.P. Method and system for conducting a contest using a network
US6725260B1 (en) 1998-09-11 2004-04-20 L.V. Partners, L.P. Method and apparatus for configuring configurable equipment with configuration information received from a remote location
US6701369B1 (en) 1998-09-11 2004-03-02 L.V. Partners, L.P. Method and apparatus for accessing a remote location by sensing a machine-resolvable code
US6622165B1 (en) 1998-09-11 2003-09-16 Lv Partners, L.P. Method and apparatus for allowing a remote site to interact with an intermediate database to facilitate access to the remote site
US6836799B1 (en) 1998-09-11 2004-12-28 L.V. Partners, L.P. Method and apparatus for tracking user profile and habits on a global network
US6697949B1 (en) 1998-09-11 2004-02-24 L.V. Partner, L.P. Method and apparatus for controlling a user's pc through an audio-visual broadcast to archive information in the users pc
US6636892B1 (en) 1998-09-11 2003-10-21 Lv Partners, L.P. Method for conducting a contest using a network
US6615268B1 (en) 1998-09-11 2003-09-02 Lv Partners, L.P. Method for controlling a computer using an embedded unique code in the content of dat media
US6826592B1 (en) 1998-09-11 2004-11-30 L.V. Partners, L.P. Digital ID for selecting web browser and use preferences of a user during use of a web application
US6701354B1 (en) 1998-09-11 2004-03-02 L. V. Partners, L.P. Method for interconnecting two locations over a network in response to using a tool
US6877032B1 (en) 1998-09-11 2005-04-05 L.V. Partners, L.P. Launching a web site using a portable scanner
US6636896B1 (en) 1998-09-11 2003-10-21 Lv Partners, L.P. Method and apparatus for utilizing an audibly coded signal to conduct commerce over the internet
US6229137B1 (en) 1998-09-14 2001-05-08 Hewlett-Packard Company Scan line illumination system utilizing hollow reflector
US6195475B1 (en) 1998-09-15 2001-02-27 Hewlett-Packard Company Navigation system for handheld scanner
US6484156B1 (en) 1998-09-15 2002-11-19 Microsoft Corporation Accessing annotations across multiple target media streams
US6140140A (en) 1998-09-16 2000-10-31 Advanced Micro Devices, Inc. Method for detecting process sensitivity to integrated circuit layout by compound processing
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
EP0991011B1 (de) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Verfahren und Vorrichtung zum Segmentieren von Handgebärden
JP2000113220A (ja) 1998-09-30 2000-04-21 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000123114A (ja) 1998-10-15 2000-04-28 Casio Comput Co Ltd 手書き文字入力装置及び記憶媒体
US6244873B1 (en) 1998-10-16 2001-06-12 At&T Corp. Wireless myoelectric control apparatus and methods
US6459823B2 (en) 1998-10-28 2002-10-01 Hewlett-Packard Company Apparatus and method of increasing scanner resolution
US6341280B1 (en) 1998-10-30 2002-01-22 Netscape Communications Corporation Inline tree filters
US6351222B1 (en) 1998-10-30 2002-02-26 Ati International Srl Method and apparatus for receiving an input by an entertainment device
US6978297B1 (en) 1998-11-12 2005-12-20 Ricoh, Co., Ltd. System and method of managing queues by maintaining metadata files having attributes corresponding to capture of electronic document and using the metadata files to selectively lock the electronic document
US6204852B1 (en) 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6636763B1 (en) 1998-12-10 2003-10-21 Andrew Junker Brain-body actuated system
US6292274B1 (en) 1998-12-11 2001-09-18 Hewlett-Packard Company Portable scanner with tilting body design
IL139006A0 (en) 1998-12-12 2001-11-25 Brodia Group Trusted agent for electronic commerce
US6307955B1 (en) 1998-12-18 2001-10-23 Topaz Systems, Inc. Electronic signature management system
US6342901B1 (en) 1998-12-22 2002-01-29 Xerox Corporation Interactive device for displaying information from multiple sources
US6675356B1 (en) 1998-12-22 2004-01-06 Xerox Corporation Distributed document-based calendaring system
US6167369A (en) 1998-12-23 2000-12-26 Xerox Company Automatic language identification using both N-gram and word information
US6243683B1 (en) 1998-12-29 2001-06-05 Intel Corporation Video control of speech recognition
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6851115B1 (en) 1999-01-05 2005-02-01 Sri International Software-based architecture for communication and cooperation among distributed electronic agents
IL132719A (en) 1999-01-07 2010-04-29 Topscan Ltd Optical scanner and software therefor
US6049034A (en) 1999-01-19 2000-04-11 Interval Research Corporation Music synthesis controller and method
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6448979B1 (en) 1999-01-25 2002-09-10 Airclic, Inc. Printed medium activated interactive communication of multimedia information, including advertising
US6993580B2 (en) 1999-01-25 2006-01-31 Airclic Inc. Method and system for sharing end user information on network
US6691914B2 (en) 1999-01-25 2004-02-17 Airclic, Inc. Method and system for directing end user to network location of provider based on user-provided codes
US6381602B1 (en) 1999-01-26 2002-04-30 Microsoft Corporation Enforcing access control on resources at a location other than the source location
US6418433B1 (en) 1999-01-28 2002-07-09 International Business Machines Corporation System and method for focussed web crawling
US6377296B1 (en) 1999-01-28 2002-04-23 International Business Machines Corporation Virtual map system and method for tracking objects
AU3215000A (en) 1999-02-01 2000-08-18 Barpoint.Com, Inc. Interactive system for investing products on a network
US6651053B1 (en) 1999-02-01 2003-11-18 Barpoint.Com, Inc. Interactive system for investigating products on a network
US20030004724A1 (en) 1999-02-05 2003-01-02 Jonathan Kahn Speech recognition program mapping tool to align an audio file to verbatim text
US6845913B2 (en) 1999-02-11 2005-01-25 Flir Systems, Inc. Method and apparatus for barcode selection of themographic survey images
US6883000B1 (en) 1999-02-12 2005-04-19 Robert L. Gropper Business card and contact management system
US7552075B1 (en) 1999-02-22 2009-06-23 Walsh William F Method, apparatus and computer-based program for exclusive investment of debenture credit
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
JP2000251012A (ja) 1999-03-01 2000-09-14 Hitachi Ltd 帳票処理方法およびシステム
US6307952B1 (en) 1999-03-03 2001-10-23 Disney Enterprises, Inc. Apparatus for detecting guest interactions and method therefore
US6687878B1 (en) 1999-03-15 2004-02-03 Real Time Image Ltd. Synchronizing/updating local client notes with annotations previously made by other clients in a notes database
US7353199B1 (en) 1999-03-22 2008-04-01 Perfect Web Technologies, Inc. Method of moderating external access to an electronic document authoring development and distribution system
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6542933B1 (en) 1999-04-05 2003-04-01 Neomedia Technologies, Inc. System and method of using machine-readable or human-readable linkage codes for accessing networked data resources
US6486892B1 (en) 1999-04-07 2002-11-26 Joseph L. Stern System and method for accessing, manipulating and viewing internet and non-internet related information and for controlling networked devices
US6311152B1 (en) 1999-04-08 2001-10-30 Kent Ridge Digital Labs System for chinese tokenization and named entity recognition
US6658151B2 (en) 1999-04-08 2003-12-02 Ricoh Co., Ltd. Extracting information from symbolically compressed document images
US6314457B1 (en) 1999-04-21 2001-11-06 Airclic, Inc. Method for managing printed medium activated revenue sharing domain name system schemas
AU4481600A (en) 1999-04-22 2000-11-10 Qode.Com, Inc. System and method for providing electronic information upon receipt of a scannedbar code
US6453237B1 (en) 1999-04-23 2002-09-17 Global Locate, Inc. Method and apparatus for locating and providing services to mobile devices
US6400845B1 (en) 1999-04-23 2002-06-04 Computer Services, Inc. System and method for data extraction from digital images
US6678664B1 (en) 1999-04-26 2004-01-13 Checkfree Corporation Cashless transactions without credit cards, debit cards or checks
US6473739B1 (en) 1999-04-27 2002-10-29 Robert S. Showghi Remote ordering system
EP1221160A2 (de) 1999-04-29 2002-07-10 Spintronics Ltd. Informations-wiedergewinnungs-system
MXPA01000463A (es) 1999-05-12 2002-11-29 Airclic Inc Comunicacion interactiva activada por un medio de impresion..
US6880122B1 (en) 1999-05-13 2005-04-12 Hewlett-Packard Development Company, L.P. Segmenting a document into regions associated with a data type, and assigning pipelines to process such regions
KR101145534B1 (ko) 1999-05-19 2012-06-01 디지맥 코포레이션 컴퓨터들을 제어하거나 물리적 및 전자적 객체들로부터 인터넷 리소스들에 링크하기 위한 방법들 및 시스템들
US7055739B1 (en) 1999-05-25 2006-06-06 Silverbrook Research Pty Ltd Identity-coded surface with reference points
US6439706B1 (en) 1999-05-25 2002-08-27 Silverbrook Research Pty Ltd. Printer cartridge with binder
AUPQ439299A0 (en) 1999-12-01 1999-12-23 Silverbrook Research Pty Ltd Interface system
US6825945B1 (en) 1999-05-25 2004-11-30 Silverbrook Research Pty Ltd Method and system for delivery of a brochure
US6816274B1 (en) 1999-05-25 2004-11-09 Silverbrook Research Pty Ltd Method and system for composition and delivery of electronic mail
US6341290B1 (en) 1999-05-28 2002-01-22 Electronic Data Systems Corporation Method and system for automating the communication of business information
US6597812B1 (en) 1999-05-28 2003-07-22 Realtime Data, Llc System and method for lossless data compression and decompression
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6880124B1 (en) 1999-06-04 2005-04-12 Hewlett-Packard Development Company, L.P. Methods of storing and retrieving information, and methods of document retrieval
US7339467B2 (en) 1999-06-11 2008-03-04 At&T Delaware Intellectual Property, Inc. Apparatus and method for providing weather and other alerts
JP2000353215A (ja) 1999-06-11 2000-12-19 Nec Corp 文字認識装置および文字認識プログラムを記録した記録媒体
US6886104B1 (en) 1999-06-25 2005-04-26 Cross Match Technologies Rechargeable mobile hand-held fingerprint scanner with a data and power communication interface
CN1205529C (zh) 1999-06-30 2005-06-08 西尔弗布鲁克研究股份有限公司 用于协作文档标记的方法和系统
AU762301B2 (en) 1999-06-30 2003-06-19 Silverbrook Research Pty Ltd Interactive printer account
SG121851A1 (en) 1999-06-30 2006-05-26 Silverbrook Res Pty Ltd Method and system for conferencing using processing sensor
EP1214843A4 (de) 1999-06-30 2006-07-05 Silverbrook Res Pty Ltd Verfahren und system um ein dokument zu bekommen, welches sich auf ein video bezieht
US6543052B1 (en) 1999-07-09 2003-04-01 Fujitsu Limited Internet shopping system utilizing set top box and voice recognition
US6335725B1 (en) 1999-07-14 2002-01-01 Hewlett-Packard Company Method of partitioning a touch screen for data input
US6813395B1 (en) 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6546385B1 (en) 1999-08-13 2003-04-08 International Business Machines Corporation Method and apparatus for indexing and searching content in hardcopy documents
AU6539200A (en) 1999-08-13 2001-03-13 Jean-Pierre Kocher Method and apparatus for scanning of food and medicine to provide outputs relative to a user profile
US6466336B1 (en) 1999-08-30 2002-10-15 Compaq Computer Corporation Method and apparatus for organizing scanned images
US6297491B1 (en) 1999-08-30 2001-10-02 Gateway, Inc. Media scanner
US6408257B1 (en) 1999-08-31 2002-06-18 Xerox Corporation Augmented-reality display method and system
US7424543B2 (en) 1999-09-08 2008-09-09 Rice Iii James L System and method of permissive data flow and application transfer
US6970583B2 (en) 2000-05-25 2005-11-29 Black Gerald R Identity authentication device
US7225979B2 (en) 1999-09-17 2007-06-05 Silverbrook Research Pty Ltd Methods and systems for object identification and interaction
GB9922214D0 (en) 1999-09-20 1999-11-17 Ncr Int Inc Creation transmission and retrieval of information
US6346933B1 (en) 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
US6688525B1 (en) 1999-09-22 2004-02-10 Eastman Kodak Company Apparatus and method for reading a coded pattern
US8429005B2 (en) * 1999-09-23 2013-04-23 Activ8Now, Llc Method for determining effectiveness of display of objects in advertising images
WO2001024051A1 (en) 1999-09-24 2001-04-05 Ericsson, Inc. Systems, methods and computer program products for scanning uniform resource locators to access and display internet resources
US6316710B1 (en) 1999-09-27 2001-11-13 Eric Lindemann Musical synthesizer capable of expressive phrasing
US6879957B1 (en) 1999-10-04 2005-04-12 William H. Pechter Method for producing a speech rendition of text from diphone sounds
US6522333B1 (en) 1999-10-08 2003-02-18 Electronic Arts Inc. Remote communication through visual representations
EP1093836A1 (de) 1999-10-21 2001-04-25 ABB (Schweiz) AG Entgasungssystem für Kraftwerke
US6970915B1 (en) 1999-11-01 2005-11-29 Tellme Networks, Inc. Streaming content over a telephone interface
US6772338B1 (en) 1999-10-26 2004-08-03 Ricoh Co., Ltd. Device for transfering data between an unconscious capture device and another device
US6589290B1 (en) 1999-10-29 2003-07-08 America Online, Inc. Method and apparatus for populating a form with data
US6493707B1 (en) * 1999-10-29 2002-12-10 Verizon Laboratories Inc. Hypervideo: information retrieval using realtime buffers
CN1175020C (zh) 1999-11-02 2004-11-10 亨茨曼国际有限公司 制造粘弹泡沫塑料、混合多元醇的方法以及对此有用的反应体系
AU1390501A (en) 1999-11-04 2001-05-14 Telefonaktiebolaget Lm Ericsson (Publ) System and method of increasing the recognition rate of speech-input instructions in remote communication terminals
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6489970B1 (en) 1999-11-16 2002-12-03 International Business Machines, Corporation Means for specifying direct manipulation relationships on hierarchically structured visuals
US6571235B1 (en) 1999-11-23 2003-05-27 Accenture Llp System for providing an interface for accessing data in a discussion database
US6384829B1 (en) 1999-11-24 2002-05-07 Fuji Xerox Co., Ltd. Streamlined architecture for embodied conversational characters with reduced message traffic
US20010032252A1 (en) 1999-11-29 2001-10-18 Durst Robert T. System and method for linking online resources to print media and authoring tool for same
CA2392229C (en) 1999-11-30 2016-08-30 Transforming Technologies, Inc. Methods, systems, and apparatuses for secure interactions
US7277925B2 (en) 1999-12-08 2007-10-02 Warnock Kevin L Internet document services
TW545023B (en) * 1999-12-10 2003-08-01 Koninkl Philips Electronics Nv Synchronization of session keys
US6360951B1 (en) 1999-12-16 2002-03-26 Xerox Corporation Hand-held scanning system for heuristically organizing scanned information
US6714677B1 (en) 1999-12-17 2004-03-30 Xerox Corporation Use of correlation histograms for improved glyph decoding
US6865284B2 (en) * 1999-12-20 2005-03-08 Hewlett-Packard Development Company, L.P. Method and system for processing an electronic version of a hardcopy of a document
US6404438B1 (en) 1999-12-21 2002-06-11 Electronic Arts, Inc. Behavioral learning for a visual representation in a communication environment
JP2001188555A (ja) 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
US6526395B1 (en) 1999-12-31 2003-02-25 Intel Corporation Application of personality models and interaction with synthetic characters in a computing system
US6823492B1 (en) * 2000-01-06 2004-11-23 Sun Microsystems, Inc. Method and apparatus for creating an index for a structured document based on a stylesheet
US6507349B1 (en) 2000-01-06 2003-01-14 Becomm Corporation Direct manipulation of displayed content
US6664991B1 (en) 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
USD432539S (en) 2000-01-07 2000-10-24 Digitalconvergence.:Com Inc. Keystroke automator
US6496802B1 (en) 2000-01-07 2002-12-17 Mp3.Com, Inc. System and method for providing access to electronic works
WO2001052110A2 (en) 2000-01-13 2001-07-19 Orbidex, Inc. System and method of searching and gathering information on-line and off-line
US20040193488A1 (en) 2000-01-19 2004-09-30 Denis Khoo Method and system for advertising over a data network
US6820237B1 (en) 2000-01-21 2004-11-16 Amikanow! Corporation Apparatus and method for context-based highlighting of an electronic document
US20010034237A1 (en) 2000-03-01 2001-10-25 Masood Garahi Interactive wagering system with control of unauthorized wagering
US6587835B1 (en) 2000-02-09 2003-07-01 G. Victor Treyz Shopping assistance with handheld computing device
AU2001257573A1 (en) 2000-02-11 2001-08-20 Verimatrix, Inc. Web based human services conferencing network
US6832116B1 (en) 2000-02-16 2004-12-14 Telefonaktiebolaget L M Ericsson (Publ) Method and system for controlling an electronic utility device using an electronic reading device
US6992655B2 (en) 2000-02-18 2006-01-31 Anoto Ab Input unit arrangement
US6615209B1 (en) 2000-02-22 2003-09-02 Google, Inc. Detecting query-specific duplicate documents
US6630924B1 (en) 2000-02-22 2003-10-07 International Business Machines Corporation Gesture sensing split keyboard and approach for capturing keystrokes
US6718308B1 (en) 2000-02-22 2004-04-06 Daniel L. Nolting Media presentation system controlled by voice to text commands
GB2366033B (en) 2000-02-29 2004-08-04 Ibm Method and apparatus for processing acquired data and contextual information and associating the same with available multimedia resources
US6744938B1 (en) 2000-03-06 2004-06-01 Ncr Corporation Retail terminal utilizing an imaging scanner for product attribute identification and consumer interactive querying
US6650442B1 (en) 2000-03-06 2003-11-18 Umax Data Systems, Inc. Multiple non-directional scanning
US20020051262A1 (en) 2000-03-14 2002-05-02 Nuttall Gordon R. Image capture device with handwritten annotation
US6792112B1 (en) 2000-03-17 2004-09-14 Denso Corporation Encrypting communications between wireless mobile units
US6510417B1 (en) 2000-03-21 2003-01-21 America Online, Inc. System and method for voice access to internet-based information
US7117374B2 (en) 2000-03-24 2006-10-03 Intermec Ip Corp Apparatus and method for gathering and utilizing data
US6409401B1 (en) 2000-03-30 2002-06-25 Zih Corp. Portable printer with RFID encoder
US20020055919A1 (en) 2000-03-31 2002-05-09 Harlequin Limited Method and system for gathering, organizing, and displaying information from data searches
US6801907B1 (en) 2000-04-10 2004-10-05 Security Identification Systems Corporation System for verification and association of documents and digital images
US6377712B1 (en) 2000-04-10 2002-04-23 Adobe Systems Incorporated Iteratively building displacement maps for image warping
US6618732B1 (en) 2000-04-11 2003-09-09 Revelink, Inc. Database query handler supporting querying of textual annotations of relations between data objects
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
WO2001080133A2 (en) 2000-04-17 2001-10-25 Emtera Corporation System and method for wireless purchases of goods and services
US6771283B2 (en) 2000-04-26 2004-08-03 International Business Machines Corporation Method and system for accessing interactive multimedia information or services by touching highlighted items on physical documents
JP3938833B2 (ja) 2000-04-27 2007-06-27 株式会社リコー 露出制御装置
US6643661B2 (en) 2000-04-27 2003-11-04 Brio Software, Inc. Method and apparatus for implementing search and channel features in an enterprise-wide computer system
CA2407688A1 (en) 2000-04-28 2001-11-08 James Grossman Method of distributing printed advertising
AU2001263500A1 (en) 2000-05-01 2001-11-12 R.R. Donnelley And Sons Company Methods and apparatus for serving a web page to a client device based on printed publications and publisher controlled links
US6697838B1 (en) 2000-05-03 2004-02-24 Software Leader, Llc Method and system for annotating information resources in connection with browsing, in both connected and disconnected states
US6938024B1 (en) 2000-05-04 2005-08-30 Microsoft Corporation Transmitting information given constrained resources
US20020073000A1 (en) 2000-05-05 2002-06-13 Mike Sage System and method for implementing a wireless network in a service center for generating a repair order
US20020002504A1 (en) 2000-05-05 2002-01-03 Andrew Engel Mobile shopping assistant system and device
US6812961B1 (en) 2000-05-11 2004-11-02 Eastman Kodak Company System and camera for automatically forwarding digital images to a service provider
US6625335B1 (en) 2000-05-11 2003-09-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for assigning keywords to documents
WO2001088661A2 (en) 2000-05-16 2001-11-22 U.S. Army Medical Research And Material Command System and method for providing access to forms and maintaining the data used to complete the forms
US6505153B1 (en) 2000-05-22 2003-01-07 Compaq Information Technologies Group, L.P. Efficient method for producing off-line closed captions
US6931592B1 (en) 2000-05-22 2005-08-16 Microsoft Corporation Reviewing and merging electronic documents
US6785421B1 (en) 2000-05-22 2004-08-31 Eastman Kodak Company Analyzing images to determine if one or more sets of materials correspond to the analyzed images
US6968332B1 (en) 2000-05-25 2005-11-22 Microsoft Corporation Facility for highlighting documents accessed through search or browsing
KR100356105B1 (ko) 2000-05-30 2002-10-19 주식회사 엔아이비소프트 문서 자동 요약을 이용한 문서 분류 검색 방법 및 문서분류 검색 시스템
KR20000054339A (ko) 2000-06-01 2000-09-05 한정룡 문자인식장치를 부착한 휴대폰
US6678075B1 (en) 2000-06-07 2004-01-13 Mustek Systems Inc. Slide securing device for flatbed scanning system
US6766956B1 (en) 2000-06-08 2004-07-27 United Video Properties, Inc. System and method for using portable device with bar-code scanner
KR20000071993A (ko) 2000-06-10 2000-12-05 최제형 인터넷 유료정보 서비스의 결재수단으로 기간과 권한이명시된 매체로의 인증방법과 장치 및 운용방법.
US6720984B1 (en) 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
US20010053252A1 (en) 2000-06-13 2001-12-20 Stuart Creque Method of knowledge management and information retrieval utilizing natural characteristics of published documents as an index method to a digital content store
US6990548B1 (en) 2000-06-15 2006-01-24 Hewlett-Packard Development Company, L.P. Methods and arrangements for configuring a printer over a wireless communication link using a wireless communication device
US20020016750A1 (en) 2000-06-20 2002-02-07 Olivier Attia System and method for scan-based input, storage and retrieval of information over an interactive communication network
US20010056463A1 (en) 2000-06-20 2001-12-27 Grady James D. Method and system for linking real world objects to digital objects
US7487112B2 (en) 2000-06-29 2009-02-03 Barnes Jr Melvin L System, method, and computer program product for providing location based services and mobile e-commerce
US6554433B1 (en) 2000-06-30 2003-04-29 Intel Corporation Office workspace having a multi-surface projection and a multi-camera system
US7290285B2 (en) 2000-06-30 2007-10-30 Zinio Systems, Inc. Systems and methods for distributing and viewing electronic documents
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US6691107B1 (en) * 2000-07-21 2004-02-10 International Business Machines Corporation Method and system for improving a text search
US6549751B1 (en) 2000-07-25 2003-04-15 Giuseppe Li Mandri Multimedia educational system
US6721921B1 (en) 2000-07-26 2004-04-13 Itm Associates Method and system for annotating documents using an independent annotation repository
EP1410637A2 (de) 2000-07-27 2004-04-21 Koninklijke Philips Electronics N.V. Textbasierte auslöser zur videoaufbesserung
JP3527211B2 (ja) 2000-08-01 2004-05-17 日立マクセル株式会社 電子クーポン・システム
US7523067B1 (en) 2000-08-02 2009-04-21 Softbankbb Corporation Electronic settlement system, settlement apparatus, and terminal
US6704024B2 (en) 2000-08-07 2004-03-09 Zframe, Inc. Visual content browsing using rasterized representations
US20020052747A1 (en) 2000-08-21 2002-05-02 Sarukkai Ramesh R. Method and system of interpreting and presenting web content using a voice browser
US20020023957A1 (en) 2000-08-21 2002-02-28 A. John Michaelis Method and apparatus for providing audio/visual feedback to scanning pen users
DE10041800A1 (de) 2000-08-25 2002-03-21 Siemens Ag Verfahren zum Betrieb eines Navigationsgeräts und Anordnung zur Durchfürung des Verfahrens
US6671684B1 (en) 2000-09-01 2003-12-30 Ricoh Co., Ltd. Method and apparatus for simultaneous highlighting of a physical version of a document and an electronic version of a document
US7130885B2 (en) 2000-09-05 2006-10-31 Zaplet, Inc. Methods and apparatus providing electronic messages that are linked and aggregated
US6704699B2 (en) 2000-09-05 2004-03-09 Einat H. Nir Language acquisition aide
US6868193B1 (en) 2000-09-08 2005-03-15 Corel Inc. Method and apparatus for varying automated data processing
US7689832B2 (en) * 2000-09-11 2010-03-30 Sentrycom Ltd. Biometric-based system and method for enabling authentication of electronic messages sent over a network
US7058223B2 (en) 2000-09-14 2006-06-06 Cox Ingemar J Identifying works for initiating a work-based action, such as an action on the internet
US6754632B1 (en) 2000-09-18 2004-06-22 East Carolina University Methods and devices for delivering exogenously generated speech signals to enhance fluency in persons who stutter
US20020038456A1 (en) 2000-09-22 2002-03-28 Hansen Michael W. Method and system for the automatic production and distribution of media content using the internet
US7089330B1 (en) * 2000-09-28 2006-08-08 I2 Technologies Us, Inc. System and method for transforming custom content generation tags associated with web pages
GB0023938D0 (en) 2000-09-29 2000-11-15 British Telecomm Information access
WO2002030041A2 (en) 2000-10-03 2002-04-11 Omtool, Ltd Electronically verified digital signature and document delivery system and method
US20040143500A1 (en) 2000-10-06 2004-07-22 Lopez Kermit D. Processing negotiable economic credits through electronic hand held devices
US6725203B1 (en) 2000-10-12 2004-04-20 E-Book Systems Pte Ltd. Method and system for advertisement using internet browser to insert advertisements
US7165268B1 (en) 2000-10-17 2007-01-16 Moore Keith E Digital signatures for tangible medium delivery
AUPR082400A0 (en) 2000-10-17 2000-11-09 Telstra R & D Management Pty Ltd An information retrieval system
US6904408B1 (en) 2000-10-19 2005-06-07 Mccarthy John Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
US7136814B1 (en) 2000-11-03 2006-11-14 The Procter & Gamble Company Syntax-driven, operator assisted voice recognition system and methods
KR200218899Y1 (ko) 2000-11-04 2001-04-02 주식회사자미나 대화식 동작 표현 완구
US6486874B1 (en) 2000-11-06 2002-11-26 Motorola, Inc. Method of pre-caching user interaction elements using input device position
US20020102966A1 (en) 2000-11-06 2002-08-01 Lev Tsvi H. Object identification method for portable devices
US7016532B2 (en) 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6791536B2 (en) 2000-11-10 2004-09-14 Microsoft Corporation Simulating gestures of a pointing device using a stylus and providing feedback thereto
US6788815B2 (en) 2000-11-10 2004-09-07 Microsoft Corporation System and method for accepting disparate types of user input
NO314059B1 (no) 2000-11-10 2003-01-20 Imp Technology As Fremgangsmåte for strukturering og söking av informasjon
US20040036718A1 (en) 2002-08-26 2004-02-26 Peter Warren Dynamic data item viewer
US6833936B1 (en) 2000-11-21 2004-12-21 International Business Machines Corporation Method and apparatus for capturing information from a document
US20020091671A1 (en) 2000-11-23 2002-07-11 Andreas Prokoph Method and system for data retrieval in large collections of data
US20030098352A1 (en) 2000-11-24 2003-05-29 Metrologic Instruments, Inc. Handheld imaging device employing planar light illumination and linear imaging with image-based velocity detection and aspect ratio compensation
US20050144074A1 (en) 2000-11-28 2005-06-30 Carlson Companies, Inc. Computer implemented method and system for on-line redemption of coupons
JP4095243B2 (ja) 2000-11-28 2008-06-04 キヤノン株式会社 Url取得および処理システムおよびその方法およびその処理を実行するプログラムを記憶した記憶媒体。
US6691194B1 (en) 2000-11-28 2004-02-10 Emc Corporation Selective association of lock override procedures with queued multimodal lock
US6690358B2 (en) 2000-11-30 2004-02-10 Alan Edward Kaplan Display control for hand-held devices
US7047491B2 (en) 2000-12-05 2006-05-16 Schubert Daniel M Electronic information management system for abstracting and reporting document information
US7203158B2 (en) 2000-12-06 2007-04-10 Matsushita Electric Industrial Co., Ltd. OFDM signal transmission system, portable terminal, and e-commerce system
US20020067308A1 (en) 2000-12-06 2002-06-06 Xerox Corporation Location/time-based reminder for personal electronic devices
US6904171B2 (en) 2000-12-15 2005-06-07 Hewlett-Packard Development Company, L.P. Technique to identify interesting print articles for later retrieval and use of the electronic version of the articles
US6741745B2 (en) 2000-12-18 2004-05-25 Xerox Corporation Method and apparatus for formatting OCR text
US7613634B2 (en) 2000-12-21 2009-11-03 Sony Corporation Method and system for performing electronic retailing
US7197716B2 (en) 2000-12-22 2007-03-27 Merchant & Gould, P.C. Litigation management system and method
US6898592B2 (en) 2000-12-27 2005-05-24 Microsoft Corporation Scoping queries in a search engine
US6957384B2 (en) 2000-12-27 2005-10-18 Tractmanager, Llc Document management system
US6538187B2 (en) 2001-01-05 2003-03-25 International Business Machines Corporation Method and system for writing common music notation (CMN) using a digital pen
US20080071775A1 (en) 2001-01-18 2008-03-20 Overture Services, Inc. System And Method For Ranking Items
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US20020135815A1 (en) 2001-01-22 2002-09-26 Time Domain Corporation Hand-held scanner with impulse radio wireless interface
US6628295B2 (en) 2001-01-31 2003-09-30 Adobe Systems Incorporated Modifying a stylistic property of a vector-based path
US6599130B2 (en) 2001-02-02 2003-07-29 Illinois Institute Of Technology Iterative video teaching aid with recordable commentary and indexing
JP2002236808A (ja) 2001-02-07 2002-08-23 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US7599855B2 (en) 2001-02-13 2009-10-06 Lester Sussman System and method for a complete and convenient shopping experience
US7062437B2 (en) 2001-02-13 2006-06-13 International Business Machines Corporation Audio renderings for expressing non-audio nuances
FR2821186B1 (fr) 2001-02-20 2003-06-20 Thomson Csf Dispositif d'extraction d'informations d'un texte a base de connaissances
US7043489B1 (en) 2001-02-23 2006-05-09 Kelley Hubert C Litigation-related document repository
JP4624577B2 (ja) 2001-02-23 2011-02-02 富士通株式会社 複数のセンサによるヒューマンインタフェースシステム
US7185275B2 (en) * 2001-02-27 2007-02-27 International Business Machines Corporation Method and computer system for enabling a user to construct a web-site navigation
US20020125411A1 (en) 2001-03-08 2002-09-12 Christy Orrin D. Method and apparatus for reducing specular reflection from a scannable surface
US7424618B2 (en) 2001-03-14 2008-09-09 Paladin Electronic Services, Inc. Biometric access control and time and attendance network including configurable system-on-chip (CSOC) processors with embedded programmable logic
US7711547B2 (en) 2001-03-16 2010-05-04 Meaningful Machines, L.L.C. Word association method and apparatus
JP2002278984A (ja) 2001-03-22 2002-09-27 Fujitsu Ltd 文書管理装置
US7392287B2 (en) 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6798429B2 (en) 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
US6491217B2 (en) 2001-03-31 2002-12-10 Koninklijke Philips Electronics N.V. Machine readable label reader system with versatile response selection
US6616047B2 (en) 2001-03-31 2003-09-09 Koninklijke Philips Electronics N.V. Machine readable label reader system with robust context generation
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US6498970B2 (en) 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
JP4421134B2 (ja) 2001-04-18 2010-02-24 富士通株式会社 文書画像検索装置
US20020194143A1 (en) 2001-04-26 2002-12-19 International Business Machines Corporation Method and system for usage-based pricing of E-content
US20030001018A1 (en) 2001-05-02 2003-01-02 Hand Held Products, Inc. Optical reader comprising good read indicator
GB2378775A (en) 2001-05-03 2003-02-19 Connextra Ltd Provision of Secondary Information based on Context of Primary Information
TW560164B (en) 2001-05-11 2003-11-01 Veutron Corp Palmtop office machine with scanning function
US6752498B2 (en) 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
US7111787B2 (en) 2001-05-15 2006-09-26 Hand Held Products, Inc. Multimode image capturing and decoding optical reader
GB2375866B (en) 2001-05-25 2005-02-09 At & T Lab Cambridge Ltd User interface systems
US7020663B2 (en) 2001-05-30 2006-03-28 George M. Hay System and method for the delivery of electronic books
KR100725500B1 (ko) 2001-06-13 2007-06-08 삼성전자주식회사 디스플레이 장치 및 그 제어방법
US6783071B2 (en) 2001-06-18 2004-08-31 Symbol Technologies, Inc Scanner pairing in a bluetooth POS network
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US7945935B2 (en) 2001-06-20 2011-05-17 Dale Stonedahl System and method for selecting, capturing, and distributing customized event recordings
US6508706B2 (en) 2001-06-21 2003-01-21 David Howard Sitrick Electronic interactive gaming apparatus, system and methodology
US6597443B2 (en) 2001-06-27 2003-07-22 Duane Boman Spatial tracking system
US6748306B2 (en) 2001-06-28 2004-06-08 Xerox Corporation Document communication systems for use in automobiles
US20030009495A1 (en) 2001-06-29 2003-01-09 Akli Adjaoute Systems and methods for filtering electronic content
US7246118B2 (en) 2001-07-06 2007-07-17 International Business Machines Corporation Method and system for automated collaboration using electronic book highlights and notations
US7331523B2 (en) 2001-07-13 2008-02-19 Hand Held Products, Inc. Adaptive optical image reader
JP2003036093A (ja) 2001-07-23 2003-02-07 Japan Science & Technology Corp 音声入力検索システム
US20030144865A1 (en) 2001-07-24 2003-07-31 Lin Kuang Shin E-commerce back-end hierarchical data management system and method
GB2378008A (en) 2001-07-27 2003-01-29 Hewlett Packard Co Data acquisition and processing system and method
US7793326B2 (en) 2001-08-03 2010-09-07 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator
US7133862B2 (en) 2001-08-13 2006-11-07 Xerox Corporation System with user directed enrichment and import/export control
US20050022114A1 (en) 2001-08-13 2005-01-27 Xerox Corporation Meta-document management system with personality identifiers
US6793129B2 (en) 2001-08-17 2004-09-21 Leapfrog Enterprises, Inc. Study aid apparatus and method of using study aid apparatus
US20030043042A1 (en) 2001-08-21 2003-03-06 Tabula Rasa, Inc. Method and apparatus for facilitating personal attention via wireless networks
US7001681B2 (en) 2001-08-28 2006-02-21 Honeywell International Inc. Water vapor transport power generator
US7409434B2 (en) 2001-09-07 2008-08-05 Xerox Corporation Method and apparatus for controlling document service requests using a mobile computing device
US6922725B2 (en) 2001-09-07 2005-07-26 Xerox Corporation Method and apparatus for processing document service requests originating from a mobile computing device
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US6773177B2 (en) 2001-09-14 2004-08-10 Fuji Xerox Co., Ltd. Method and system for position-aware freeform printing within a position-sensed area
US7262798B2 (en) 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
JP3997459B2 (ja) 2001-10-02 2007-10-24 株式会社日立製作所 音声入力システムおよび音声ポータルサーバおよび音声入力端末
US6892264B2 (en) 2001-10-05 2005-05-10 International Business Machines Corporation Storage area network methods and apparatus for associating a logical identification with a physical identification
US6854642B2 (en) 2001-10-19 2005-02-15 Chesterfield Holdings, L.L.C. System for vending products and services using an identification card and associated methods
WO2003038660A2 (en) 2001-10-31 2003-05-08 Essibuy.Com Interactive electronic references systems and methods
US7426486B2 (en) 2001-10-31 2008-09-16 Call-Tell Llc Multi-party reporting system and method
JP3840091B2 (ja) 2001-10-31 2006-11-01 キヤノン株式会社 撮像装置、撮像装置と記録装置とを有するシステム及びその制御方法
US6669088B2 (en) 2001-11-09 2003-12-30 William J. Veeneman Multi-merchant gift registry
US8429201B2 (en) 2001-11-13 2013-04-23 International Business Machines Corporation Updating a database from a browser
KR100450080B1 (ko) 2001-11-13 2004-10-06 (주)지에스텔레텍 유에스비기반의 이동형 저장장치 및 그 제어방법
US20030093545A1 (en) 2001-11-14 2003-05-15 Inventec Tomorrow Work Studio Corporation, Taiwan Method and system for downloading data to portable electronic device
NO316480B1 (no) 2001-11-15 2004-01-26 Forinnova As Fremgangsmåte og system for tekstuell granskning og oppdagelse
US7415670B2 (en) 2001-11-19 2008-08-19 Ricoh Co., Ltd. Printer with audio/video localization
US7283992B2 (en) * 2001-11-30 2007-10-16 Microsoft Corporation Media agent to suggest contextually related media content
US7131061B2 (en) 2001-11-30 2006-10-31 Xerox Corporation System for processing electronic documents using physical documents
GB2382879A (en) 2001-12-06 2003-06-11 Hewlett Packard Co Image capture device with capture field illumination
US6641037B2 (en) 2001-12-13 2003-11-04 Peter Williams Method and system for interactively providing product related information on demand and providing personalized transactional benefits at a point of purchase
US6688081B2 (en) 2001-12-18 2004-02-10 Schmalbach-Lubeca Ag Method for reducing headspace gas
US7680859B2 (en) 2001-12-21 2010-03-16 Location Inc. Group Corporation a Massachusetts corporation Method for analyzing demographic data
US6564144B1 (en) 2002-01-10 2003-05-13 Navigation Technologies Corporation Method and system using a hand-gesture responsive device for collecting data for a geographic database
US7096218B2 (en) 2002-01-14 2006-08-22 International Business Machines Corporation Search refinement graphical user interface
GB0200980D0 (en) 2002-01-15 2002-03-06 Ibm Method and apparatus for classification
WO2003063067A1 (en) 2002-01-24 2003-07-31 Chatterbox Systems, Inc. Method and system for locating positions in printed texts and delivering multimedia information
JP2003216631A (ja) 2002-01-25 2003-07-31 Canon Inc 情報処理装置、情報配信装置、検索装置、情報取得システム、情報取得方法、コンピュータ読み取り可能な記録媒体及びコンピュータプログラム
US7242492B2 (en) 2002-01-25 2007-07-10 Hewlett-Packard Development Company, L.P. Proxied printing services
US6725125B2 (en) 2002-01-29 2004-04-20 International Business Machines Corporation Smart filing system
US7152786B2 (en) 2002-02-12 2006-12-26 Digimarc Corporation Identification document including embedded data
US6615136B1 (en) 2002-02-19 2003-09-02 Motorola, Inc Method of increasing location accuracy in an inertial navigational device
US6577953B1 (en) 2002-02-19 2003-06-10 Motorola, Inc. Device for use with a portable inertial navigation system (PINS) and method for processing PINS signals
US20030160975A1 (en) 2002-02-26 2003-08-28 Skurdal Vincent C. N-up printing methods and systems
CA2375355A1 (en) 2002-03-11 2003-09-11 Neo Systems Inc. Character recognition system and method
US20030214528A1 (en) 2002-03-15 2003-11-20 Pitney Bowes Incorporated Method for managing the annotation of documents
US7126728B2 (en) 2002-03-15 2006-10-24 Jen-Shou Tseng Linear guiding mechanism
US20030182399A1 (en) 2002-03-21 2003-09-25 Silber Matthew A. Method and apparatus for monitoring web access
US20060069616A1 (en) 2004-09-30 2006-03-30 David Bau Determining advertisements using user behavior information such as past navigation information
US20030195851A1 (en) 2002-04-11 2003-10-16 Ong Lance D. System for managing distribution of digital audio content
EP1493135A4 (de) 2002-04-11 2006-06-07 Sensormatic Electronics Corp System und verfahren zur verwaltung von kapital unter verwendung eines tragbaren kombinierten elektronischen artikelsicherungssystems und strichcode-scanners
US20030200152A1 (en) 2002-04-19 2003-10-23 Computer Associates Think, Inc. Wireless shopping system and method
US7542966B2 (en) 2002-04-25 2009-06-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for retrieving documents with spoken queries
US6877001B2 (en) * 2002-04-25 2005-04-05 Mitsubishi Electric Research Laboratories, Inc. Method and system for retrieving documents with spoken queries
US20050108195A1 (en) 2002-05-07 2005-05-19 Microsoft Corporation Method, system, and apparatus for processing information based on the discovery of semantically labeled strings
US7325194B2 (en) 2002-05-07 2008-01-29 Microsoft Corporation Method, system, and apparatus for converting numbers between measurement systems based upon semantically labeled strings
US6678579B2 (en) 2002-05-23 2004-01-13 Hewlett-Packard Development Company, L.P. Publication-dispensing apparatus
US8611919B2 (en) 2002-05-23 2013-12-17 Wounder Gmbh., Llc System, method, and computer program product for providing location based services and mobile e-commerce
US7050630B2 (en) 2002-05-29 2006-05-23 Hewlett-Packard Development Company, L.P. System and method of locating a non-textual region of an electronic document or image that matches a user-defined description of the region
US20030225547A1 (en) 2002-05-30 2003-12-04 International Business Machines Corporation Wireless feeder verification system
US7174332B2 (en) 2002-06-11 2007-02-06 Ip. Com, Inc. Method and apparatus for safeguarding files
US20040001217A1 (en) 2002-06-26 2004-01-01 Microsoft Corporation System and method for users of mobile computing devices to print documents
US7079713B2 (en) 2002-06-28 2006-07-18 Microsoft Corporation Method and system for displaying and linking ink objects with recognized text and objects
US7260534B2 (en) 2002-07-16 2007-08-21 International Business Machines Corporation Graphical user interface for determining speech recognition accuracy
US20040204953A1 (en) 2002-07-17 2004-10-14 Lincoln Muir Subscription based systems, methods and components for providing genomic and proteomic products and services
DE50307253D1 (de) 2002-07-19 2007-06-21 Gavitec Ag Bildaufnahmegerät sowie verwendung des bildaufnahmegerätes
JP2004050722A (ja) 2002-07-23 2004-02-19 Canon Inc 印刷装置
US7058902B2 (en) 2002-07-30 2006-06-06 Microsoft Corporation Enhanced on-object context menus
US7137077B2 (en) 2002-07-30 2006-11-14 Microsoft Corporation Freeform encounter selection tool
US6915103B2 (en) 2002-07-31 2005-07-05 Hewlett-Packard Development Company, L.P. System for enhancing books with special paper
WO2004015952A2 (de) 2002-08-06 2004-02-19 Brainshield Technologies Inc. Vorrichtung zum kopiergeschützten verteilen elektronischer dokumente
US7167604B2 (en) 2002-08-07 2007-01-23 Hewlett-Packard Development Company, L.P. Portable document scan accessory for use with a wireless handheld communications device
US7433068B2 (en) 2002-08-15 2008-10-07 Hewlett-Packard Development Company, L.P. Digital transmitter device
JP4401633B2 (ja) 2002-08-29 2010-01-20 富士通株式会社 印刷物に掲載された広告の効果を計測する広告効果計測方法、及びこれらの方法をコンピュータに行わせるプログラム
US7506250B2 (en) 2002-09-03 2009-03-17 Ricoh Company, Ltd. Techniques for determining electronic document information for paper documents
JP2004102707A (ja) 2002-09-10 2004-04-02 Ntt Docomo Inc 情報照会システム、サーバ、プログラム及び記録媒体
JP4245883B2 (ja) 2002-09-13 2009-04-02 株式会社日立製作所 電子文書およびこれの印刷媒体の真正性管理方法およびシステム、ならびにプログラム、記録媒体
US7151864B2 (en) 2002-09-18 2006-12-19 Hewlett-Packard Development Company, L.P. Information research initiated from a scanned image media
JP4137566B2 (ja) 2002-09-19 2008-08-20 大日本印刷株式会社 電子ペン、帳票処理システム及び単位データ分割処理プログラム
FR2845233B1 (fr) 2002-09-26 2005-08-26 Bouygues Telecom Sa Systeme de telechargement de contenu multimedia et procede associe
US20040064453A1 (en) 2002-09-27 2004-04-01 Antonio Ruiz Large-scale hierarchical identification and verification for secured ingress and egress using biometrics
US7167586B2 (en) 2002-09-30 2007-01-23 Pitney Bowes Inc. Method and system for remote form completion
KR100505848B1 (ko) 2002-10-02 2005-08-04 씨씨알 주식회사 검색 시스템
US7069272B2 (en) 2002-10-09 2006-06-27 Blackrock Financial Management, Inc. System and method for implementing dynamic set operations on data stored in a sorted array
JP2006508425A (ja) 2002-10-10 2006-03-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 著作権で保護された情報の選択、発注、およびアクセスを物理的文書から行うためのシステムおよび方法
CA2502232C (en) 2002-10-15 2013-10-01 Trent J. Brundage Identification document and related methods
US7844907B2 (en) 2002-10-16 2010-11-30 William Watler System and method for dynamic modification of web content
JP2006511896A (ja) 2002-10-21 2006-04-06 スペロ,ラファエル 領収書および関連データの取り入れ、記憶および処理のシステムならびに方法
US20040139400A1 (en) 2002-10-23 2004-07-15 Allam Scott Gerald Method and apparatus for displaying and viewing information
US20040080795A1 (en) 2002-10-23 2004-04-29 Bean Heather N. Apparatus and method for image capture device assisted scanning
US7085755B2 (en) 2002-11-07 2006-08-01 Thomson Global Resources Ag Electronic document repository management and access system
US7121469B2 (en) 2002-11-26 2006-10-17 International Business Machines Corporation System and method for selective processing of digital images
ATE540373T1 (de) 2002-11-29 2012-01-15 Sap Ag Verfahren und computersystem zum schutz von elektronischen dokumenten
US7263521B2 (en) 2002-12-10 2007-08-28 Caringo, Inc. Navigation of the content space of a document set
US7110576B2 (en) 2002-12-30 2006-09-19 Pitney Bowes Inc. System and method for authenticating a mailpiece sender
US7216121B2 (en) 2002-12-31 2007-05-08 International Business Machines Corporation Search engine facility with automated knowledge retrieval, generation and maintenance
US20040139107A1 (en) 2002-12-31 2004-07-15 International Business Machines Corp. Dynamically updating a search engine's knowledge and process database by tracking and saving user interactions
US6593723B1 (en) 2003-01-21 2003-07-15 Calvin G. Johnson Integrated wall apparatus for delivering uninterrupted electrical power
US7240843B2 (en) 2003-01-22 2007-07-10 Lobar Code Technologies, Inc. Universal club card and real-time coupon validation
CN100524153C (zh) 2003-02-21 2009-08-05 卡林戈公司 在数据库中添加、检索计算机文件的方法
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP4823890B2 (ja) 2003-03-06 2011-11-24 ディジマーク コーポレイション ドキュメント認証方法
US8255978B2 (en) 2003-03-11 2012-08-28 Innovatrend, Inc. Verified personal information database
KR100447526B1 (ko) 2003-03-18 2004-09-08 엔에이치엔(주) 인터넷 사용자의 접속 의도 판단 방법 및 이를 이용한인터넷 상의 광고 방법과 그 시스템
US20040186766A1 (en) 2003-03-19 2004-09-23 International Business Machines Corporation Apparatus and method for marketing to instant messaging service users
US20040186859A1 (en) 2003-03-20 2004-09-23 Sun Microsystems, Inc. File access based on file digests
US6947930B2 (en) 2003-03-21 2005-09-20 Overture Services, Inc. Systems and methods for interactive search query refinement
US7152209B2 (en) 2003-03-28 2006-12-19 Microsoft Corporation User interface for adaptive video fast forward
US7552381B2 (en) 2003-03-31 2009-06-23 Ricoh Co., Ltd. Check boxes for identifying and processing stored documents
US7664733B2 (en) 2003-04-11 2010-02-16 Ricoh Company, Ltd. Techniques for performing operations on a source symbolic document
US7266568B1 (en) 2003-04-11 2007-09-04 Ricoh Company, Ltd. Techniques for storing multimedia information with source documents
US7783617B2 (en) 2003-04-16 2010-08-24 Yahoo! Inc. Personals advertisement affinities in a networked computer system
JP4019063B2 (ja) 2003-04-18 2007-12-05 光雄 中山 光学端末装置、画像処理方法およびシステム
JP4366108B2 (ja) 2003-04-30 2009-11-18 キヤノン株式会社 文書検索装置、文書検索方法及びコンピュータプログラム
US7149748B1 (en) 2003-05-06 2006-12-12 Sap Ag Expanded inverted index
US20040229194A1 (en) 2003-05-13 2004-11-18 Yang George L. Study aid system
US7392475B1 (en) 2003-05-23 2008-06-24 Microsoft Corporation Method and system for automatic insertion of context information into an application program module
JP2004348591A (ja) 2003-05-23 2004-12-09 Canon Inc 文書検索方法及び装置
US7257769B2 (en) 2003-06-05 2007-08-14 Siemens Communications, Inc. System and method for indicating an annotation for a document
US20040260470A1 (en) 2003-06-14 2004-12-23 Rast Rodger H. Conveyance scheduling and logistics system
US20040260618A1 (en) 2003-06-19 2004-12-23 Damon Larson Home shopping system
JP2007528118A (ja) 2003-06-24 2007-10-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カメラを備えた機器を制御システムによって所望位置へ動かす方法及びその制御システム
US7739588B2 (en) 2003-06-27 2010-06-15 Microsoft Corporation Leveraging markup language data for semantically labeling text strings and data and for providing actions based on semantically labeled text strings and data
US7057607B2 (en) 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
US20050076095A1 (en) 2003-07-11 2005-04-07 Boban Mathew Virtual contextual file system and method
US7542160B2 (en) 2003-08-29 2009-06-02 Hewlett-Packard Development Company, L.P. Rendering with substituted validation input
US7174054B2 (en) 2003-09-23 2007-02-06 Amazon Technologies, Inc. Method and system for access to electronic images of text based on user ownership of corresponding physical text
US7870199B2 (en) 2003-10-06 2011-01-11 Aol Inc. System and method for seamlessly bringing external services into instant messaging session
US20050091578A1 (en) 2003-10-24 2005-04-28 Microsoft Corporation Electronic sticky notes
US20050097335A1 (en) 2003-10-31 2005-05-05 Hewlett-Packard Development Company, L.P. Secure document access method and apparatus
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US6786793B1 (en) 2003-11-13 2004-09-07 Sheng-Chien Wang Motion-generating illuminated inflatable decoration
US20050149538A1 (en) 2003-11-20 2005-07-07 Sadanand Singh Systems and methods for creating and publishing relational data bases
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7689712B2 (en) 2003-11-26 2010-03-30 Ricoh Company, Ltd. Techniques for integrating note-taking and multimedia information
EP1536305A1 (de) 2003-11-27 2005-06-01 Océ-Technologies B.V. Gesicherte Übertragung von elektronischen Dokumenten
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US20050154760A1 (en) 2004-01-12 2005-07-14 International Business Machines Corporation Capturing portions of an electronic document
KR20120038000A (ko) 2004-01-20 2012-04-20 코닌클리케 필립스 일렉트로닉스 엔.브이. 대화의 주제를 결정하고 관련 콘텐트를 획득 및 제시하는 방법 및 시스템
US7872669B2 (en) 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7855812B2 (en) 2004-02-13 2010-12-21 Texas Instruments Incorporated Cellular phone with scanning capability
US20060041605A1 (en) 2004-04-01 2006-02-23 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US20060136629A1 (en) 2004-08-18 2006-06-22 King Martin T Scanner having connected and unconnected operational behaviors
US20060104515A1 (en) 2004-07-19 2006-05-18 King Martin T Automatic modification of WEB pages
US20060053097A1 (en) 2004-04-01 2006-03-09 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US20060122983A1 (en) 2004-12-03 2006-06-08 King Martin T Locating electronic instances of documents based on rendered instances, document fragment digest generation, and digest based document fragment determination
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7433893B2 (en) 2004-03-08 2008-10-07 Marpex Inc. Method and system for compression indexing and efficient proximity search of text data
WO2005091235A1 (en) 2004-03-16 2005-09-29 Maximilian Munte Mobile paper record processing system
US20050214730A1 (en) 2004-03-24 2005-09-29 Rines Robert H Method of and apparatus for supplementing the reading of selected passages of printed material in a book or the like by electronically reading coded indicia provided in the book at such passages to access the playing of corresponding coded tracks of pre-recorded video/audio supplemental material respectively related to the selected passages
US7181761B2 (en) 2004-03-26 2007-02-20 Micosoft Corporation Rights management inter-entity message policies and enforcement
US7289806B2 (en) 2004-03-30 2007-10-30 Intel Corporation Method and apparatus for context enabled search
US7664734B2 (en) * 2004-03-31 2010-02-16 Google Inc. Systems and methods for generating multiple implicit search queries
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US7317843B2 (en) 2004-04-01 2008-01-08 Microsoft Corporation Luminance correction
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
WO2005098609A2 (en) 2004-04-01 2005-10-20 Xbiblio B.V. A method and system for character recognition
US20100185538A1 (en) 2004-04-01 2010-07-22 Exbiblio B.V. Content access with handheld document data capture devices
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US20050222801A1 (en) 2004-04-06 2005-10-06 Thomas Wulff System and method for monitoring a mobile computing product/arrangement
WO2005101193A2 (en) 2004-04-06 2005-10-27 King Martin T Scanning apparatus and related techniques
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
WO2005106643A2 (en) 2004-04-12 2005-11-10 Exbiblio, B.V. Adding value to a rendered document
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US20050228683A1 (en) 2004-04-13 2005-10-13 Stephen Saylor Integrated use of a portable image capture device into a workflow process
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
WO2005101192A2 (en) 2004-04-19 2005-10-27 Exbiblio B.V. Processing techniques for visual capture data from a rendered document
US7404520B2 (en) 2004-04-28 2008-07-29 Symbol Technologies, Inc. System and method for providing location information in transaction processing
TWM262937U (en) 2004-04-30 2005-04-21 Avision Inc A book scanner with a uniform light source structure
US20050262058A1 (en) 2004-05-24 2005-11-24 Microsoft Corporation Query to task mapping
US7362902B1 (en) 2004-05-28 2008-04-22 Affiliated Computer Services, Inc. Resolving character data boundaries
US7818178B2 (en) 2004-06-09 2010-10-19 Alcatel-Lucent Usa Inc. Method and apparatus for providing network support for voice-activated mobile web browsing for audio data streams
US20050278314A1 (en) 2004-06-09 2005-12-15 Paul Buchheit Variable length snippet generation
US7275049B2 (en) 2004-06-16 2007-09-25 The Boeing Company Method for speech-based data retrieval on portable devices
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US7284192B2 (en) 2004-06-24 2007-10-16 Avaya Technology Corp. Architecture for ink annotations on web documents
SE0401737D0 (sv) 2004-07-03 2004-07-03 Tomas Hultgren Verktyg för kompetenssökning och utökad lösningsmängd vid utvecklings- och produktionstillämpningar
EP1766498A4 (de) * 2004-07-08 2010-06-02 Microsoft Corp Automatische texterzeugung
US7309015B2 (en) 2004-07-14 2007-12-18 Scanbuy, Inc. Mobile device gateway providing access to instant information
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
WO2006014727A1 (en) 2004-07-19 2006-02-09 Exbiblio. B.V. Automatic modification of web pages
US20110295842A1 (en) 2004-08-18 2011-12-01 Google Inc. Applying Scanned Information to Identify Content
WO2006026188A2 (en) 2004-08-18 2006-03-09 Exbiblio B.V. A system and method of determining readership of data gathered in a published document
US20100092095A1 (en) 2008-10-14 2010-04-15 Exbiblio B.V. Data gathering in digital and rendered document environments
US7710598B2 (en) 2004-08-23 2010-05-04 Harrison Jr Shelton E Polychromatic encoding system, method and device
WO2006023937A2 (en) 2004-08-23 2006-03-02 Exbiblio B.V. A portable scanning device
US7299407B2 (en) 2004-08-24 2007-11-20 International Business Machines Corporation Marking and annotating electronic documents
KR20060050729A (ko) 2004-08-31 2006-05-19 엘지전자 주식회사 카메라로 촬영된 문서 영상 처리 방법과 장치
EP1800222A4 (de) 2004-09-08 2009-08-05 Sharedbook Ltd Gemeinsam benutztes beschriftungssystem und verfahren
WO2006036853A2 (en) 2004-09-27 2006-04-06 Exbiblio B.V. Handheld device for capturing
US20060075327A1 (en) 2004-09-29 2006-04-06 Joe Sriver User interface for presentation of a document
US8489583B2 (en) 2004-10-01 2013-07-16 Ricoh Company, Ltd. Techniques for retrieving documents using an image capture device
US7587412B2 (en) 2005-08-23 2009-09-08 Ricoh Company, Ltd. Mixed media reality brokerage network and methods of use
US7917554B2 (en) 2005-08-23 2011-03-29 Ricoh Co. Ltd. Visibly-perceptible hot spots in documents
US7672543B2 (en) 2005-08-23 2010-03-02 Ricoh Co., Ltd. Triggering applications based on a captured text in a mixed media environment
US8176054B2 (en) * 2007-07-12 2012-05-08 Ricoh Co. Ltd Retrieving electronic documents by converting them to synthetic text
US7561312B1 (en) 2004-10-04 2009-07-14 Google Inc. Systems and methods for glare removal using polarized filtering in document scanning
US7493487B2 (en) 2004-10-15 2009-02-17 Microsoft Corporation Portable computing environment
US7512814B2 (en) 2004-11-09 2009-03-31 Fortiva Inc. Secure and searchable storage system and method
US20060103893A1 (en) 2004-11-15 2006-05-18 Kouros Azimi Cellular telephone based document scanner
US20110029504A1 (en) 2004-12-03 2011-02-03 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US20110075228A1 (en) 2004-12-03 2011-03-31 King Martin T Scanner having connected and unconnected operational behaviors
US20060138219A1 (en) 2004-12-29 2006-06-29 John Brzezniak Handset shopping tool and method thereof
KR20060077988A (ko) 2004-12-30 2006-07-05 삼성전자주식회사 멀티미디어 통신 시스템에서 컨텍스트 추출 및 이를 통한정보 제공 시스템 및 방법
US7535498B2 (en) 2005-01-03 2009-05-19 Cnoga Medical Ltd. Electronic viewing device
US7796116B2 (en) 2005-01-12 2010-09-14 Thinkoptics, Inc. Electronic equipment for handheld vision based absolute pointing system
US20060195695A1 (en) 2005-02-25 2006-08-31 John Keys Techniques for verification of electronic device pairing
WO2006093971A2 (en) 2005-02-28 2006-09-08 Exbiblio B.V. Association of a portable scanner with input/output and storage devices
US7788248B2 (en) * 2005-03-08 2010-08-31 Apple Inc. Immediate search feedback
KR100741368B1 (ko) 2005-03-21 2007-07-20 유니챌(주) 문자자동인식장치 및 방법
US20060224895A1 (en) * 2005-03-31 2006-10-05 Xerox Corporation System and methods for electronically notarizing scanned documents
US20060239579A1 (en) 2005-04-22 2006-10-26 Ritter Bradford A Non Uniform Blending of Exposure and/or Focus Bracketed Photographic Images
US7783072B2 (en) 2005-04-27 2010-08-24 Therapeias Health Management, Llc Methods and systems for clinical trial data management
US7685197B2 (en) * 2005-05-05 2010-03-23 Yahoo! Inc. System and methods for indentifying the potential advertising value of terms found on web pages
US7634407B2 (en) 2005-05-20 2009-12-15 Microsoft Corporation Method and apparatus for indexing speech
US7204424B2 (en) 2005-05-31 2007-04-17 Symbol Technologies, Inc. Retro-reflective scanner having exit window with positive optical power
US7770799B2 (en) 2005-06-03 2010-08-10 Hand Held Products, Inc. Optical reader having reduced specular reflection read failures
CN101243449A (zh) 2005-06-16 2008-08-13 文字点击有限公司 用于从计算机显示的内容中自动启动搜索查询的方法和系统
US7761451B2 (en) 2005-06-17 2010-07-20 Microsoft Corporation Efficient querying and paging in databases
US7672931B2 (en) 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
JP2007019973A (ja) 2005-07-08 2007-01-25 Fujifilm Holdings Corp 撮像装置及び撮像方法
US7412158B2 (en) 2005-08-08 2008-08-12 Nokia Corporation Deeper depth of field for video
US8073700B2 (en) 2005-09-12 2011-12-06 Nuance Communications, Inc. Retrieval and presentation of network service results for mobile device using a multimodal browser
US20070219940A1 (en) 2005-10-14 2007-09-20 Leviathan Entertainment, Llc Merchant Tool for Embedding Advertisement Hyperlinks to Words in a Database of Documents
US7477909B2 (en) 2005-10-31 2009-01-13 Nuance Communications, Inc. System and method for conducting a search using a wireless mobile device
KR20070051217A (ko) 2005-11-14 2007-05-17 주식회사 빛 일일사 카메라 장착 휴대형 무선 단말기를 이용한 생활정보지 광고사이트 접속 시스템 및 그 방법
US8150857B2 (en) 2006-01-20 2012-04-03 Glenbrook Associates, Inc. System and method for context-rich database optimized for processing of concepts
US20070208732A1 (en) 2006-02-07 2007-09-06 Future Vistas, Inc. Telephonic information retrieval systems and methods
US7571854B2 (en) 2006-02-22 2009-08-11 Symbol Technologies Inc. Imaging reader and method with internal window reflections directed away from imager
US20110096174A1 (en) 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
KR100735820B1 (ko) 2006-03-02 2007-07-06 삼성전자주식회사 휴대 단말기에서 음성 인식에 의한 멀티미디어 데이터 검색방법 및 그 장치
US20070233806A1 (en) * 2006-03-29 2007-10-04 Mehrzad Asadi Method and system for conducting an internet search using a mobile radio terminal
US7705288B2 (en) 2006-03-31 2010-04-27 Hand Held Products, Inc. Optical reading device with light blocking gasket
KR100761912B1 (ko) 2006-04-05 2007-09-28 (주)첫눈 본문 식별에 기반한 문서정보 추출방법 및 시스템
US20070249406A1 (en) 2006-04-20 2007-10-25 Sony Ericsson Mobile Communications Ab Method and system for retrieving information
JP2009540404A (ja) 2006-06-06 2009-11-19 エクスビブリオ ベースローテン フェンノートシャップ 取り込まれたレンダリングテキストに基づくコンテキスト動的広告
KR20080000203A (ko) 2006-06-27 2008-01-02 엘지전자 주식회사 음성인식을 이용한 음악 파일 검색 방법
JP2010511921A (ja) 2006-07-24 2010-04-15 エクスビブリオ ベースローテン フェンノートシャップ ポータブルデバイス用の紹介報奨システム
US20080023550A1 (en) 2006-07-31 2008-01-31 Ming Yu Curved window in electro-optical reader
US8175394B2 (en) 2006-09-08 2012-05-08 Google Inc. Shape clustering in post optical character recognition processing
EP2067119A2 (de) 2006-09-08 2009-06-10 Exbiblio B.V. Optische scanner, zum beispiel tragbare optische scanner
US7646921B2 (en) 2006-09-11 2010-01-12 Google Inc. High resolution replication of document based on shape clustering
US7697758B2 (en) 2006-09-11 2010-04-13 Google Inc. Shape clustering and cluster-level manual identification in post optical character recognition processing
US7650035B2 (en) 2006-09-11 2010-01-19 Google Inc. Optical character recognition based on shape clustering and multiple optical character recognition processes
EP2067102A2 (de) 2006-09-15 2009-06-10 Exbiblio B.V. Erfassung und anzeige von anmerkungen in papier- und elektronischen dokumenten
US10452756B2 (en) 2006-09-29 2019-10-22 Oath Inc. Platform for rendering content for a remote device
US20080091954A1 (en) 2006-10-17 2008-04-17 Morris Daniel R Method and system for facilitating printed page authentication, unique code generation and content integrity verification of documents
US7986843B2 (en) 2006-11-29 2011-07-26 Google Inc. Digital image archiving and retrieval in a mobile device system
KR100916717B1 (ko) 2006-12-11 2009-09-09 강민수 플레이 되고 있는 동영상 내용 맞춤형 광고 콘텐츠 제공방법 및 그 시스템
US9064010B2 (en) * 2006-12-13 2015-06-23 Quickplay Media Inc. Encoding and transcoding for mobile media
US20080172365A1 (en) * 2007-01-12 2008-07-17 Babur Ozden Searching a database using a cellular telephone
US7680067B2 (en) * 2007-03-09 2010-03-16 Palm, Inc. Peer-to-peer data synchronization architecture
US20080235093A1 (en) 2007-03-22 2008-09-25 W.S. Packaging Group, Inc. Mobile phone image processing for promotional enterprise
US7698344B2 (en) * 2007-04-02 2010-04-13 Microsoft Corporation Search macro suggestions relevant to search queries
US7949191B1 (en) 2007-04-04 2011-05-24 A9.Com, Inc. Method and system for searching for information on a network in response to an image query sent by a user from a mobile communications device
US20090012806A1 (en) * 2007-06-10 2009-01-08 Camillo Ricordi System, method and apparatus for data capture and management
US20090247219A1 (en) 2008-03-25 2009-10-01 Jian-Liang Lin Method of generating a function output from a photographed image and related mobile computing device
US9129004B2 (en) 2008-11-12 2015-09-08 Oracle America, Inc. Multi-interval quicksort algorithm for complex objects
US8082258B2 (en) 2009-02-10 2011-12-20 Microsoft Corporation Updating an inverted index in a real time fashion
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
EP2406767A4 (de) 2009-03-12 2016-03-16 Google Inc Automatische bereitstellung von mit erfassten informationen, z. b. in echtzeit erfassten informationen, assoziierten inhalten
CN102356405A (zh) 2009-03-20 2012-02-15 谷歌公司 将所呈现的广告与数字内容相关联
US8489774B2 (en) * 2009-05-27 2013-07-16 Spot411 Technologies, Inc. Synchronized delivery of interactive content
US8171049B2 (en) 2009-09-18 2012-05-01 Xerox Corporation System and method for information seeking in a multimedia collection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE-1394

Also Published As

Publication number Publication date
WO2010105245A3 (en) 2011-02-03
US20110043652A1 (en) 2011-02-24
CN102349087A (zh) 2012-02-08
WO2010105245A2 (en) 2010-09-16
WO2010105244A2 (en) 2010-09-16
WO2010105244A3 (en) 2011-01-13
EP2406767A2 (de) 2012-01-18
WO2010105246A2 (en) 2010-09-16
EP2406767A4 (de) 2016-03-16
WO2010105246A3 (en) 2011-02-17
CN102349087B (zh) 2015-05-06
US8990235B2 (en) 2015-03-24

Similar Documents

Publication Publication Date Title
DE202010018551U1 (de) Automatische Bereitstellung von Inhalten, die mit erfassten Informationen, wie etwa in Echtzeit erfassten Informationen, verknüpft sind
US10977799B2 (en) Automatically capturing information such as capturing information using a document-aware device
KR101443404B1 (ko) 페이퍼 및 전자 문서내의 주석의 캡처 및 디스플레이
DE202010018557U1 (de) Verknüpfen von gerenderten Werbeanzeigen mit digitalen Inhalten
US9075779B2 (en) Performing actions based on capturing information from rendered documents, such as documents under copyright
JP5752200B2 (ja) 取り込まれたレンダリングテキストに基づくコンテキスト動的広告
KR101212929B1 (ko) 렌더링된 문서로부터의 보안 데이터 수집
US20110096174A1 (en) Accessing resources based on capturing information from a rendered document
US20170249507A1 (en) Processing Techniques for Text Capture From a Rendered Document

Legal Events

Date Code Title Description
R151 Utility model maintained after payment of second maintenance fee after six years
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE, INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right