DE102014010152A1 - Automatikeffektverfahren für Fotografie und elektronische Vorrichtung - Google Patents

Automatikeffektverfahren für Fotografie und elektronische Vorrichtung Download PDF

Info

Publication number
DE102014010152A1
DE102014010152A1 DE201410010152 DE102014010152A DE102014010152A1 DE 102014010152 A1 DE102014010152 A1 DE 102014010152A1 DE 201410010152 DE201410010152 DE 201410010152 DE 102014010152 A DE102014010152 A DE 102014010152A DE 102014010152 A1 DE102014010152 A1 DE 102014010152A1
Authority
DE
Germany
Prior art keywords
effect
image data
photographic
electronic device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201410010152
Other languages
English (en)
Inventor
Jing-Lung c/o HTC Corporation Wu
Hsin-Ti c/o HTC Corporation Chueh
Fu-Chang c/o HTC Corporation Tseng
Pol-Lin c/o HTC Corporation Tai
Yu-Cheng c/o HTC Corporation Hsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of DE102014010152A1 publication Critical patent/DE102014010152A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Abstract

Eine elektronische Vorrichtung weist einen Kamerasatz, ein Eingangsquellenmodul, ein Automatikeinrichtungsmodul und ein Nachbearbeitungsmodul auf. Der Kamerasatz ist so konfiguriert, dass er Bilddaten in Bezug auf eine Szene erfasst. Das Eingangsquellenmodul ist so konfiguriert, dass es Information zugehörig zu den Bilddaten sammelt. Das Automatikeinrichtungsmodul ist so konfiguriert, dass es zumindest einen geeigneten, fotografischen Effekt aus einer Vielzahl von in Frage kommenden, fotografischen Effekten gemäß den Informationen zugehörig zu den Bilddaten bestimmt. Das Nachbearbeitungsmodul ist so konfiguriert, dass es die Bilddaten verarbeitet und den geeigneten fotografischen Effekt auf die Bilddaten anwendet, nachdem die Bilddaten erfasst wurden.

Description

  • Gebiet der Erfindung
  • Die Erfindung bezieht sich auf ein fotografisches Verfahren und eine fotografische Vorrichtung. Insbesondere bezieht sich die Erfindung auf ein Verfahren zur Bestimmung eines geeigneten fotografischen Effekts und eine Vorrichtung dafür.
  • Hintergrund
  • Die Photographie war einmal ein Beruf, da sie viele Kenntnisse erfordert, um geeignete Konfigurationen (z. B. Steuerung einer Belichtungszeit, eines Weißabgleichs, einer Brennweite) zum Schießen von Fotos in geeigneter Weise zu bestimmen. Da die Komplexität manueller Konfigurationen der Photographie zugenommen hat, haben die erforderlichen Betriebe und das Hintergrundwissen der Nutzer zugenommen.
  • Die meisten Digitalkameras (oder eine mobile Vorrichtung mit einem Kameramodul) besitzen eine Vielzahl von fotografischen Modi, z. B. Smart-Capture, Portrait, Sport, Dynamisch, Landschaft, Nahaufnahme, Sonnenuntergang, Hintergrundlicht, Kinder, Hell, Selbstportrait, Nachtportrait, Nachtlandschaft, Hoch-ISO und Panorama, die durch den Nutzer ausgewählt werden können, um die Digitalkameras in einen geeigneten Status vorab vor der Bilderfassung zu setzen.
  • Bei der Digitalkamera kann der fotografische Modus aus einem Betriebsmenü ausgewählt werden, das auf der Digitalkamera angezeigt wird oder durch Betätigen von Funktionstasten, die auf der Digitalkamera ausgeführt sind.
  • ZUSAMMENFASSUNG
  • Ein Aspekt der Offenbarung ist es, eine elektronische Vorrichtung vorzusehen. Die elektronische Vorrichtung weist einen Kamerasatz, ein Eingangsquellenmodul und ein Automatikeinrichtungsmodul auf. Der Kamerasatz ist so konfiguriert, dass er Bilddaten erfasst. Das Eingangsquellenmodul ist so konfiguriert, dass es Informationen zugehörig zu den Bilddaten sammelt. Das Automatikeinrichtungsmodul ist so konfiguriert, dass es zumindest einen geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information bestimmt, die sich auf die Bilddaten bezieht. Die Information weist eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten auf.
  • Ein weiterer Aspekt der Offenbarung ist es, ein Verfahren vorzusehen, das für eine elektronische Vorrichtung mit einem Kamerasatz geeignet ist. Das Verfahren weist die folgenden Schritte auf: Erfassen von Bilddaten durch den Kamerasatz; Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist; und Bestimmen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information, die sich auf die Bilddaten bezieht.
  • Ein weiterer Aspekt der Offenbarung ist es, ein nicht-flüchtiges, computerlesbares Speichermedium mit einem Computerprogramm vorzusehen, um ein Automatikeffektverfahren auszuführen. Das Automatikeffektverfahren weist die folgenden Schritte auf: ansprechend auf die erfassten Bilddaten, Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist; und Bestimmen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Aspekte der vorliegenden Offenbarung können am Besten aus der folgenden detaillierten Beschreibung verstanden werden, wenn diese mit den begleitenden Zeichnungen gelesen wird. Es sei bemerkt, dass gemäß der Standardpraxis in der Industrie verschiedene Merkmale bzw. Ausführungsformen nicht maßstabsgetreu gezeichnet sind. In der Tat sind die Abmessungen verschiedener Merkmale der Klarheit der Erläuterung halber beliebig vergrößert oder verkleinert.
  • 1 ist ein schematisches Schaubild, das eine elektronische Vorrichtung gemäß einem Ausführungsbeispiel dieser Offenbarung darstellt;
  • 2 ist ein Flussdiagramm, das ein Automatikeffektverfahren darstellt, das durch die elektronische Vorrichtung in einem veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird;
  • 3 ist ein Flussdiagramm, das ein Automatikeffektverfahren darstellt, das durch die elektronische Vorrichtung in einem weiteren, veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird;
  • 4A, 4B, 4C und 4D sind Beispiele von Tiefenhistogrammen zugehörig zu unterschiedlichen Tiefenverteilungen.
  • 5 zeigt ein Verfahren zum Vorsehen einer Benutzerschnittstelle gemäß einem Ausführungsbeispiel der Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Offenbarung sieht viele unterschiedliche Ausführungsbeispiele oder Beispiele zur Implementierung unterschiedlicher Merkmale der Erfindung vor. Spezifische Beispiele der Komponenten und Anordnungen sind nachfolgend beschrieben, um die vorliegende Offenbarung zu vereinfachen. Diese sind natürlich nur Beispiele und sind nicht in einschränkender Weise gedacht. Zusätzlich kann die vorliegende Offenbarung die Bezugszeichen und/oder Buchstaben in den verschiedenen Beispielen wiederholen. Diese Wiederholung dient den Zwecken der Einfachheit und Klarheit und gibt für sich genommen nicht eine Beziehung zwischen den verschiedenen diskutierten Ausführungsbeispielen und/oder Konfigurationen vor.
  • Ein Ausführungsbeispiel der Offenbarung ist es, ein Verfahren zur automatischen Bestimmung entsprechender fotografischer Effekte (z. B. einen optikartigen Effekt zur Veränderung der Blende, des Fokus und der Feldtiefe der Bilddaten durch Software-Simulation) basierend auf verschiedenen Informationen, wie beispielsweise der Fokussierungsentfernung (erfasst aus einer Position eines Schwingspulenmotors), RGB-Histogramme, einem Tiefenhistogramm und einer Bilddisparität, einzuführen. Infolgedessen kann ein Nutzer im Allgemeinen Fotos erfassen, ohne manuell die Effekte anzuwenden, und geeignete fotografische Effekte/Konfigurationen können automatisch detektiert werden und können während einer Nachbereitung (z. B. wenn der Nutzer die Fotos betrachtet) in einigen Ausführungsbeispielen angewendet werden. Die Details der Betriebe sind in den folgenden Abschnitten offenbart.
  • Es wird auf 1 Bezug genommen, die ein schematisches Schaubild ist, das eine elektronische Vorrichtung 100 gemäß einem Ausführungsbeispiel dieser Offenbarung darstellt. Die elektronische Vorrichtung 100 weist einen Kamerasatz 120, ein Eingangsquellenmodul 140 und ein Automatikeinrichtungsmodul 160 auf. In dem Ausführungsbeispiel, das in 1 gezeigt ist, weist die elektronische Vorrichtung 100 ferner ein Nachbereitungsmodul 180 und ein Vorverarbeitungsmodul 150 auf. Das Vorverarbeitungsmodul 150 ist mit dem Eingangsquellenmodul 140 und dem Automatikeinrichtungsmodul 160 gekoppelt.
  • Der Kamerasatz 120 weist ein Kameramodul 122 und ein Fokussierungsmodul 124 auf. Das Kameramodul 122 ist so konfiguriert, dass es die Bilddaten erfasst. In der Praxis kann das Kameramodul 122 eine einzelne Kameraeinheit, ein Paar von Kameraeinheiten (z. B. eine Implementierung von zwei bzw. Dualkameras) oder mehrere Kameraeinheiten (eine Implementierung mehrerer Kameras) sein. Als Ausführungsbeispiel, das in 1 gezeigt ist, weist das Kameramodul 122 zwei Kameraeinheiten 122a und 122b auf. Das Kameramodul 122 ist so konfiguriert, dass es Bilddaten in Bezug auf eine Szene erfasst. Die Bilddaten können verarbeitet und als (ein) Foto(s) in der elektronischen Vorrichtung gespeichert werden. Als Ausführungsbeispiel der vorliegenden Erfindung werden zwei Bilddaten einzeln durch zwei Kameraeinheiten 122a und 122b erfasst, und die zwei Bilddaten können verarbeitet und als zwei Fotos in der elektronischen Vorrichtung 100 gespeichert werden.
  • Das Fokussierungsmodul 124 ist so konfiguriert, dass es die Fokussierungsentfernung regelt, die durch das Kameramodul 122 geregelt wird. Als Ausführungsbeispiel, das in 1 gezeigt ist, weist das Fokussierungsmodul 124 eine erste Fokussierung 124a und eine zweite Fokussierung 124b zugehörig zu den Kameraeinheiten 122a bzw. 122b auf. Beispielsweise regelt die erste Fokussierung 124a eine erste Fokussierungsentfernung der Kameraeinheit 122a und die zweite Fokussierung 124b regelt eine zweite Fokussierungsentfernung der Kameraeinheit 122b.
  • Die Fokussierungsentfernung ist eine spezifische Entfernung zwischen einem Zielobjekt der Szene und dem Kameramodul 122. In einem Ausführungsbeispiel weist sowohl die erste Fokussierung 124a als auch die zweite Fokussierung 124b einen Schwingspulenmotor bzw. VCM (VCM = Voice Coil Motor) zur Regelung einer Brennweite der Kameraeinheit 122a/122b in Übereinstimmung mit der Fokussierungsentfernung auf. In einigen Ausführungsbeispielen bezeichnet die Brennweite eine Entfernung zwischen den Linsen und einer Abtastanordnung (z. B. einer CCD/CMOS-Optiksensoranordnung) innerhalb der Kameraeinheit 122a/122b des Kameramoduls 122.
  • In einigen Ausführungsbeispielen werden die erste Fokussierungsentfernung und die zweite Fokussierungsentfernung separat geregelt, so dass die Kameraeinheiten 122a und 122b imstande sind, auf unterschiedliche Zielobjekte (z. B. eine Person im Vordergrund und ein Gebäude im Hintergrund) gleichzeitig innerhalb der Zielszene zu fokussieren.
  • In anderen Ausführungsbeispielen sind die erste Fokussierungsentfernung und die zweite Fokussierungsentfernung synchronisiert, so dass sie gleich sind, so dass die zwei Bilddaten, die von den Kameraeinheiten 122a und 122b ausgegeben werden, das gleiche Ziel zeigen, das von leicht unterschiedlichen Betrachtungswinkeln betrachtet wird, und die in diesem Fall erfassten Bilddaten sind nutzbar, um die Tiefeninformation zu ermitteln oder 3D-Effekte zu simulieren.
  • Das Eingangsquellenmodul 140 ist so konfiguriert, dass es Informationen zugehörig zu den Bilddaten sammelt. In dem Ausführungsbeispiel weisen die Informationen zugehörig zu den Bilddaten die Fokussierungsentfernung(en) auf. Das Eingangsquellenmodul 140 erfasst die Fokussierungsentfernung(en) von dem Fokussierungsmodul 124 (z. B. gemäß einer Position des Schwingspulenmotors).
  • In dem in 1 gezeigten Ausführungsbeispiel weist die elektronische Vorrichtung 100 ferner ein Tiefenverarbeitungsmodul 190 auf, die so konfiguriert ist, dass sie eine Tiefenverteilung der Bilddaten relativ zu der Szene analysiert. In dem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung könnte die Tiefeninformation durch die Analyse der Ergebnisse der Bilder einer einzelnen Kamera, von Dualkameras, mehreren Kameras oder einer einzelnen Kamera mit einem Entfernungsdetektionssensor, wie beispielsweise Lasersensoren, Infrarot- bzw. IR-Sensoren oder Lichtmustersensoren erhalten werden, ist jedoch nicht hierauf beschränkt. Die Tiefenverteilung kann beispielsweise durch ein Tiefenhistogramm oder eine Tiefenkarte repräsentiert werden. In dem Tiefenhistogramm werden die Pixel innerhalb der Bilddaten durch deren Tiefenwerte klassifiziert, so dass verschiedene Objekte (in der Szene der erfassten Bilddaten), die sich in unterschiedlichen Entfernungen zu der elektronischen Vorrichtung 100 befinden, durch das Tiefenhistogramm unterschieden werden können. Zusätzlich kann die Tiefenverteilung genutzt werden, um den Hauptgegenstand, Kanten der Objekte, räumliche Beziehungen zwischen den Objekten, dem Vordergrund und dem Hintergrund in der Szene zu analysieren.
  • In einigen Ausführungsbeispielen weist die Information zugehörig zu den Bilddaten, die durch das Eingangsquellenmodul 140 gesammelt werden, ferner die Tiefenverteilung von der Tiefenverarbeitungsmodul 190 und zuvor erwähnte relative Analyseergebnisse (z. B. den Hauptgegenstand, die Kanten der Objekte, die räumlichen Beziehungen zwischen den Objekten, den Vordergrund und den Hintergrund in der Szene) aus der Tiefenverteilung auf.
  • In einigen Ausführungsbeispielen weist die Information, die durch das Eingangsquellenmodul 140 gesammelt wird, ferner Sensorinformationen des Kamerasatzes 120, Bildeigenschaftsinformationen der Bilddaten, Systeminformationen der elektronischen Vorrichtung 100 und andere verwandte Informationen auf.
  • Die Sensorinformation weist Kamerakonfigurationen des Kameramoduls 122 (z. B. wird das Kameramodul 122 durch einzelne, duale oder mehrere Kameraeinheiten gebildet), Autofokus- bzw. AF-Einstellungen (AF = Automatic Focus), automatische Belichtungs- bzw. AE-Einstellungen (AE = Automatic Exposure) und automatische Weißabgleich- bzw. AWB-Einstellungen (AWB = Automatic White-Balance) auf.
  • Die Bildeigenschaftsinformation der Bilddaten weist Analyseergebnisse von den Bilddaten (z. B. Szenendetektionsausgaben, Gesichtsanzahldetektionsausgaben und andere Detektionsausgaben, die ein Portrait, eine Gruppe oder die Position von Personen anzeigen) und Daten im austauschbaren Bilddateiformat bzw. EXIF-Daten (EXIF = Exchangeable Image File Format) auf, die zu den erfassten Bilddaten gehören.
  • Die Systeminformation weist einen Positionierungsort (z. B. GPS-Koordinaten) und eine Systemzeit der elektronischen Vorrichtung auf.
  • Die zuvor erwähnte, andere verwandte Information können Histogramme in Roten, Grünen und Blauen Farben bzw. RGB-Histogramme, ein Helligkeitshistogramm um den Lichtstatus der Szene anzuzeigen (geringeres Licht, Blitzlicht), einen Status des Hintergrundbeleuchtungsmoduls, eine Überbelichtungsmitteilung, eine Variation der Rahmenintervalle und/oder eine Globalverschiebung des Kameramoduls 122 sein. In einigen Ausführungsbeispielen kann die zuvor erwähnte, verwandte Information die Ausgaben von einem Bildsignalprozessor bzw. ISP (ISP = Image Signal Processor) der elektronischen Vorrichtung 100 sein, die nicht in 1 gezeigt ist.
  • Die zuvor erwähnte Information zugehörig zu den Bilddaten (die die Fokussierungsentfernung, die Tiefenverteilung, die Sensorinformation, die Systeminformation und/oder andere zugehörige Information umfasst) kann durch das Eingangsquellenmodul 140 gesammelt und gemeinsam mit den Bilddaten in der elektronischen Vorrichtung 100 gespeichert werden.
  • Es sei bemerkt, dass die gesammelte und gespeicherte Information in dem Ausführungsbeispiel nicht darauf beschränkt ist, die Parameter/Konfigurationen des Kamerasatzes 120 direkt zu beeinflussen. Andererseits kann die gesammelte und gespeicherte Information genutzt werden, um einen oder mehrere geeignetenfotografischen Effekte, die geeignet oder optimal für die zugehörigen Bilddaten sind, aus einer Vielzahl von in Frage kommenden fotografischen Effekten durch das Automatikeinrichtungsmodul 160 zu bestimmen, nachdem die Bilddaten erfasst wurden.
  • Das Automatikeinrichtungsmodul 160 ist so konfiguriert, dass es zumindest einen geeigneten fotografischen Effekt aus den in Frage kommenden fotografischen Effekten bestimmt und empfiehlt, und zwar gemäß der Information, die durch das Eingangsquellenmodul 140 gesammelt wird und verwandt mit den Bilddaten ist. In einigen Ausführungsbeispielen weisen die in Frage kommenden fotografischen Effekte zumindest einen Effekt auf, der aus der Gruppe ausgewählt wird, die einen Bokeh-Effekt, einen Refocus-Effekt, einen Makro-Effekt, einen Pseudo-3D-Effekt, einen 3D-artigen Effekt, einen 3D-Effekt und einen Flugansichts- bzw. Flyview-Animationseffekt aufweist.
  • Das Vorverarbeitungsmodul 150 ist so konfiguriert, dass es bestimmt, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden fotografischen Effekte gemäß der Bildeigenschaftsinformation anzuwenden oder nicht, und zwar bevor das Automatikeinrichtungsmodul 160 aktiviert ist, um den geeigneten fotografischen Effekt zu bestimmen und zu empfehlen. Wenn das Vorverarbeitungsmodul 150 detektiert, dass die erfassten Bilddaten ungültig sind, um irgendeinen in Frage kommenden fotografischen Effekt anzuwenden, werden weitere Berechnungen des Automatikeinrichtungsmoduls 160 eingestellt, um zwecklose Berechnungen des Automatikeinrichtungsmoduls 160 zu verhindern.
  • Beispielsweise bestimmt das Vorverarbeitungsmodul 150 in dem Ausführungsbeispiel, ob die Bilddaten die fotografischen Effekte gemäß den EXIF-Daten anwende können. In einigen praktischen Anwendungen weisen die EXIF-Daten Dualbildinformationen zugehörig zu einem Paar von Fotos der Bilddaten (von den zwei Kameraeinheiten), Zeitstempel zugehörig zu dem Paar von Fotos, und Fokussierungsenffernungen des Paars von Fotos auf.
  • Die Dualbildinformation zeigt an, ob das Paar von Fotos durch die Dualkameraeinheiten (z. B. zwei Kameraeinheiten in Dual-Kamera-Konfiguration) erfasst wurden. Die Dualbildinformation wird gültig sein, wenn das Paar der Fotos durch die Dualkameraeinheiten erfasst wurden. Die Dualbildinformation wird ungültig sein, wenn das Paar von Fotos durch eine einzelne Kamera erfasst wurde oder durch unterschiedliche Kameras, die nicht in der Dual-Kamera-Konfiguration konfiguriert sind.
  • In einem Ausführungsbeispiel, wenn eine Zeitdifferenz zwischen zwei Zeitstempeln der Dualfotos zu groß ist (beispielsweise größer als 100 ms), ist das Paar von Fotos nicht geeignet, um den fotografischen Effekt anzuwenden, der für Dualkameraeinheiten ausgelegt ist.
  • In einem weiteren Ausführungsbeispiel, wenn keine gültigen Fokussierungsdistanzen in den EXIF-Daten gefunden werden, deutet dies darauf hin, dass das Paar von Fotos fehlschlägt, auf einem spezifischen Ziel zu fokussieren, so dass das Paar von Fotos nicht geeignet ist, um den fotografischen Effekt anzuwenden, der für Dualkameraeinheiten ausgelegt ist.
  • In einem weiteren Ausführungsbeispiel, wenn es kein gültiges Paar von Fotos gibt (nicht irgendwelche zwei verwandten Fotos gefunden werden können, die durch Dualkameraeinheiten erfasst wurden), deutet dies darauf hin, dass das Vorverarbeitungsmodul 150 nicht imstande ist, irgendwelche zwei verwandten Fotos in den EXIF-Daten zu finden, die durch Dualkameraeinheiten erfasst wurden, so dass die Bilddaten nicht geeignet sind, um den fotografischen Effekt anzuwenden, der für Dualkameraeinheiten ausgelegt ist.
  • Das Nachbereitungsmodul 180 ist so konfiguriert, dass es die Bilddaten verarbeitet und den geeigneten fotografischen Effekt auf die Bilddaten anwendet, nachdem die Bilddaten erfasst wurden. Beispielsweise wenn der Nutzer Bilder/Fotos betrachtet, die in einem digitalen Album der elektronischen Vorrichtung 100 vorliegen, kann das Automatikeinrichtungsmodul 160 eine Liste von geeigneten fotografischen Effekten für jedes Bild/Foto in dem digitalen Album empfehlen. Die geeigneten fotografischen Effekte können in einer Benutzerschnittstelle (nicht in den Figuren gezeigt) angezeigt, hervorgehoben oder vergrößert sein, die auf der elektronischen Vorrichtung 100 angezeigt wird. Oder in einem anderen Fall können fotografische Effekte, die nicht für ein spezifisches Bild/Foto geeignet sind, aus einer Liste von fotografischen Effekten ausgeblendet oder verborgen werden. Die Nutzer können zumindest einen Effekt aus der empfohlenen Liste auswählen, die in der Benutzerschnittstelle gezeigt ist. Demgemäß kann das Nachbearbeitungsmodul 180 einen der geeigneten fotografischen Effekte auf die bestehenden Bilddaten anwenden und dann in der Benutzerschnittstelle anzeigen, ob der Nutzer irgendeinen der empfohlenen Effekte aus der empfohlenen Liste (einschließlich aller geeigneten fotografischen Effekte) auswählt.
  • Bevor überhaupt irgendeiner der empfohlenen Effekte durch den Nutzer ausgewählt wird, können in einem Ausführungsbeispiel Bilder/Fotos, die in dem digitalen Album der elektronischen Vorrichtung 100 gezeigt sind, automatisch einen voreingestellten fotografischen Effekt (z. B. einen Zufallseffekt aus den geeigneten fotografischen Effekten, oder einen spezifischen Effekt aus den geeigneten fotografischen Effekten) anwenden. In einem anderen Ausführungsbeispiel kann, nachdem einer der empfohlenen Effekte durch den Nutzer ausgewählt wurde, ein Effekt, der von dem Nutzer ausgewählt wurde, automatisch auf die Bilder/Fotos angewendet werden, die in dem digitalen Album angezeigt werden. Wenn der Nutzer einen anderen Effekt aus der Empfehlungsliste neu auswählt, wird der letzte Effekt, der durch den Nutzer ausgewählt wurde, auf die Bilder/Fotos angewendet.
  • Der Bokeh-Effekt dient dazu, einen verschwommenen Bereich innerhalb der ursprünglichen Bilddaten zu erzeugen, um zu simulieren, dass sich der verschwommene Bereich außerhalb des Fokus während der Bilderfassung befindet. Der Neufokussierungs- bzw. Refocus-Effekt dient dazu, eine Fokussierungsentfernung oder ein im Fokus befindliches innerhalb der Originalbilddatenneu zuzuweisen, um die Bilddaten unter einer anderen Fokussierungsentfernung zu simulieren. Beispielsweise sieht ein Bild/Foto auf das der Refocus-Effekt angewendet wird, die Fähigkeit für den Nutzer vor, den Fokussierungspunkt z. B. durch Berühren/Hindeuten auf dem Touchscreen der elektronischen Vorrichtung 100 auf ein spezifisches Objekt in der Szene neu zuzuweisen. Der Pseude-3D oder 3D-artige Effekt (ebenfalls als 2,5D-Effekt bekannt), dient dazu, eine Serie von Bildern (oder Szenen) zu erzeugen, um das Vorhandensein der Existenz von 3D-Aufnahmen durch 2D-Graphikprojektionen und ähnliche Techniken zu simulieren. Der Makro-Effekt dient dazu, 3D-Gitter auf einem spezifischen Objekt in den Originalbilddaten in der Szene zu erzeugen, um das Erfassen von Bildern durch 3D-Betrachtung aus unterschiedlichen Winkeln zu simulieren. Der Flugansichts- bzw. Flyview-Animationseffekt dient dazu, ein Objekt und einen Hintergrund in der Szene zu separieren und eine Simulationsanimation zu erzeugen, in der das Objekt aus unterschiedlichen Betrachtungswinkeln entlang eines Bewegungsmusters betrachtet wird. Da es einen breiten Stand der Technik gibt, der diskutiert, wie die zuvor erwähnten Effekte erzeugt werden, werden die technischen Details der Erzeugung der zuvor erwähnten Effekte hier weggelassen.
  • Es gibt einige veranschaulichende Beispiele, die in den nachfolgenden Abschnitten vorgestellt werden, um zu demonstrieren, wie das Automatikeinrichtungsmodul 160 den geeigneten fotografischen Effekt aus den in Frage kommenden fotografischen Effekten bestimmt und empfiehlt.
  • Es sei auf 2 Bezug genommen, die ein Flussdiagramm ist, das ein Automatikeffektverfahren 200 darstellt, das durch die elektronische Vorrichtung 100 in einem veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird.
  • Wie in 1 und 2 gezeigt, wird der Vorgang S200 ausgeführt, um Bilddaten durch den Kamerasatz 120 zu erfassen. Der Vorgang S202 wird ausgeführt, um Informationen zugehörig zu den Bilddaten zu sammeln. In diesem Fall weisen die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten auf. Der Vorgang S204 wird ausgeführt, um die Fokussierungsentfernung mit einer vordefinierten Referenz zu vergleichen.
  • In diesem Ausführungsbeispiel werden einige der in Frage kommenden fotografischen Effekte als mögliche Kandidaten betrachtet, wenn die Fokussierungsentfernung geringer als die vordefinierte Referenz ist. Beispielsweise sind der Makro-Effekt, der Pseudo-3D-Effekt, der 3D-artige Effekt, der 3D-Effekt und der Flyview-Animationseffekt aus den in Frage kommenden fotografischen Effekten mögliche Kandidaten, wenn die Fokussierungsentfernung kürzer als die vordefinierte Referenz ist, da der Gegenstand bzw. das Subjekt innerhalb der Szene groß und lebendig genug für die zuvor erwähnten Effekte sein wird, wenn die Fokussierungsentfernung gering ist. In diesem Ausführungsbeispiel bilden der Makro-Effekt, der Pseudo-3D-Effekt, der 3D-artige Effekt, der 3D-Effekt und der Flyview-Animationseffekt eine erste Untergruppe innerhalb sämtlicher in Frage kommender fotografischer Effekte. Der Vorgang S206 wird ausgeführt, um einen geeigneten aus der ersten Untergruppe von in Frage kommenden fotografischen Effekten als geeigneten fotografischen Effekt auszuwählen.
  • In diesem Ausführungsbeispiel werden einige der in Frage kommenden fotografischen Effekte als mögliche Kandidaten betrachtet, wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist. Beispielsweise sind der Bokeh-Effekt und der Refocus-Effekt aus den in Frage kommenden fotografischen Effekten mögliche Kandidaten, wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist, da die Objekte in dem Vordergrund und andere Objekte im Hintergrund einfach zu trennen sind, wenn die Fokussierungsentfernung groß ist, so dass die Bilddaten in diesem Fall gut für die zuvor erwähnten Effekte sind. In diesem Ausführungsbeispiel bilden der Bokeh-Effekt und der Refocus-Effekt eine zweite Untergruppe innerhalb sämtlicher in Frage kommender fotografischer Effekte. Der Vorgang S208 wird ausgeführt, um einen geeigneten aus der zweiten Untergruppe von in Frage kommenden fotografischen Effekten als geeigneten fotografischen Effekt auszuwählen.
  • Bezug sei auf 3 genommen, die ein Flussdiagramm eines Automatikeffektverfahrens 300 darstellt, das durch die elektronische Vorrichtung 100 in einem anderen veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird. In dem in 3 gezeigten Ausführungsbeispiel bestimmt das Automatikeinrichtungsmodul 160 den geeigneten fotografischen Effekt oder einen Parameter davon gemäß einer Tiefenverteilung zusätzlich zu der Fokussierungsentfernung und der Information zugehörig zu den Bilddaten und empfiehlt diesen. Beispielsweise weist der Parameter einen Schärfepegel oder einen Kontraststärkepegel auf (der auf den Bokeh-Effekt und den Refocus-Effekt angewendet wird).
  • Bezug wird ebenfalls auf 4A, 4B, 4C und 4D genommen, die Beispiele von Tiefenhistogrammen zugehörig zu unterschiedlichen Tiefenverteilungen sind. 4A zeigt ein Tiefenhistogramm DH1, welches anzeigt, dass es zumindest zwei Hauptobjekte in den Bilddaten gibt. Zumindest eines von diesen ist im Vordergrund gelegen, und zumindest das andere ist im Hintergrund gelegen. 4B zeigt ein anderes Tiefenhistogramm DH2, welches anzeigt, dass es mehrere Objekte gibt, die gleichmäßig über unterschiedliche Entfernungen von der elektronischen Vorrichtung 100 verteilt sind. 4C zeigt ein weiteres Tiefenhistogramm DH3, welches anzeigt, dass es Objekte gibt, die an dem entfernten Ende der elektronischen Vorrichtung 100 erfasst werden. 4D zeigt ein weiteres Tiefenhistogramm DH4, welches anzeigt, dass es Objekte gibt, die an dem nahen Ende benachbart zu der elektronischen Vorrichtung 100 erfasst werden.
  • In 3 sind die Vorgänge S300, S302 und S304 die gleichen wie die Vorgänge S200, S202 bzw. S204. Wenn die Fokussierungsentfernung kleiner als die vordefinierte Referenz ist, wird ferner der Vorgang S306 ausgeführt, um das Tiefenhistogramm DH der Bilddaten zu bestimmen. Wenn das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH4 ist, das in 4D gezeigt ist, wird der Vorgang S310 ausgeführt, um den Flyview-Animationseffekt, den Pseude-3D oder den 3D-artigen Effekt als geeigneten fotografischen Effekt auszuwählen, da das Hauptobjekt der Bilddaten sich offensichtlich in dieser Situation befindet.
  • Wenn die Fokussierungsentfernung kleiner als die vordefinierte Referenz ist und das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH2 ist, das in 4B gezeigt ist, wird der Vorgang S312 ausgeführt, um den Makro-Effekt, den Pseudo-3D-Effekt oder den 3D-artigen Effekt als geeigneten fotografischen Effekt auszuwählen, da es viele Objekte in den Bilddaten gibt.
  • Wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist, wird ferner der Vorgang S308 ausgeführt, um das Tiefenhistogramm DH der Bilddaten zu bestimmen. Wenn das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH1 ist, das in 4A gezeigt ist, wird der Vorgang S314 ausgeführt, um den Bokeh-Effekt und den Refocus-Effekt bei einem scharfen Pegel auszuwählen und anzuwenden, was einen hohen Kontraststärkenpegel des Bokeh-Effekts bewirkt, da zwei Hauptobjekte im Vordergrund und im Hintergrund der Bilddaten gelegen sind.
  • Wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist und das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH2 ist, das in 4B gezeigt ist, wird der Vorgang S316 ausgeführt, um den Bokeh-Effekt und den Refocus-Effekt bei einem geglätteten Pegel auszuwählen und anzuwenden, was einen niedrigen Kontraststärkenpegel des Bokeh-Effekts bewirkt, da es mehrere Objekte gibt, die sich bei unterschiedlichen Entfernungen in den Bilddaten befinden.
  • Wenn die Fokussierungsentfernung länger als die vordefinierte Referenz ist und das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH3 ist, das in 4C gezeigt ist, ist der Bokeh-Effekt hier nicht geeignet, da die Objekte alle bei dem entfernten Ende der Bilddaten gelegen sind.
  • Es sei bemerkt, dass veranschaulichende Beispiele, die in 2 und 3 gezeigt sind, zur Verdeutlichung verwendet werden, und das Automatikeinrichtungsmodul 160 nicht darauf beschränkt ist, den geeigneten fotografischen Effekt gemäß 2 oder 3 auszuwählen. Das Automatikeinrichtungsmodul 160 kann den geeigneten fotografischen Effekt gemäß sämtlicher Informationen bestimmen, die durch das Eingangsquellenmodul 140 gesammelt werden.
  • Die Tiefenverteilung kann genutzt werden, um Objektpositionen, Entfernungen, Bereiche und räumliche Beziehungen zu kennen. Basierend auf der Tiefenverteilung ist es einfach den Hauptgegenstand bzw. das Subjekt der Bilddaten gemäß der Tiefengrenzen herauszufinden. Die Tiefenverteilung offenbart ebenfalls die Inhalte/Zusammensetzungen der Bilddaten. Die Fokussierungsentfernung von dem Schwingspulenmotor bzw. VCM (VCM = Voice Coil Motor) und andere Beziehungsinformationen (z. B. von dem Bildsignalprozessor bzw. ISP (ISP = Image Signal Processor)) offenbaren die Umgebungsbedingungen. Die Systeminformation offenbart die Zeit, die Position, Innenraum/Außengelände der Bilddaten. Beispielsweise kann die Systeminformation von einem GPS (GPS = Global Positioning System) der elektronischen Vorrichtung 100 anzeigen, dass die Bilddaten aus geschlossenen Räumen oder im Außengelände oder nahe eines bekannten Ortes gemacht wurden. Die GPS-Koordinaten können gemäß der Position der Bilder, die in geschlossenen Räumen oder im Außengelände aufgenommen sind, darauf hindeuten, was für ein Objekt der Nutzer im Bild betonen möchte. Die Systeminformation von einem Gravitätssensor, einem Gyrosensor oder einem Bewegungssensor der elektronischen Vorrichtung 100 können eine Bildaufnahmehaltung, einen Aufnahmewinkel oder einen Stabilitätsgrad während der Aufnahme anzeigen, die in Bezug zu der Kompensation oder dem Effekt stehen.
  • In einigen Ausführungsbeispielen weist die elektronische Vorrichtung 100 ferner ein Anzeigeelement 110 (wie in 1 gezeigt) auf. Das Anzeigeelement 110 ist so konfiguriert, dass es Fotos innerhalb der Bilddaten anzeigt und ebenfalls eine auswählbare Nutzerschnittstelle zur Auswahl des zumindest einen geeigneten fotografischen Effekts zugehörig zu dem Foto anzeigt. In einigen Ausführungsbeispielen ist das Anzeigeelement 110 mit dem Automatikeinrichtungsmodul 160 und dem Nachbearbeitungsmodul 180 gekoppelt, aber diese Offenbarung ist nicht hierauf beschränkt.
  • Es wird auf 5 Bezug genommen, die ein Verfahren 500 zum Vorsehen einer Benutzerschnittstelle auf dem Anzeigeelement 110 gemäß einem Ausführungsbeispiel der Offenbarung vorsieht. Wie in 5 gezeigt, wird Schritt S500 ausgeführt, um Bilddaten durch den Kamerasatz zu erfassen. Schritt S502 wird ausgeführt, um Informationen zugehörig zu den Bilddaten zu sammeln. Schritt S504 wird ausgeführt, um zumindest einen geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten zu bestimmen und zu empfehlen. Die zuvor erwähnten Schritte S500 bis S504 werden im Detail in den zuvor erwähnten Ausführungsbeispielen erläutert und es kann auf die Schritte S200 bis S208 in 2 und die Schritte S300 bis S316 in 3 Bezug genommen werden und sie werden hier nicht wiederholt.
  • In dem Ausführungsbeispiel führt das Verfahren 500 ferner den Schritt S508 aus, um zumindest eine auswählbare Benutzerschnittstelle zum Auswählen von einem der zumindest einen geeigneten fotografischen Effekte zugehörig zu den Bilddaten auszuwählen. Die auswählbare Benutzerschnittstelle zeigt einige Symbole oder Funktionsknöpfe zugehörig zu den unterschiedlichen fotografischen Effekten. Die Symbole oder Funktionsknöpfe der empfohlenen/geeigneten fotografischen Effekte können hervorgehoben oder mit der höchsten Priorität angeordnet/geordnet sein. Die Symbole oder Funktionsknöpfe, die sich nicht in der empfohlenen/geeigneten Liste befinden, sind ausgegraut, deaktiviert oder verborgen.
  • Zusätzlich, bevor der empfohlene fotografische Effekt (aus den geeigneten fotografischen Effekten) durch den Benutzer ausgewählt wird, führt das Verfahren 500 ferner den Schritt S506 aus, um automatisch zumindest einen geeigneten, fotografischen Effekt als einen voreingestellten oder standardmäßigen fotografischen Effekt auf die Fotos anzuwenden, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
  • Darüber hinaus, nachdem der empfohlene fotografische Effekt (aus den geeigneten fotografischen Effekten) ausgewählt wurde, führt das Verfahren 500 ferner den Schritt S510 aus, um automatisch den letzten ausgewählten der empfohlenen fotografischen Effekte auf die Fotos anzuwenden, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
  • Basierend auf den zuvor erwähnten Ausführungsbeispielen führt die Offenbarung eine elektronische Vorrichtung ein sowie ein Verfahren zum automatischen Bestimmen entsprechender fotografischer Effekte basierend auf verschiedenen Informationen, wie beispielsweise einer Fokussierungsentfernung (die aus einer Position eines Schwingspulenmotors erfasst wird), eines Tiefenhistogramms, einer Sensorinformation, einer Systeminformation und/oder einer Bilddisparität. Infolgedessen kann ein Nutzer im Allgemeinen Fotos ohne manuelles Anwenden der Effekte erfassen, und geeignete fotografische Effekte/Konfigurationen werden automatisch detektiert und auf die Nachbearbeitung angewendet, nachdem die Bilddaten erfasst wurden.
  • Ein weiteres Ausführungsbeispiel der Offenbarung sieht ein nicht-flüchtiges, computerlesbares Speichermedium mit einem Computerprogram vor, um ein Automatikeffektverfahren auszuführen, das in den zuvor erwähnten Ausführungsbeispielen offenbart ist. Das Automatikeffektverfahren weist die folgenden Schritte auf: wenn Bilddaten erfasst werden, Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweisen; und Bestimmen und Empfehlen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden, fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten. Die Details des Automatikeffektverfahrens sind in den zuvor erwähnten Ausführungsbeispielen beschrieben, die in 2 und 3 gezeigt sind, und werden hier nicht wiederholt.
  • In diesem Dokument kann der Ausdruck „gekoppelt” auch als „elektrisch gekoppelt” bezeichnet werden, und der Ausdruck „verbunden” kann auch als „elektrisch verbunden” bezeichnet werden. „Gekoppelt” und „verbunden” können ebenfalls verwendet werden, um anzuzeigen, dass zwei oder mehr Elemente zusammenwirken oder miteinander interagieren. Es wird verstanden werden, dass obwohl die Ausdrücke „erste”, „zweite” etc. hierin verwendet werden, um verschiedene Elemente zu beschreiben, diese Elemente nicht durch die Ausdrücke eingeschränkt werden sollen. Diese Ausdrücke werden verwendet, um ein Element vom anderen zu unterscheiden. Beispielsweise könnte ein erstes Element als ein zweites Element bezeichnet werden und ihn ähnlicher Weise könnte ein zweites Element als ein erstes Element bezeichnet werden, ohne den Rahmen der Ausführungsbeispiele zu verlassen. Wie hierin verwendet, umfasst der Ausdruck „und/oder” irgendeine und sämtliche Kombinationen von einem oder mehreren der assoziierten, aufgelisteten Gegenstände bzw. Elemente.
  • Das Vorangehende erläutert Merkmale der mehreren Ausführungsbeispiele, so dass Fachleute des Gebiets die Aspekte der vorliegenden Offenbarung besser verstehen können. Die Fachleute des Gebiets werden erkennen, dass sie in einfacher Weise Gebrauch von der vorliegenden Offenbarung als Basis für das Auslegen oder Modifizieren anderer Prozesse und Strukturen nutzen können, um die gleichen Zwecke auszuführen und/oder um die gleichen Vorteile der hierin eingeführten Ausführungsbeispiel zu erzielen. Fachleute des Gebiets sollten ebenfalls erkennen, dass derartige äquivalente Konstruktionen nicht den Umfang und Rahmen der vorliegenden Offenbarung verlassen, und dass sie verschiedene Veränderungen, Substitutionen und Anpassungen hieran vornehmen können, ohne den Umfang und Rahmen der vorliegenden Offenbarung zu verlassen.

Claims (30)

  1. Elektronische Vorrichtung, die Folgendes aufweist: einen Kamerasatz, der so konfiguriert ist, dass er Bilddaten erfasst; ein Eingangsquellenmodul, das so konfiguriert ist, dass es Informationen zugehörig zu den Bilddaten sammelt; und ein Automatikeinrichtungsmodul, das so konfiguriert ist, dass es zumindest einen geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten bestimmt, wobei die Information eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist.
  2. Elektronische Vorrichtung gemäß Anspruch 1, wobei die Information zugehörig zu den Bilddaten, die durch das Eingangsquellenmodul gesammelt werden, Bildeigenschaftsinformationen der Bilddaten aufweist, und die elektronische Vorrichtung ferner ein Vorverarbeitungsmodul aufweist, wobei das Vorverarbeitungsmodul so konfiguriert ist, dass es bestimmt, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden fotografischen Effekte gemäß den Bildeigenschaftsinformationen auszuwählen.
  3. Elektronische Vorrichtung gemäß Anspruch 2, wobei die Bildeigenschaftsinformation der Bilddaten Daten in einem austauschbaren Bilddateiformat bzw. EXIF-Daten (EXIF = Exchangeable Image File Format) aufweist, die aus den Bilddaten extrahiert werden.
  4. Elektronische Vorrichtung gemäß Anspruch 3, wobei die EXIF-Daten Dualbildinformationen zugehörig zu einem Paar von Fotos der Bilddaten, Zeitstempel zugehörig zu dem Paar von Fotos und Fokussierungsentfernungen des Paars von Fotos aufweist, das Vorverarbeitungsmodul die Dualbildinformation, Zeitstempel oder Fokussierungsentfernungen überprüft, um zu bestimmen, ob die erfassten Bilddaten gültig sind.
  5. Elektronische Vorrichtung gemäß Anspruch 1, wobei der Kamerasatz Dual-Kameraeinheiten oder eine Vielzahl von Kameraeinheiten aufweist.
  6. Elektronische Vorrichtung gemäß Anspruch 1, wobei die in Frage kommenden fotografischen Effekte zumindest einen Effekt aufweisen, der aus der Gruppe ausgewählt wird, die den Bokeh-Effekt, den Refocus-Effekt, den Makro-Effekt, den Pseudo-3D-Effekt, den 3D-artigen Effekt, den 3D-Effekt und einen Flyview-Animationseffekt umfasst.
  7. Elektronische Vorrichtung gemäß Anspruch 6, wobei wenn die Fokussierungsentfernung kürzer als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus der Gruppe ausgewählt wird, die aus dem Makro-Effekt, dem Pseudo-3D-Effekt, dem 3D-artigen Effekt, dem 3D-Effekt und einem Flyview-Animationseffekt besteht.
  8. Elektronische Vorrichtung gemäß Anspruch 6, wobei wenn die Fokussierungsentfernung länger als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus einer Gruppe ausgewählt wird, die aus dem Bokeh-Effekt und dem Refocus-Effekt besteht.
  9. Elektronische Vorrichtung gemäß Anspruch 1, die ferner Folgendes aufweist: ein Tiefenverarbeitungsmodul, das konfiguriert ist, um eine Tiefenverteilung der Bilddaten relativ zu der Szene zu analysieren; wobei die Information zugehörig zu den Bilddaten, die durch das Eingangsquellenmodul gesammelt wird, ferner die Tiefenverteilung von dem Tiefenverarbeitungsmodul aufweist, und das Automatikeinrichtungsmodul den geeigneten fotografischen Effekt oder einen Parameter des geeigneten fotografischen Effekts ferner gemäß der Tiefenverteilung bestimmt.
  10. Elektronische Vorrichtung gemäß Anspruch 1, die ferner Folgendes aufweist: ein Anzeigeelement, das so konfiguriert ist, dass es die Bilddaten und eine auswählbare Benutzerschnittstelle anzeigt, wobei die auswählbare Benutzerschnittstelle so konfiguriert ist, dass sie einem Benutzer empfiehlt, aus dem zumindest einen geeigneten fotografischen Effekt zugehörig zu den Bilddaten auszuwählen; wobei nachdem einer der geeigneten fotografischen Effekte auf der Benutzerschnittstelle ausgewählt wurde, der ausgewählte, geeignete, fotografische Effekt auf die Bilddaten angewendet wird.
  11. Verfahren, das für eine elektronische Vorrichtung mit einem Kamerasatz geeignet ist, wobei das Verfahren Folgendes aufweist: Erfassen von Bilddaten durch den Kamerasatz; Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist; und Bestimmen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden, fotografischen Effekten gemäß den Informationen zugehörig zu den Bilddaten.
  12. Verfahren gemäß Anspruch 11, das ferner Folgendes aufweist: Vorsehen einer auswählbaren Benutzerschnittstelle, wobei die auswählbare Benutzerschnittstelle so konfiguriert ist, dass sie einem Benutzer empfiehlt, aus zumindest einem geeigneten, fotografischen Effekt zugehörig zu den Bilddaten auszuwählen.
  13. Verfahren gemäß Anspruch 12, das ferner Folgendes aufweist: Bevor einer der zumindest einen geeigneten, fotografischen Effekte durch den Benutzer ausgewählt wird, automatisches Anwenden von einem der geeigneten, fotografischen Effekte als ein voreingestellter fotografischer Effekt auf die Bilddaten, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
  14. Verfahren gemäß Anspruch 12, das ferner Folgendes aufweist: nachdem einer der zumindest einen geeigneten, fotografischen Effekte durch den Benutzer ausgewählt wurde, automatisches Anwenden des ausgewählten fotografischen Effekts auf die Bilddaten, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
  15. Verfahren gemäß Anspruch 11, wobei die in Frage kommenden, fotografischen Effekte zumindest einen Effekt aufweisen, der aus der Gruppe ausgewählt wird, die den Bokeh-Effekt, den Refocus-Effekt, den Makro-Effekt, den Pseudo-3D-Effekt, den 3D-artigen Effekt, den 3D-Effekt und einen Flyview-Animationseffekt aufweist.
  16. Verfahren gemäß Anspruch 15, wobei wenn die Fokussierungsentfernung kleiner als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus der Gruppe ausgewählt wird, die aus dem Makro-Effekt, dem Pseudo-3D-Effekt, dem 3D-artigen Effekt, dem 3D-Effekt und einem Flyview-Animationseffekt besteht.
  17. Verfahren gemäß Anspruch 15, wobei wenn die Fokussierungsentfernung größer als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus der Gruppe ausgewählt wird, die aus dem Bokeh-Effekt und dem Refocus-Effekt besteht.
  18. Verfahren gemäß Anspruch 11, das ferner Folgendes aufweist: Analysieren einer Tiefenverteilung der Bilddaten, wobei die Informationen zugehörig zu den Bilddaten ferner eine Tiefenverteilung aufweisen, und der geeignete fotografische Effekt ferner gemäß der Tiefenverteilung bestimmt wird.
  19. Verfahren gemäß Anspruch 11, wobei der Kamerasatz zwei bzw. Dualkameraeinheiten oder eine Vielzahl von Kameraeinheiten aufweist.
  20. Verfahren gemäß Anspruch 11, wobei die Informationen zugehörig zu den Bilddaten Bildeigenschaftsinformationen der Bilddaten aufweisen, wobei das Verfahren ferner Folgendes aufweist: Bestimmen, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden, fotografischen Effekte gemäß den Bildeigenschaftsinformationen anzuwenden.
  21. Verfahren gemäß Anspruch 11, wobei die Bildeigenschaftsinformationen der Bilddaten Daten des austauschbaren Bilddateiformats bzw. EXIF-Dateien (EXIF = Exchangeable Image File Format) aufweisen, die aus den Bilddaten extrahiert werden.
  22. Verfahren gemäß Anspruch 11, wobei die EXIF-Daten Dualbildinformationen zugehörig zu einem Paar von Fotos der Bilddaten, Zeitstempel zugehörig zu dem Paar von Fotos und Fokussierungsenffernungen des Paars von Fotos aufweisen, wobei das Verfahren ferner Folgendes aufweist: Überprüfen der Dualbildinformation, der Zeitstempel oder der Fokussierungsenffernungen, um zu bestimmen, ob die erfassten Bilddaten gültig sind.
  23. Nicht-flüchtiges, computerlesbares Speichermedium mit einem Computerprogramm, um ein Automatikeffektverfahren auszuführen, wobei das Automatikeffektverfahren Folgendes aufweist: ansprechend auf das Erfassen der Bilddaten, Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweisen; und Bestimmen von zumindest einem geeigneten, fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß den Informationen zugehörig zu den Bilddaten.
  24. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei die in Frage kommenden, fotografischen Effekte zumindest einen Effekt aufweisen, der aus der Gruppe ausgewählt wird, die den Bokeh-Effekt, den Refocus-Effekt, den Makro-Effekt, den Pseudo-3D-Effekt, den 3D-artigen Effekt, den 3D-Effekt und einen Flyview-Animationseffekt umfasst.
  25. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei das Automatikeffektverfahren ferner Folgendes aufweist: Analysieren einer Tiefenverteilung der Bilddaten, wobei die Informationen zugehörig zu den Bilddaten ferner die Tiefenverteilung aufweisen, und der geeignete fotografische Effekt ferner gemäß der Tiefenverteilung bestimmt wird.
  26. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei das Automatikeffektverfahren ferner Folgendes aufweist: Verarbeiten der Bilddaten und Anwenden des geeigneten fotografischen Effekts auf die Bilddaten nachdem die Bilddaten erfasst wurden.
  27. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei die Informationen zugehörig zu den Bilddaten ferner Bildeigenschaftsinformationen aufweisen, wobei das Automatikeffektverfahren ferner Folgendes aufweist: Bestimmen, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden, fotografischen Effekte gemäß der Bildeigenschaftsinformation anzuwenden.
  28. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 27, wobei die Bildeigenschaftsinformation der Bilddaten EXIF-Daten aufweist, die aus den Bilddaten extrahiert werden.
  29. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, das ferner Folgendes aufweist: Vorsehen einer auswählbaren Benutzerschnittstelle, wobei die auswählbare Benutzerschnittstelle so konfiguriert ist, dass sie einem Benutzer empfiehlt einen der geeigneten fotografischen Effekte auszuwählen.
  30. Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 29, das ferner Folgendes aufweist: bevor einer der zumindest einen geeigneten, fotografischen Effekte durch den Benutzer ausgewählt wird, automatisches Anwenden von einem der geeigneten, fotografischen Effekte als einen standardmäßigen oder voreingestellten, fotografischen Effekt auf die Bilddaten, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
DE201410010152 2013-10-28 2014-07-09 Automatikeffektverfahren für Fotografie und elektronische Vorrichtung Pending DE102014010152A1 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201361896136P 2013-10-28 2013-10-28
US61/896,136 2013-10-28
US201461923780P 2014-01-06 2014-01-06
US61/923,780 2014-01-06
US14/272,513 US20150116529A1 (en) 2013-10-28 2014-05-08 Automatic effect method for photography and electronic apparatus
US14/272,513 2014-05-08

Publications (1)

Publication Number Publication Date
DE102014010152A1 true DE102014010152A1 (de) 2015-04-30

Family

ID=52811781

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201410010152 Pending DE102014010152A1 (de) 2013-10-28 2014-07-09 Automatikeffektverfahren für Fotografie und elektronische Vorrichtung

Country Status (4)

Country Link
US (1) US20150116529A1 (de)
CN (1) CN104580878B (de)
DE (1) DE102014010152A1 (de)
TW (1) TWI549503B (de)

Families Citing this family (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
BR112014000615B1 (pt) 2011-07-12 2021-07-13 Snap Inc Método para selecionar funções de edição de conteúdo visual, método para ajustar o conteúdo visual, e sistema para fornecer uma pluralidade de funções de edição de conteúdo visual
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
US20150206349A1 (en) 2012-08-22 2015-07-23 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US10082926B1 (en) 2014-02-21 2018-09-25 Snap Inc. Apparatus and method for alternate channel communication initiated through a common message thread
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
IL239237B (en) 2014-06-05 2018-12-31 Rotem Efrat Network document extension
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US9225897B1 (en) * 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10055717B1 (en) 2014-08-22 2018-08-21 Snap Inc. Message processor with application prompts
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
US10616239B2 (en) 2015-03-18 2020-04-07 Snap Inc. Geo-fence authorization provisioning
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
EP3308356B1 (de) * 2015-06-09 2020-04-08 Vehant Technologies Private Limited System und verfahren zur erkennung eines ungleichen objekts im fahrgestell eines fahrzeugs
CN104967778B (zh) * 2015-06-16 2018-03-02 广东欧珀移动通信有限公司 一种对焦提示方法及终端
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
KR102446442B1 (ko) * 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US11900418B2 (en) 2016-04-04 2024-02-13 Snap Inc. Mutable geo-fencing system
US10334134B1 (en) 2016-06-20 2019-06-25 Maximillian John Suiter Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction
US11785161B1 (en) 2016-06-20 2023-10-10 Pipbin, Inc. System for user accessibility of tagged curated augmented reality content
US11044393B1 (en) 2016-06-20 2021-06-22 Pipbin, Inc. System for curation and display of location-dependent augmented reality content in an augmented estate system
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
US11201981B1 (en) 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
US10805696B1 (en) 2016-06-20 2020-10-13 Pipbin, Inc. System for recording and targeting tagged content of user interest
US11876941B1 (en) 2016-06-20 2024-01-16 Pipbin, Inc. Clickable augmented reality content manager, system, and network
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US10387514B1 (en) 2016-06-30 2019-08-20 Snap Inc. Automated content curation and communication
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
US10410367B2 (en) 2016-08-30 2019-09-10 C3D Augmented Reality Solutions Ltd. Systems and methods for simulatenous localization and mapping
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN109952610B (zh) 2016-11-07 2021-01-08 斯纳普公司 图像修改器的选择性识别和排序
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
TWI641264B (zh) 2017-03-30 2018-11-11 晶睿通訊股份有限公司 影像處理系統及鏡頭狀態判斷方法
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
KR102515132B1 (ko) 2017-04-27 2023-03-28 스냅 인코포레이티드 소셜 미디어 플랫폼상의 사용자 위치의 지역적 레벨 표현
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
EP3488603B1 (de) * 2017-05-24 2021-07-28 SZ DJI Technology Co., Ltd. Verfahren und systeme zur verarbeitung eines bildes
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
KR102338576B1 (ko) * 2017-08-22 2021-12-14 삼성전자주식회사 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10425593B2 (en) * 2017-10-19 2019-09-24 Paypal, Inc. Digital image filtering and post-capture processing using user specific data
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US10721419B2 (en) * 2017-11-30 2020-07-21 International Business Machines Corporation Ortho-selfie distortion correction using multiple image sensors to synthesize a virtual image
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
EP3766028A1 (de) 2018-03-14 2021-01-20 Snap Inc. Erzeugung von sammelbaren gegenständen auf der basis von ortsinformationen
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
KR102495008B1 (ko) * 2018-05-11 2023-02-06 삼성전자주식회사 영상 편집 지원 방법 및 이를 지원하는 전자 장치
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
GB2574802A (en) * 2018-06-11 2019-12-25 Sony Corp Camera, system and method of selecting camera settings
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
KR102551220B1 (ko) * 2018-10-12 2023-07-03 삼성전기주식회사 카메라 모듈
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
KR102633221B1 (ko) * 2019-01-11 2024-02-01 엘지전자 주식회사 카메라 장치 및 이를 구비하는 전자 장치
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
CN114902646B (zh) * 2019-12-19 2024-04-19 Oppo广东移动通信有限公司 电子设备、控制电子设备的方法以及计算机可读存储介质
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US10880496B1 (en) 2019-12-30 2020-12-29 Snap Inc. Including video feed in message thread
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11514617B2 (en) * 2020-08-14 2022-11-29 Htc Corporation Method and system of providing virtual environment during movement and related non-transitory computer-readable storage medium
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355624A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 撮影装置
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
EP1584067A2 (de) * 2003-01-16 2005-10-12 D-blur Technologies LTD. C/o Yossi Haimov CPA Kamera mit funktionen zur bildverbesserung
JP4725453B2 (ja) * 2006-08-04 2011-07-13 株式会社ニコン デジタルカメラ及び画像処理プログラム
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP4492724B2 (ja) * 2008-03-25 2010-06-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
US8570429B2 (en) * 2009-02-27 2013-10-29 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP2011073256A (ja) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd カード
US8090251B2 (en) * 2009-10-13 2012-01-03 James Cameron Frame linked 2D/3D camera system
US9369685B2 (en) * 2010-02-26 2016-06-14 Blackberry Limited Mobile electronic device having camera with improved auto white balance
JP2013030895A (ja) * 2011-07-27 2013-02-07 Sony Corp 信号処理装置、撮像装置、信号処理方法およびプログラム
CN101840068B (zh) * 2010-05-18 2012-01-11 深圳典邦科技有限公司 一种头佩式光学电子自动对焦助视器
JP2011257303A (ja) * 2010-06-10 2011-12-22 Olympus Corp 画像取得装置、欠陥修正装置および画像取得方法
KR101051509B1 (ko) * 2010-06-28 2011-07-22 삼성전기주식회사 카메라의 광량 제어 장치 및 방법
JP5183715B2 (ja) * 2010-11-04 2013-04-17 キヤノン株式会社 画像処理装置及び画像処理方法
JP5306544B2 (ja) * 2010-11-05 2013-10-02 富士フイルム株式会社 画像処理装置、画像処理プログラム、画像処理方法、及び記憶媒体
JP5614268B2 (ja) * 2010-12-09 2014-10-29 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2012253713A (ja) * 2011-06-07 2012-12-20 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム
JP5760727B2 (ja) * 2011-06-14 2015-08-12 リコーイメージング株式会社 画像処理装置および画像処理方法
JP5932666B2 (ja) * 2011-07-19 2016-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像符号化装置とその集積回路、および画像符号化方法
JP5821457B2 (ja) * 2011-09-20 2015-11-24 ソニー株式会社 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
CN103176684B (zh) * 2011-12-22 2016-09-07 中兴通讯股份有限公司 一种多区域切换界面的方法及装置
US8941750B2 (en) * 2011-12-27 2015-01-27 Casio Computer Co., Ltd. Image processing device for generating reconstruction image, image generating method, and storage medium
US9185387B2 (en) * 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US10659763B2 (en) * 2012-10-09 2020-05-19 Cameron Pace Group Llc Stereo camera system with wide and narrow interocular distance cameras
JP6218377B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法
US9025874B2 (en) * 2013-02-19 2015-05-05 Blackberry Limited Method and system for generating shallow depth of field effect
US9363499B2 (en) * 2013-11-15 2016-06-07 Htc Corporation Method, electronic device and medium for adjusting depth values

Also Published As

Publication number Publication date
CN104580878B (zh) 2018-06-26
CN104580878A (zh) 2015-04-29
TW201517620A (zh) 2015-05-01
US20150116529A1 (en) 2015-04-30
TWI549503B (zh) 2016-09-11

Similar Documents

Publication Publication Date Title
DE102014010152A1 (de) Automatikeffektverfahren für Fotografie und elektronische Vorrichtung
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE602005003917T2 (de) Verfahren und Vorrichtung zur Erzeugung von Bildern mit hoher Dynamik aus mehreren Belichtungen
DE102013017122B4 (de) Verfahren zum Herstellen automatischer Cinemagramme auf einer Bildgebungsvorrichtung
DE60218317T2 (de) Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE102013226164B4 (de) Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren, Programm und Speichermedium
DE202014010969U1 (de) Kamerafähiges Mobilgerät
DE112016002229B4 (de) Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium
DE112008002819T5 (de) Autofokus-Bildsystem
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE102017126269B4 (de) Vorrichtung und Verfahren zur hinterleuchteten Gesichtserkennung
EP2030433B1 (de) Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE202013012272U1 (de) Einrichtung zur Steuerung einer Kamera
DE102015102681B4 (de) All-in-focus-implementierung
DE112012000950T5 (de) Ermitteln des Abstands zwischen verschiedenen Punkten an einem abgebildeten Gegenstand
DE102016120954A1 (de) Abbildungseinrichtung und Abbildungsverfahren
DE112006000358T5 (de) Verfahren und Vorrichtung zur Erstellung eines Panoramabildes
DE102009035927A1 (de) Verfahren zur Simulation der Belichtungskorrektur dunkler Bereiche mit einem Einzelbild und ein entsprechendes Bildverarbeitungsgerät
DE112006000534T5 (de) Positionieren eines Aufnahmegegenstandes bezüglich einer Hintergrundszene in einer Digitalkamera
DE102015102772A1 (de) Bildverarbeitungsvorrichtung und Verfahren für deren Steuerung
DE102013201980B4 (de) Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät
DE102012100081A1 (de) Digitale Fotografiervorrichtung und Steuerverfahren dafür
DE102014104070A1 (de) Panoramafotografierverfahren, Panoramaanzeigeverfahren und Bilderfassungsverfahren
DE102014211039A1 (de) Bildgebungsgerät, Bildverarbeitungsgerät und zugehöriges Steuerungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000