DE102014010152A1 - Automatikeffektverfahren für Fotografie und elektronische Vorrichtung - Google Patents
Automatikeffektverfahren für Fotografie und elektronische Vorrichtung Download PDFInfo
- Publication number
- DE102014010152A1 DE102014010152A1 DE201410010152 DE102014010152A DE102014010152A1 DE 102014010152 A1 DE102014010152 A1 DE 102014010152A1 DE 201410010152 DE201410010152 DE 201410010152 DE 102014010152 A DE102014010152 A DE 102014010152A DE 102014010152 A1 DE102014010152 A1 DE 102014010152A1
- Authority
- DE
- Germany
- Prior art keywords
- effect
- image data
- photographic
- electronic device
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Abstract
Eine elektronische Vorrichtung weist einen Kamerasatz, ein Eingangsquellenmodul, ein Automatikeinrichtungsmodul und ein Nachbearbeitungsmodul auf. Der Kamerasatz ist so konfiguriert, dass er Bilddaten in Bezug auf eine Szene erfasst. Das Eingangsquellenmodul ist so konfiguriert, dass es Information zugehörig zu den Bilddaten sammelt. Das Automatikeinrichtungsmodul ist so konfiguriert, dass es zumindest einen geeigneten, fotografischen Effekt aus einer Vielzahl von in Frage kommenden, fotografischen Effekten gemäß den Informationen zugehörig zu den Bilddaten bestimmt. Das Nachbearbeitungsmodul ist so konfiguriert, dass es die Bilddaten verarbeitet und den geeigneten fotografischen Effekt auf die Bilddaten anwendet, nachdem die Bilddaten erfasst wurden.
Description
- Gebiet der Erfindung
- Die Erfindung bezieht sich auf ein fotografisches Verfahren und eine fotografische Vorrichtung. Insbesondere bezieht sich die Erfindung auf ein Verfahren zur Bestimmung eines geeigneten fotografischen Effekts und eine Vorrichtung dafür.
- Hintergrund
- Die Photographie war einmal ein Beruf, da sie viele Kenntnisse erfordert, um geeignete Konfigurationen (z. B. Steuerung einer Belichtungszeit, eines Weißabgleichs, einer Brennweite) zum Schießen von Fotos in geeigneter Weise zu bestimmen. Da die Komplexität manueller Konfigurationen der Photographie zugenommen hat, haben die erforderlichen Betriebe und das Hintergrundwissen der Nutzer zugenommen.
- Die meisten Digitalkameras (oder eine mobile Vorrichtung mit einem Kameramodul) besitzen eine Vielzahl von fotografischen Modi, z. B. Smart-Capture, Portrait, Sport, Dynamisch, Landschaft, Nahaufnahme, Sonnenuntergang, Hintergrundlicht, Kinder, Hell, Selbstportrait, Nachtportrait, Nachtlandschaft, Hoch-ISO und Panorama, die durch den Nutzer ausgewählt werden können, um die Digitalkameras in einen geeigneten Status vorab vor der Bilderfassung zu setzen.
- Bei der Digitalkamera kann der fotografische Modus aus einem Betriebsmenü ausgewählt werden, das auf der Digitalkamera angezeigt wird oder durch Betätigen von Funktionstasten, die auf der Digitalkamera ausgeführt sind.
- ZUSAMMENFASSUNG
- Ein Aspekt der Offenbarung ist es, eine elektronische Vorrichtung vorzusehen. Die elektronische Vorrichtung weist einen Kamerasatz, ein Eingangsquellenmodul und ein Automatikeinrichtungsmodul auf. Der Kamerasatz ist so konfiguriert, dass er Bilddaten erfasst. Das Eingangsquellenmodul ist so konfiguriert, dass es Informationen zugehörig zu den Bilddaten sammelt. Das Automatikeinrichtungsmodul ist so konfiguriert, dass es zumindest einen geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information bestimmt, die sich auf die Bilddaten bezieht. Die Information weist eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten auf.
- Ein weiterer Aspekt der Offenbarung ist es, ein Verfahren vorzusehen, das für eine elektronische Vorrichtung mit einem Kamerasatz geeignet ist. Das Verfahren weist die folgenden Schritte auf: Erfassen von Bilddaten durch den Kamerasatz; Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist; und Bestimmen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information, die sich auf die Bilddaten bezieht.
- Ein weiterer Aspekt der Offenbarung ist es, ein nicht-flüchtiges, computerlesbares Speichermedium mit einem Computerprogramm vorzusehen, um ein Automatikeffektverfahren auszuführen. Das Automatikeffektverfahren weist die folgenden Schritte auf: ansprechend auf die erfassten Bilddaten, Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist; und Bestimmen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Aspekte der vorliegenden Offenbarung können am Besten aus der folgenden detaillierten Beschreibung verstanden werden, wenn diese mit den begleitenden Zeichnungen gelesen wird. Es sei bemerkt, dass gemäß der Standardpraxis in der Industrie verschiedene Merkmale bzw. Ausführungsformen nicht maßstabsgetreu gezeichnet sind. In der Tat sind die Abmessungen verschiedener Merkmale der Klarheit der Erläuterung halber beliebig vergrößert oder verkleinert.
-
1 ist ein schematisches Schaubild, das eine elektronische Vorrichtung gemäß einem Ausführungsbeispiel dieser Offenbarung darstellt; -
2 ist ein Flussdiagramm, das ein Automatikeffektverfahren darstellt, das durch die elektronische Vorrichtung in einem veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird; -
3 ist ein Flussdiagramm, das ein Automatikeffektverfahren darstellt, das durch die elektronische Vorrichtung in einem weiteren, veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird; -
4A ,4B ,4C und4D sind Beispiele von Tiefenhistogrammen zugehörig zu unterschiedlichen Tiefenverteilungen. -
5 zeigt ein Verfahren zum Vorsehen einer Benutzerschnittstelle gemäß einem Ausführungsbeispiel der Offenbarung. - DETAILLIERTE BESCHREIBUNG
- Die folgende Offenbarung sieht viele unterschiedliche Ausführungsbeispiele oder Beispiele zur Implementierung unterschiedlicher Merkmale der Erfindung vor. Spezifische Beispiele der Komponenten und Anordnungen sind nachfolgend beschrieben, um die vorliegende Offenbarung zu vereinfachen. Diese sind natürlich nur Beispiele und sind nicht in einschränkender Weise gedacht. Zusätzlich kann die vorliegende Offenbarung die Bezugszeichen und/oder Buchstaben in den verschiedenen Beispielen wiederholen. Diese Wiederholung dient den Zwecken der Einfachheit und Klarheit und gibt für sich genommen nicht eine Beziehung zwischen den verschiedenen diskutierten Ausführungsbeispielen und/oder Konfigurationen vor.
- Ein Ausführungsbeispiel der Offenbarung ist es, ein Verfahren zur automatischen Bestimmung entsprechender fotografischer Effekte (z. B. einen optikartigen Effekt zur Veränderung der Blende, des Fokus und der Feldtiefe der Bilddaten durch Software-Simulation) basierend auf verschiedenen Informationen, wie beispielsweise der Fokussierungsentfernung (erfasst aus einer Position eines Schwingspulenmotors), RGB-Histogramme, einem Tiefenhistogramm und einer Bilddisparität, einzuführen. Infolgedessen kann ein Nutzer im Allgemeinen Fotos erfassen, ohne manuell die Effekte anzuwenden, und geeignete fotografische Effekte/Konfigurationen können automatisch detektiert werden und können während einer Nachbereitung (z. B. wenn der Nutzer die Fotos betrachtet) in einigen Ausführungsbeispielen angewendet werden. Die Details der Betriebe sind in den folgenden Abschnitten offenbart.
- Es wird auf
1 Bezug genommen, die ein schematisches Schaubild ist, das eine elektronische Vorrichtung100 gemäß einem Ausführungsbeispiel dieser Offenbarung darstellt. Die elektronische Vorrichtung100 weist einen Kamerasatz120 , ein Eingangsquellenmodul140 und ein Automatikeinrichtungsmodul160 auf. In dem Ausführungsbeispiel, das in1 gezeigt ist, weist die elektronische Vorrichtung100 ferner ein Nachbereitungsmodul180 und ein Vorverarbeitungsmodul150 auf. Das Vorverarbeitungsmodul150 ist mit dem Eingangsquellenmodul140 und dem Automatikeinrichtungsmodul160 gekoppelt. - Der Kamerasatz
120 weist ein Kameramodul122 und ein Fokussierungsmodul124 auf. Das Kameramodul122 ist so konfiguriert, dass es die Bilddaten erfasst. In der Praxis kann das Kameramodul122 eine einzelne Kameraeinheit, ein Paar von Kameraeinheiten (z. B. eine Implementierung von zwei bzw. Dualkameras) oder mehrere Kameraeinheiten (eine Implementierung mehrerer Kameras) sein. Als Ausführungsbeispiel, das in1 gezeigt ist, weist das Kameramodul122 zwei Kameraeinheiten122a und122b auf. Das Kameramodul122 ist so konfiguriert, dass es Bilddaten in Bezug auf eine Szene erfasst. Die Bilddaten können verarbeitet und als (ein) Foto(s) in der elektronischen Vorrichtung gespeichert werden. Als Ausführungsbeispiel der vorliegenden Erfindung werden zwei Bilddaten einzeln durch zwei Kameraeinheiten122a und122b erfasst, und die zwei Bilddaten können verarbeitet und als zwei Fotos in der elektronischen Vorrichtung100 gespeichert werden. - Das Fokussierungsmodul
124 ist so konfiguriert, dass es die Fokussierungsentfernung regelt, die durch das Kameramodul122 geregelt wird. Als Ausführungsbeispiel, das in1 gezeigt ist, weist das Fokussierungsmodul124 eine erste Fokussierung124a und eine zweite Fokussierung124b zugehörig zu den Kameraeinheiten122a bzw.122b auf. Beispielsweise regelt die erste Fokussierung124a eine erste Fokussierungsentfernung der Kameraeinheit122a und die zweite Fokussierung124b regelt eine zweite Fokussierungsentfernung der Kameraeinheit122b . - Die Fokussierungsentfernung ist eine spezifische Entfernung zwischen einem Zielobjekt der Szene und dem Kameramodul
122 . In einem Ausführungsbeispiel weist sowohl die erste Fokussierung124a als auch die zweite Fokussierung124b einen Schwingspulenmotor bzw. VCM (VCM = Voice Coil Motor) zur Regelung einer Brennweite der Kameraeinheit122a /122b in Übereinstimmung mit der Fokussierungsentfernung auf. In einigen Ausführungsbeispielen bezeichnet die Brennweite eine Entfernung zwischen den Linsen und einer Abtastanordnung (z. B. einer CCD/CMOS-Optiksensoranordnung) innerhalb der Kameraeinheit122a /122b des Kameramoduls122 . - In einigen Ausführungsbeispielen werden die erste Fokussierungsentfernung und die zweite Fokussierungsentfernung separat geregelt, so dass die Kameraeinheiten
122a und122b imstande sind, auf unterschiedliche Zielobjekte (z. B. eine Person im Vordergrund und ein Gebäude im Hintergrund) gleichzeitig innerhalb der Zielszene zu fokussieren. - In anderen Ausführungsbeispielen sind die erste Fokussierungsentfernung und die zweite Fokussierungsentfernung synchronisiert, so dass sie gleich sind, so dass die zwei Bilddaten, die von den Kameraeinheiten
122a und122b ausgegeben werden, das gleiche Ziel zeigen, das von leicht unterschiedlichen Betrachtungswinkeln betrachtet wird, und die in diesem Fall erfassten Bilddaten sind nutzbar, um die Tiefeninformation zu ermitteln oder 3D-Effekte zu simulieren. - Das Eingangsquellenmodul
140 ist so konfiguriert, dass es Informationen zugehörig zu den Bilddaten sammelt. In dem Ausführungsbeispiel weisen die Informationen zugehörig zu den Bilddaten die Fokussierungsentfernung(en) auf. Das Eingangsquellenmodul140 erfasst die Fokussierungsentfernung(en) von dem Fokussierungsmodul124 (z. B. gemäß einer Position des Schwingspulenmotors). - In dem in
1 gezeigten Ausführungsbeispiel weist die elektronische Vorrichtung100 ferner ein Tiefenverarbeitungsmodul190 auf, die so konfiguriert ist, dass sie eine Tiefenverteilung der Bilddaten relativ zu der Szene analysiert. In dem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung könnte die Tiefeninformation durch die Analyse der Ergebnisse der Bilder einer einzelnen Kamera, von Dualkameras, mehreren Kameras oder einer einzelnen Kamera mit einem Entfernungsdetektionssensor, wie beispielsweise Lasersensoren, Infrarot- bzw. IR-Sensoren oder Lichtmustersensoren erhalten werden, ist jedoch nicht hierauf beschränkt. Die Tiefenverteilung kann beispielsweise durch ein Tiefenhistogramm oder eine Tiefenkarte repräsentiert werden. In dem Tiefenhistogramm werden die Pixel innerhalb der Bilddaten durch deren Tiefenwerte klassifiziert, so dass verschiedene Objekte (in der Szene der erfassten Bilddaten), die sich in unterschiedlichen Entfernungen zu der elektronischen Vorrichtung100 befinden, durch das Tiefenhistogramm unterschieden werden können. Zusätzlich kann die Tiefenverteilung genutzt werden, um den Hauptgegenstand, Kanten der Objekte, räumliche Beziehungen zwischen den Objekten, dem Vordergrund und dem Hintergrund in der Szene zu analysieren. - In einigen Ausführungsbeispielen weist die Information zugehörig zu den Bilddaten, die durch das Eingangsquellenmodul
140 gesammelt werden, ferner die Tiefenverteilung von der Tiefenverarbeitungsmodul190 und zuvor erwähnte relative Analyseergebnisse (z. B. den Hauptgegenstand, die Kanten der Objekte, die räumlichen Beziehungen zwischen den Objekten, den Vordergrund und den Hintergrund in der Szene) aus der Tiefenverteilung auf. - In einigen Ausführungsbeispielen weist die Information, die durch das Eingangsquellenmodul
140 gesammelt wird, ferner Sensorinformationen des Kamerasatzes120 , Bildeigenschaftsinformationen der Bilddaten, Systeminformationen der elektronischen Vorrichtung100 und andere verwandte Informationen auf. - Die Sensorinformation weist Kamerakonfigurationen des Kameramoduls
122 (z. B. wird das Kameramodul122 durch einzelne, duale oder mehrere Kameraeinheiten gebildet), Autofokus- bzw. AF-Einstellungen (AF = Automatic Focus), automatische Belichtungs- bzw. AE-Einstellungen (AE = Automatic Exposure) und automatische Weißabgleich- bzw. AWB-Einstellungen (AWB = Automatic White-Balance) auf. - Die Bildeigenschaftsinformation der Bilddaten weist Analyseergebnisse von den Bilddaten (z. B. Szenendetektionsausgaben, Gesichtsanzahldetektionsausgaben und andere Detektionsausgaben, die ein Portrait, eine Gruppe oder die Position von Personen anzeigen) und Daten im austauschbaren Bilddateiformat bzw. EXIF-Daten (EXIF = Exchangeable Image File Format) auf, die zu den erfassten Bilddaten gehören.
- Die Systeminformation weist einen Positionierungsort (z. B. GPS-Koordinaten) und eine Systemzeit der elektronischen Vorrichtung auf.
- Die zuvor erwähnte, andere verwandte Information können Histogramme in Roten, Grünen und Blauen Farben bzw. RGB-Histogramme, ein Helligkeitshistogramm um den Lichtstatus der Szene anzuzeigen (geringeres Licht, Blitzlicht), einen Status des Hintergrundbeleuchtungsmoduls, eine Überbelichtungsmitteilung, eine Variation der Rahmenintervalle und/oder eine Globalverschiebung des Kameramoduls
122 sein. In einigen Ausführungsbeispielen kann die zuvor erwähnte, verwandte Information die Ausgaben von einem Bildsignalprozessor bzw. ISP (ISP = Image Signal Processor) der elektronischen Vorrichtung100 sein, die nicht in1 gezeigt ist. - Die zuvor erwähnte Information zugehörig zu den Bilddaten (die die Fokussierungsentfernung, die Tiefenverteilung, die Sensorinformation, die Systeminformation und/oder andere zugehörige Information umfasst) kann durch das Eingangsquellenmodul
140 gesammelt und gemeinsam mit den Bilddaten in der elektronischen Vorrichtung100 gespeichert werden. - Es sei bemerkt, dass die gesammelte und gespeicherte Information in dem Ausführungsbeispiel nicht darauf beschränkt ist, die Parameter/Konfigurationen des Kamerasatzes
120 direkt zu beeinflussen. Andererseits kann die gesammelte und gespeicherte Information genutzt werden, um einen oder mehrere geeignetenfotografischen Effekte, die geeignet oder optimal für die zugehörigen Bilddaten sind, aus einer Vielzahl von in Frage kommenden fotografischen Effekten durch das Automatikeinrichtungsmodul160 zu bestimmen, nachdem die Bilddaten erfasst wurden. - Das Automatikeinrichtungsmodul
160 ist so konfiguriert, dass es zumindest einen geeigneten fotografischen Effekt aus den in Frage kommenden fotografischen Effekten bestimmt und empfiehlt, und zwar gemäß der Information, die durch das Eingangsquellenmodul140 gesammelt wird und verwandt mit den Bilddaten ist. In einigen Ausführungsbeispielen weisen die in Frage kommenden fotografischen Effekte zumindest einen Effekt auf, der aus der Gruppe ausgewählt wird, die einen Bokeh-Effekt, einen Refocus-Effekt, einen Makro-Effekt, einen Pseudo-3D-Effekt, einen 3D-artigen Effekt, einen 3D-Effekt und einen Flugansichts- bzw. Flyview-Animationseffekt aufweist. - Das Vorverarbeitungsmodul
150 ist so konfiguriert, dass es bestimmt, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden fotografischen Effekte gemäß der Bildeigenschaftsinformation anzuwenden oder nicht, und zwar bevor das Automatikeinrichtungsmodul160 aktiviert ist, um den geeigneten fotografischen Effekt zu bestimmen und zu empfehlen. Wenn das Vorverarbeitungsmodul150 detektiert, dass die erfassten Bilddaten ungültig sind, um irgendeinen in Frage kommenden fotografischen Effekt anzuwenden, werden weitere Berechnungen des Automatikeinrichtungsmoduls160 eingestellt, um zwecklose Berechnungen des Automatikeinrichtungsmoduls160 zu verhindern. - Beispielsweise bestimmt das Vorverarbeitungsmodul
150 in dem Ausführungsbeispiel, ob die Bilddaten die fotografischen Effekte gemäß den EXIF-Daten anwende können. In einigen praktischen Anwendungen weisen die EXIF-Daten Dualbildinformationen zugehörig zu einem Paar von Fotos der Bilddaten (von den zwei Kameraeinheiten), Zeitstempel zugehörig zu dem Paar von Fotos, und Fokussierungsenffernungen des Paars von Fotos auf. - Die Dualbildinformation zeigt an, ob das Paar von Fotos durch die Dualkameraeinheiten (z. B. zwei Kameraeinheiten in Dual-Kamera-Konfiguration) erfasst wurden. Die Dualbildinformation wird gültig sein, wenn das Paar der Fotos durch die Dualkameraeinheiten erfasst wurden. Die Dualbildinformation wird ungültig sein, wenn das Paar von Fotos durch eine einzelne Kamera erfasst wurde oder durch unterschiedliche Kameras, die nicht in der Dual-Kamera-Konfiguration konfiguriert sind.
- In einem Ausführungsbeispiel, wenn eine Zeitdifferenz zwischen zwei Zeitstempeln der Dualfotos zu groß ist (beispielsweise größer als 100 ms), ist das Paar von Fotos nicht geeignet, um den fotografischen Effekt anzuwenden, der für Dualkameraeinheiten ausgelegt ist.
- In einem weiteren Ausführungsbeispiel, wenn keine gültigen Fokussierungsdistanzen in den EXIF-Daten gefunden werden, deutet dies darauf hin, dass das Paar von Fotos fehlschlägt, auf einem spezifischen Ziel zu fokussieren, so dass das Paar von Fotos nicht geeignet ist, um den fotografischen Effekt anzuwenden, der für Dualkameraeinheiten ausgelegt ist.
- In einem weiteren Ausführungsbeispiel, wenn es kein gültiges Paar von Fotos gibt (nicht irgendwelche zwei verwandten Fotos gefunden werden können, die durch Dualkameraeinheiten erfasst wurden), deutet dies darauf hin, dass das Vorverarbeitungsmodul
150 nicht imstande ist, irgendwelche zwei verwandten Fotos in den EXIF-Daten zu finden, die durch Dualkameraeinheiten erfasst wurden, so dass die Bilddaten nicht geeignet sind, um den fotografischen Effekt anzuwenden, der für Dualkameraeinheiten ausgelegt ist. - Das Nachbereitungsmodul
180 ist so konfiguriert, dass es die Bilddaten verarbeitet und den geeigneten fotografischen Effekt auf die Bilddaten anwendet, nachdem die Bilddaten erfasst wurden. Beispielsweise wenn der Nutzer Bilder/Fotos betrachtet, die in einem digitalen Album der elektronischen Vorrichtung100 vorliegen, kann das Automatikeinrichtungsmodul160 eine Liste von geeigneten fotografischen Effekten für jedes Bild/Foto in dem digitalen Album empfehlen. Die geeigneten fotografischen Effekte können in einer Benutzerschnittstelle (nicht in den Figuren gezeigt) angezeigt, hervorgehoben oder vergrößert sein, die auf der elektronischen Vorrichtung100 angezeigt wird. Oder in einem anderen Fall können fotografische Effekte, die nicht für ein spezifisches Bild/Foto geeignet sind, aus einer Liste von fotografischen Effekten ausgeblendet oder verborgen werden. Die Nutzer können zumindest einen Effekt aus der empfohlenen Liste auswählen, die in der Benutzerschnittstelle gezeigt ist. Demgemäß kann das Nachbearbeitungsmodul180 einen der geeigneten fotografischen Effekte auf die bestehenden Bilddaten anwenden und dann in der Benutzerschnittstelle anzeigen, ob der Nutzer irgendeinen der empfohlenen Effekte aus der empfohlenen Liste (einschließlich aller geeigneten fotografischen Effekte) auswählt. - Bevor überhaupt irgendeiner der empfohlenen Effekte durch den Nutzer ausgewählt wird, können in einem Ausführungsbeispiel Bilder/Fotos, die in dem digitalen Album der elektronischen Vorrichtung
100 gezeigt sind, automatisch einen voreingestellten fotografischen Effekt (z. B. einen Zufallseffekt aus den geeigneten fotografischen Effekten, oder einen spezifischen Effekt aus den geeigneten fotografischen Effekten) anwenden. In einem anderen Ausführungsbeispiel kann, nachdem einer der empfohlenen Effekte durch den Nutzer ausgewählt wurde, ein Effekt, der von dem Nutzer ausgewählt wurde, automatisch auf die Bilder/Fotos angewendet werden, die in dem digitalen Album angezeigt werden. Wenn der Nutzer einen anderen Effekt aus der Empfehlungsliste neu auswählt, wird der letzte Effekt, der durch den Nutzer ausgewählt wurde, auf die Bilder/Fotos angewendet. - Der Bokeh-Effekt dient dazu, einen verschwommenen Bereich innerhalb der ursprünglichen Bilddaten zu erzeugen, um zu simulieren, dass sich der verschwommene Bereich außerhalb des Fokus während der Bilderfassung befindet. Der Neufokussierungs- bzw. Refocus-Effekt dient dazu, eine Fokussierungsentfernung oder ein im Fokus befindliches innerhalb der Originalbilddatenneu zuzuweisen, um die Bilddaten unter einer anderen Fokussierungsentfernung zu simulieren. Beispielsweise sieht ein Bild/Foto auf das der Refocus-Effekt angewendet wird, die Fähigkeit für den Nutzer vor, den Fokussierungspunkt z. B. durch Berühren/Hindeuten auf dem Touchscreen der elektronischen Vorrichtung
100 auf ein spezifisches Objekt in der Szene neu zuzuweisen. Der Pseude-3D oder 3D-artige Effekt (ebenfalls als 2,5D-Effekt bekannt), dient dazu, eine Serie von Bildern (oder Szenen) zu erzeugen, um das Vorhandensein der Existenz von 3D-Aufnahmen durch 2D-Graphikprojektionen und ähnliche Techniken zu simulieren. Der Makro-Effekt dient dazu, 3D-Gitter auf einem spezifischen Objekt in den Originalbilddaten in der Szene zu erzeugen, um das Erfassen von Bildern durch 3D-Betrachtung aus unterschiedlichen Winkeln zu simulieren. Der Flugansichts- bzw. Flyview-Animationseffekt dient dazu, ein Objekt und einen Hintergrund in der Szene zu separieren und eine Simulationsanimation zu erzeugen, in der das Objekt aus unterschiedlichen Betrachtungswinkeln entlang eines Bewegungsmusters betrachtet wird. Da es einen breiten Stand der Technik gibt, der diskutiert, wie die zuvor erwähnten Effekte erzeugt werden, werden die technischen Details der Erzeugung der zuvor erwähnten Effekte hier weggelassen. - Es gibt einige veranschaulichende Beispiele, die in den nachfolgenden Abschnitten vorgestellt werden, um zu demonstrieren, wie das Automatikeinrichtungsmodul
160 den geeigneten fotografischen Effekt aus den in Frage kommenden fotografischen Effekten bestimmt und empfiehlt. - Es sei auf
2 Bezug genommen, die ein Flussdiagramm ist, das ein Automatikeffektverfahren200 darstellt, das durch die elektronische Vorrichtung100 in einem veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird. - Wie in
1 und2 gezeigt, wird der Vorgang S200 ausgeführt, um Bilddaten durch den Kamerasatz120 zu erfassen. Der Vorgang S202 wird ausgeführt, um Informationen zugehörig zu den Bilddaten zu sammeln. In diesem Fall weisen die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten auf. Der Vorgang S204 wird ausgeführt, um die Fokussierungsentfernung mit einer vordefinierten Referenz zu vergleichen. - In diesem Ausführungsbeispiel werden einige der in Frage kommenden fotografischen Effekte als mögliche Kandidaten betrachtet, wenn die Fokussierungsentfernung geringer als die vordefinierte Referenz ist. Beispielsweise sind der Makro-Effekt, der Pseudo-3D-Effekt, der 3D-artige Effekt, der 3D-Effekt und der Flyview-Animationseffekt aus den in Frage kommenden fotografischen Effekten mögliche Kandidaten, wenn die Fokussierungsentfernung kürzer als die vordefinierte Referenz ist, da der Gegenstand bzw. das Subjekt innerhalb der Szene groß und lebendig genug für die zuvor erwähnten Effekte sein wird, wenn die Fokussierungsentfernung gering ist. In diesem Ausführungsbeispiel bilden der Makro-Effekt, der Pseudo-3D-Effekt, der 3D-artige Effekt, der 3D-Effekt und der Flyview-Animationseffekt eine erste Untergruppe innerhalb sämtlicher in Frage kommender fotografischer Effekte. Der Vorgang S206 wird ausgeführt, um einen geeigneten aus der ersten Untergruppe von in Frage kommenden fotografischen Effekten als geeigneten fotografischen Effekt auszuwählen.
- In diesem Ausführungsbeispiel werden einige der in Frage kommenden fotografischen Effekte als mögliche Kandidaten betrachtet, wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist. Beispielsweise sind der Bokeh-Effekt und der Refocus-Effekt aus den in Frage kommenden fotografischen Effekten mögliche Kandidaten, wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist, da die Objekte in dem Vordergrund und andere Objekte im Hintergrund einfach zu trennen sind, wenn die Fokussierungsentfernung groß ist, so dass die Bilddaten in diesem Fall gut für die zuvor erwähnten Effekte sind. In diesem Ausführungsbeispiel bilden der Bokeh-Effekt und der Refocus-Effekt eine zweite Untergruppe innerhalb sämtlicher in Frage kommender fotografischer Effekte. Der Vorgang S208 wird ausgeführt, um einen geeigneten aus der zweiten Untergruppe von in Frage kommenden fotografischen Effekten als geeigneten fotografischen Effekt auszuwählen.
- Bezug sei auf
3 genommen, die ein Flussdiagramm eines Automatikeffektverfahrens300 darstellt, das durch die elektronische Vorrichtung100 in einem anderen veranschaulichenden Beispiel gemäß einem Ausführungsbeispiel genutzt wird. In dem in3 gezeigten Ausführungsbeispiel bestimmt das Automatikeinrichtungsmodul160 den geeigneten fotografischen Effekt oder einen Parameter davon gemäß einer Tiefenverteilung zusätzlich zu der Fokussierungsentfernung und der Information zugehörig zu den Bilddaten und empfiehlt diesen. Beispielsweise weist der Parameter einen Schärfepegel oder einen Kontraststärkepegel auf (der auf den Bokeh-Effekt und den Refocus-Effekt angewendet wird). - Bezug wird ebenfalls auf
4A ,4B ,4C und4D genommen, die Beispiele von Tiefenhistogrammen zugehörig zu unterschiedlichen Tiefenverteilungen sind.4A zeigt ein Tiefenhistogramm DH1, welches anzeigt, dass es zumindest zwei Hauptobjekte in den Bilddaten gibt. Zumindest eines von diesen ist im Vordergrund gelegen, und zumindest das andere ist im Hintergrund gelegen.4B zeigt ein anderes Tiefenhistogramm DH2, welches anzeigt, dass es mehrere Objekte gibt, die gleichmäßig über unterschiedliche Entfernungen von der elektronischen Vorrichtung100 verteilt sind.4C zeigt ein weiteres Tiefenhistogramm DH3, welches anzeigt, dass es Objekte gibt, die an dem entfernten Ende der elektronischen Vorrichtung100 erfasst werden.4D zeigt ein weiteres Tiefenhistogramm DH4, welches anzeigt, dass es Objekte gibt, die an dem nahen Ende benachbart zu der elektronischen Vorrichtung100 erfasst werden. - In
3 sind die Vorgänge S300, S302 und S304 die gleichen wie die Vorgänge S200, S202 bzw. S204. Wenn die Fokussierungsentfernung kleiner als die vordefinierte Referenz ist, wird ferner der Vorgang S306 ausgeführt, um das Tiefenhistogramm DH der Bilddaten zu bestimmen. Wenn das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH4 ist, das in4D gezeigt ist, wird der Vorgang S310 ausgeführt, um den Flyview-Animationseffekt, den Pseude-3D oder den 3D-artigen Effekt als geeigneten fotografischen Effekt auszuwählen, da das Hauptobjekt der Bilddaten sich offensichtlich in dieser Situation befindet. - Wenn die Fokussierungsentfernung kleiner als die vordefinierte Referenz ist und das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH2 ist, das in
4B gezeigt ist, wird der Vorgang S312 ausgeführt, um den Makro-Effekt, den Pseudo-3D-Effekt oder den 3D-artigen Effekt als geeigneten fotografischen Effekt auszuwählen, da es viele Objekte in den Bilddaten gibt. - Wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist, wird ferner der Vorgang S308 ausgeführt, um das Tiefenhistogramm DH der Bilddaten zu bestimmen. Wenn das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH1 ist, das in
4A gezeigt ist, wird der Vorgang S314 ausgeführt, um den Bokeh-Effekt und den Refocus-Effekt bei einem scharfen Pegel auszuwählen und anzuwenden, was einen hohen Kontraststärkenpegel des Bokeh-Effekts bewirkt, da zwei Hauptobjekte im Vordergrund und im Hintergrund der Bilddaten gelegen sind. - Wenn die Fokussierungsentfernung größer als die vordefinierte Referenz ist und das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH2 ist, das in
4B gezeigt ist, wird der Vorgang S316 ausgeführt, um den Bokeh-Effekt und den Refocus-Effekt bei einem geglätteten Pegel auszuwählen und anzuwenden, was einen niedrigen Kontraststärkenpegel des Bokeh-Effekts bewirkt, da es mehrere Objekte gibt, die sich bei unterschiedlichen Entfernungen in den Bilddaten befinden. - Wenn die Fokussierungsentfernung länger als die vordefinierte Referenz ist und das Tiefenhistogramm DH der Bilddaten ähnlich dem Tiefenhistogramm DH3 ist, das in
4C gezeigt ist, ist der Bokeh-Effekt hier nicht geeignet, da die Objekte alle bei dem entfernten Ende der Bilddaten gelegen sind. - Es sei bemerkt, dass veranschaulichende Beispiele, die in
2 und3 gezeigt sind, zur Verdeutlichung verwendet werden, und das Automatikeinrichtungsmodul160 nicht darauf beschränkt ist, den geeigneten fotografischen Effekt gemäß2 oder3 auszuwählen. Das Automatikeinrichtungsmodul160 kann den geeigneten fotografischen Effekt gemäß sämtlicher Informationen bestimmen, die durch das Eingangsquellenmodul140 gesammelt werden. - Die Tiefenverteilung kann genutzt werden, um Objektpositionen, Entfernungen, Bereiche und räumliche Beziehungen zu kennen. Basierend auf der Tiefenverteilung ist es einfach den Hauptgegenstand bzw. das Subjekt der Bilddaten gemäß der Tiefengrenzen herauszufinden. Die Tiefenverteilung offenbart ebenfalls die Inhalte/Zusammensetzungen der Bilddaten. Die Fokussierungsentfernung von dem Schwingspulenmotor bzw. VCM (VCM = Voice Coil Motor) und andere Beziehungsinformationen (z. B. von dem Bildsignalprozessor bzw. ISP (ISP = Image Signal Processor)) offenbaren die Umgebungsbedingungen. Die Systeminformation offenbart die Zeit, die Position, Innenraum/Außengelände der Bilddaten. Beispielsweise kann die Systeminformation von einem GPS (GPS = Global Positioning System) der elektronischen Vorrichtung
100 anzeigen, dass die Bilddaten aus geschlossenen Räumen oder im Außengelände oder nahe eines bekannten Ortes gemacht wurden. Die GPS-Koordinaten können gemäß der Position der Bilder, die in geschlossenen Räumen oder im Außengelände aufgenommen sind, darauf hindeuten, was für ein Objekt der Nutzer im Bild betonen möchte. Die Systeminformation von einem Gravitätssensor, einem Gyrosensor oder einem Bewegungssensor der elektronischen Vorrichtung100 können eine Bildaufnahmehaltung, einen Aufnahmewinkel oder einen Stabilitätsgrad während der Aufnahme anzeigen, die in Bezug zu der Kompensation oder dem Effekt stehen. - In einigen Ausführungsbeispielen weist die elektronische Vorrichtung
100 ferner ein Anzeigeelement110 (wie in1 gezeigt) auf. Das Anzeigeelement110 ist so konfiguriert, dass es Fotos innerhalb der Bilddaten anzeigt und ebenfalls eine auswählbare Nutzerschnittstelle zur Auswahl des zumindest einen geeigneten fotografischen Effekts zugehörig zu dem Foto anzeigt. In einigen Ausführungsbeispielen ist das Anzeigeelement110 mit dem Automatikeinrichtungsmodul160 und dem Nachbearbeitungsmodul180 gekoppelt, aber diese Offenbarung ist nicht hierauf beschränkt. - Es wird auf
5 Bezug genommen, die ein Verfahren500 zum Vorsehen einer Benutzerschnittstelle auf dem Anzeigeelement110 gemäß einem Ausführungsbeispiel der Offenbarung vorsieht. Wie in5 gezeigt, wird Schritt S500 ausgeführt, um Bilddaten durch den Kamerasatz zu erfassen. Schritt S502 wird ausgeführt, um Informationen zugehörig zu den Bilddaten zu sammeln. Schritt S504 wird ausgeführt, um zumindest einen geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten zu bestimmen und zu empfehlen. Die zuvor erwähnten Schritte S500 bis S504 werden im Detail in den zuvor erwähnten Ausführungsbeispielen erläutert und es kann auf die Schritte S200 bis S208 in2 und die Schritte S300 bis S316 in3 Bezug genommen werden und sie werden hier nicht wiederholt. - In dem Ausführungsbeispiel führt das Verfahren
500 ferner den Schritt S508 aus, um zumindest eine auswählbare Benutzerschnittstelle zum Auswählen von einem der zumindest einen geeigneten fotografischen Effekte zugehörig zu den Bilddaten auszuwählen. Die auswählbare Benutzerschnittstelle zeigt einige Symbole oder Funktionsknöpfe zugehörig zu den unterschiedlichen fotografischen Effekten. Die Symbole oder Funktionsknöpfe der empfohlenen/geeigneten fotografischen Effekte können hervorgehoben oder mit der höchsten Priorität angeordnet/geordnet sein. Die Symbole oder Funktionsknöpfe, die sich nicht in der empfohlenen/geeigneten Liste befinden, sind ausgegraut, deaktiviert oder verborgen. - Zusätzlich, bevor der empfohlene fotografische Effekt (aus den geeigneten fotografischen Effekten) durch den Benutzer ausgewählt wird, führt das Verfahren
500 ferner den Schritt S506 aus, um automatisch zumindest einen geeigneten, fotografischen Effekt als einen voreingestellten oder standardmäßigen fotografischen Effekt auf die Fotos anzuwenden, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind. - Darüber hinaus, nachdem der empfohlene fotografische Effekt (aus den geeigneten fotografischen Effekten) ausgewählt wurde, führt das Verfahren
500 ferner den Schritt S510 aus, um automatisch den letzten ausgewählten der empfohlenen fotografischen Effekte auf die Fotos anzuwenden, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind. - Basierend auf den zuvor erwähnten Ausführungsbeispielen führt die Offenbarung eine elektronische Vorrichtung ein sowie ein Verfahren zum automatischen Bestimmen entsprechender fotografischer Effekte basierend auf verschiedenen Informationen, wie beispielsweise einer Fokussierungsentfernung (die aus einer Position eines Schwingspulenmotors erfasst wird), eines Tiefenhistogramms, einer Sensorinformation, einer Systeminformation und/oder einer Bilddisparität. Infolgedessen kann ein Nutzer im Allgemeinen Fotos ohne manuelles Anwenden der Effekte erfassen, und geeignete fotografische Effekte/Konfigurationen werden automatisch detektiert und auf die Nachbearbeitung angewendet, nachdem die Bilddaten erfasst wurden.
- Ein weiteres Ausführungsbeispiel der Offenbarung sieht ein nicht-flüchtiges, computerlesbares Speichermedium mit einem Computerprogram vor, um ein Automatikeffektverfahren auszuführen, das in den zuvor erwähnten Ausführungsbeispielen offenbart ist. Das Automatikeffektverfahren weist die folgenden Schritte auf: wenn Bilddaten erfasst werden, Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweisen; und Bestimmen und Empfehlen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden, fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten. Die Details des Automatikeffektverfahrens sind in den zuvor erwähnten Ausführungsbeispielen beschrieben, die in
2 und3 gezeigt sind, und werden hier nicht wiederholt. - In diesem Dokument kann der Ausdruck „gekoppelt” auch als „elektrisch gekoppelt” bezeichnet werden, und der Ausdruck „verbunden” kann auch als „elektrisch verbunden” bezeichnet werden. „Gekoppelt” und „verbunden” können ebenfalls verwendet werden, um anzuzeigen, dass zwei oder mehr Elemente zusammenwirken oder miteinander interagieren. Es wird verstanden werden, dass obwohl die Ausdrücke „erste”, „zweite” etc. hierin verwendet werden, um verschiedene Elemente zu beschreiben, diese Elemente nicht durch die Ausdrücke eingeschränkt werden sollen. Diese Ausdrücke werden verwendet, um ein Element vom anderen zu unterscheiden. Beispielsweise könnte ein erstes Element als ein zweites Element bezeichnet werden und ihn ähnlicher Weise könnte ein zweites Element als ein erstes Element bezeichnet werden, ohne den Rahmen der Ausführungsbeispiele zu verlassen. Wie hierin verwendet, umfasst der Ausdruck „und/oder” irgendeine und sämtliche Kombinationen von einem oder mehreren der assoziierten, aufgelisteten Gegenstände bzw. Elemente.
- Das Vorangehende erläutert Merkmale der mehreren Ausführungsbeispiele, so dass Fachleute des Gebiets die Aspekte der vorliegenden Offenbarung besser verstehen können. Die Fachleute des Gebiets werden erkennen, dass sie in einfacher Weise Gebrauch von der vorliegenden Offenbarung als Basis für das Auslegen oder Modifizieren anderer Prozesse und Strukturen nutzen können, um die gleichen Zwecke auszuführen und/oder um die gleichen Vorteile der hierin eingeführten Ausführungsbeispiel zu erzielen. Fachleute des Gebiets sollten ebenfalls erkennen, dass derartige äquivalente Konstruktionen nicht den Umfang und Rahmen der vorliegenden Offenbarung verlassen, und dass sie verschiedene Veränderungen, Substitutionen und Anpassungen hieran vornehmen können, ohne den Umfang und Rahmen der vorliegenden Offenbarung zu verlassen.
Claims (30)
- Elektronische Vorrichtung, die Folgendes aufweist: einen Kamerasatz, der so konfiguriert ist, dass er Bilddaten erfasst; ein Eingangsquellenmodul, das so konfiguriert ist, dass es Informationen zugehörig zu den Bilddaten sammelt; und ein Automatikeinrichtungsmodul, das so konfiguriert ist, dass es zumindest einen geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß der Information zugehörig zu den Bilddaten bestimmt, wobei die Information eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist.
- Elektronische Vorrichtung gemäß Anspruch 1, wobei die Information zugehörig zu den Bilddaten, die durch das Eingangsquellenmodul gesammelt werden, Bildeigenschaftsinformationen der Bilddaten aufweist, und die elektronische Vorrichtung ferner ein Vorverarbeitungsmodul aufweist, wobei das Vorverarbeitungsmodul so konfiguriert ist, dass es bestimmt, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden fotografischen Effekte gemäß den Bildeigenschaftsinformationen auszuwählen.
- Elektronische Vorrichtung gemäß Anspruch 2, wobei die Bildeigenschaftsinformation der Bilddaten Daten in einem austauschbaren Bilddateiformat bzw. EXIF-Daten (EXIF = Exchangeable Image File Format) aufweist, die aus den Bilddaten extrahiert werden.
- Elektronische Vorrichtung gemäß Anspruch 3, wobei die EXIF-Daten Dualbildinformationen zugehörig zu einem Paar von Fotos der Bilddaten, Zeitstempel zugehörig zu dem Paar von Fotos und Fokussierungsentfernungen des Paars von Fotos aufweist, das Vorverarbeitungsmodul die Dualbildinformation, Zeitstempel oder Fokussierungsentfernungen überprüft, um zu bestimmen, ob die erfassten Bilddaten gültig sind.
- Elektronische Vorrichtung gemäß Anspruch 1, wobei der Kamerasatz Dual-Kameraeinheiten oder eine Vielzahl von Kameraeinheiten aufweist.
- Elektronische Vorrichtung gemäß Anspruch 1, wobei die in Frage kommenden fotografischen Effekte zumindest einen Effekt aufweisen, der aus der Gruppe ausgewählt wird, die den Bokeh-Effekt, den Refocus-Effekt, den Makro-Effekt, den Pseudo-3D-Effekt, den 3D-artigen Effekt, den 3D-Effekt und einen Flyview-Animationseffekt umfasst.
- Elektronische Vorrichtung gemäß Anspruch 6, wobei wenn die Fokussierungsentfernung kürzer als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus der Gruppe ausgewählt wird, die aus dem Makro-Effekt, dem Pseudo-3D-Effekt, dem 3D-artigen Effekt, dem 3D-Effekt und einem Flyview-Animationseffekt besteht.
- Elektronische Vorrichtung gemäß Anspruch 6, wobei wenn die Fokussierungsentfernung länger als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus einer Gruppe ausgewählt wird, die aus dem Bokeh-Effekt und dem Refocus-Effekt besteht.
- Elektronische Vorrichtung gemäß Anspruch 1, die ferner Folgendes aufweist: ein Tiefenverarbeitungsmodul, das konfiguriert ist, um eine Tiefenverteilung der Bilddaten relativ zu der Szene zu analysieren; wobei die Information zugehörig zu den Bilddaten, die durch das Eingangsquellenmodul gesammelt wird, ferner die Tiefenverteilung von dem Tiefenverarbeitungsmodul aufweist, und das Automatikeinrichtungsmodul den geeigneten fotografischen Effekt oder einen Parameter des geeigneten fotografischen Effekts ferner gemäß der Tiefenverteilung bestimmt.
- Elektronische Vorrichtung gemäß Anspruch 1, die ferner Folgendes aufweist: ein Anzeigeelement, das so konfiguriert ist, dass es die Bilddaten und eine auswählbare Benutzerschnittstelle anzeigt, wobei die auswählbare Benutzerschnittstelle so konfiguriert ist, dass sie einem Benutzer empfiehlt, aus dem zumindest einen geeigneten fotografischen Effekt zugehörig zu den Bilddaten auszuwählen; wobei nachdem einer der geeigneten fotografischen Effekte auf der Benutzerschnittstelle ausgewählt wurde, der ausgewählte, geeignete, fotografische Effekt auf die Bilddaten angewendet wird.
- Verfahren, das für eine elektronische Vorrichtung mit einem Kamerasatz geeignet ist, wobei das Verfahren Folgendes aufweist: Erfassen von Bilddaten durch den Kamerasatz; Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweist; und Bestimmen von zumindest einem geeigneten fotografischen Effekt aus einer Vielzahl von in Frage kommenden, fotografischen Effekten gemäß den Informationen zugehörig zu den Bilddaten.
- Verfahren gemäß Anspruch 11, das ferner Folgendes aufweist: Vorsehen einer auswählbaren Benutzerschnittstelle, wobei die auswählbare Benutzerschnittstelle so konfiguriert ist, dass sie einem Benutzer empfiehlt, aus zumindest einem geeigneten, fotografischen Effekt zugehörig zu den Bilddaten auszuwählen.
- Verfahren gemäß Anspruch 12, das ferner Folgendes aufweist: Bevor einer der zumindest einen geeigneten, fotografischen Effekte durch den Benutzer ausgewählt wird, automatisches Anwenden von einem der geeigneten, fotografischen Effekte als ein voreingestellter fotografischer Effekt auf die Bilddaten, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
- Verfahren gemäß Anspruch 12, das ferner Folgendes aufweist: nachdem einer der zumindest einen geeigneten, fotografischen Effekte durch den Benutzer ausgewählt wurde, automatisches Anwenden des ausgewählten fotografischen Effekts auf die Bilddaten, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
- Verfahren gemäß Anspruch 11, wobei die in Frage kommenden, fotografischen Effekte zumindest einen Effekt aufweisen, der aus der Gruppe ausgewählt wird, die den Bokeh-Effekt, den Refocus-Effekt, den Makro-Effekt, den Pseudo-3D-Effekt, den 3D-artigen Effekt, den 3D-Effekt und einen Flyview-Animationseffekt aufweist.
- Verfahren gemäß Anspruch 15, wobei wenn die Fokussierungsentfernung kleiner als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus der Gruppe ausgewählt wird, die aus dem Makro-Effekt, dem Pseudo-3D-Effekt, dem 3D-artigen Effekt, dem 3D-Effekt und einem Flyview-Animationseffekt besteht.
- Verfahren gemäß Anspruch 15, wobei wenn die Fokussierungsentfernung größer als eine vordefinierte Referenz ist, der geeignete fotografische Effekt im Wesentlichen aus der Gruppe ausgewählt wird, die aus dem Bokeh-Effekt und dem Refocus-Effekt besteht.
- Verfahren gemäß Anspruch 11, das ferner Folgendes aufweist: Analysieren einer Tiefenverteilung der Bilddaten, wobei die Informationen zugehörig zu den Bilddaten ferner eine Tiefenverteilung aufweisen, und der geeignete fotografische Effekt ferner gemäß der Tiefenverteilung bestimmt wird.
- Verfahren gemäß Anspruch 11, wobei der Kamerasatz zwei bzw. Dualkameraeinheiten oder eine Vielzahl von Kameraeinheiten aufweist.
- Verfahren gemäß Anspruch 11, wobei die Informationen zugehörig zu den Bilddaten Bildeigenschaftsinformationen der Bilddaten aufweisen, wobei das Verfahren ferner Folgendes aufweist: Bestimmen, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden, fotografischen Effekte gemäß den Bildeigenschaftsinformationen anzuwenden.
- Verfahren gemäß Anspruch 11, wobei die Bildeigenschaftsinformationen der Bilddaten Daten des austauschbaren Bilddateiformats bzw. EXIF-Dateien (EXIF = Exchangeable Image File Format) aufweisen, die aus den Bilddaten extrahiert werden.
- Verfahren gemäß Anspruch 11, wobei die EXIF-Daten Dualbildinformationen zugehörig zu einem Paar von Fotos der Bilddaten, Zeitstempel zugehörig zu dem Paar von Fotos und Fokussierungsenffernungen des Paars von Fotos aufweisen, wobei das Verfahren ferner Folgendes aufweist: Überprüfen der Dualbildinformation, der Zeitstempel oder der Fokussierungsenffernungen, um zu bestimmen, ob die erfassten Bilddaten gültig sind.
- Nicht-flüchtiges, computerlesbares Speichermedium mit einem Computerprogramm, um ein Automatikeffektverfahren auszuführen, wobei das Automatikeffektverfahren Folgendes aufweist: ansprechend auf das Erfassen der Bilddaten, Sammeln von Informationen zugehörig zu den Bilddaten, wobei die Informationen eine Fokussierungsentfernung des Kamerasatzes zugehörig zu den Bilddaten aufweisen; und Bestimmen von zumindest einem geeigneten, fotografischen Effekt aus einer Vielzahl von in Frage kommenden fotografischen Effekten gemäß den Informationen zugehörig zu den Bilddaten.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei die in Frage kommenden, fotografischen Effekte zumindest einen Effekt aufweisen, der aus der Gruppe ausgewählt wird, die den Bokeh-Effekt, den Refocus-Effekt, den Makro-Effekt, den Pseudo-3D-Effekt, den 3D-artigen Effekt, den 3D-Effekt und einen Flyview-Animationseffekt umfasst.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei das Automatikeffektverfahren ferner Folgendes aufweist: Analysieren einer Tiefenverteilung der Bilddaten, wobei die Informationen zugehörig zu den Bilddaten ferner die Tiefenverteilung aufweisen, und der geeignete fotografische Effekt ferner gemäß der Tiefenverteilung bestimmt wird.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei das Automatikeffektverfahren ferner Folgendes aufweist: Verarbeiten der Bilddaten und Anwenden des geeigneten fotografischen Effekts auf die Bilddaten nachdem die Bilddaten erfasst wurden.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, wobei die Informationen zugehörig zu den Bilddaten ferner Bildeigenschaftsinformationen aufweisen, wobei das Automatikeffektverfahren ferner Folgendes aufweist: Bestimmen, ob die erfassten Bilddaten gültig sind, um irgendeinen der in Frage kommenden, fotografischen Effekte gemäß der Bildeigenschaftsinformation anzuwenden.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 27, wobei die Bildeigenschaftsinformation der Bilddaten EXIF-Daten aufweist, die aus den Bilddaten extrahiert werden.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 23, das ferner Folgendes aufweist: Vorsehen einer auswählbaren Benutzerschnittstelle, wobei die auswählbare Benutzerschnittstelle so konfiguriert ist, dass sie einem Benutzer empfiehlt einen der geeigneten fotografischen Effekte auszuwählen.
- Nicht-flüchtiges, computerlesbares Speichermedium gemäß Anspruch 29, das ferner Folgendes aufweist: bevor einer der zumindest einen geeigneten, fotografischen Effekte durch den Benutzer ausgewählt wird, automatisches Anwenden von einem der geeigneten, fotografischen Effekte als einen standardmäßigen oder voreingestellten, fotografischen Effekt auf die Bilddaten, die in einem digitalen Album der elektronischen Vorrichtung gezeigt sind.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361896136P | 2013-10-28 | 2013-10-28 | |
US61/896,136 | 2013-10-28 | ||
US201461923780P | 2014-01-06 | 2014-01-06 | |
US61/923,780 | 2014-01-06 | ||
US14/272,513 US20150116529A1 (en) | 2013-10-28 | 2014-05-08 | Automatic effect method for photography and electronic apparatus |
US14/272,513 | 2014-05-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014010152A1 true DE102014010152A1 (de) | 2015-04-30 |
Family
ID=52811781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201410010152 Pending DE102014010152A1 (de) | 2013-10-28 | 2014-07-09 | Automatikeffektverfahren für Fotografie und elektronische Vorrichtung |
Country Status (4)
Country | Link |
---|---|
US (1) | US20150116529A1 (de) |
CN (1) | CN104580878B (de) |
DE (1) | DE102014010152A1 (de) |
TW (1) | TWI549503B (de) |
Families Citing this family (151)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8554868B2 (en) | 2007-01-05 | 2013-10-08 | Yahoo! Inc. | Simultaneous sharing communication interface |
BR112014000615B1 (pt) | 2011-07-12 | 2021-07-13 | Snap Inc | Método para selecionar funções de edição de conteúdo visual, método para ajustar o conteúdo visual, e sistema para fornecer uma pluralidade de funções de edição de conteúdo visual |
US11734712B2 (en) | 2012-02-24 | 2023-08-22 | Foursquare Labs, Inc. | Attributing in-store visits to media consumption based on data collected from user devices |
US8972357B2 (en) | 2012-02-24 | 2015-03-03 | Placed, Inc. | System and method for data collection to validate location data |
US10155168B2 (en) | 2012-05-08 | 2018-12-18 | Snap Inc. | System and method for adaptable avatars |
US20150206349A1 (en) | 2012-08-22 | 2015-07-23 | Goldrun Corporation | Augmented reality virtual content platform apparatuses, methods and systems |
US9742713B2 (en) | 2013-05-30 | 2017-08-22 | Snap Inc. | Apparatus and method for maintaining a message thread with opt-in permanence for entries |
US9705831B2 (en) | 2013-05-30 | 2017-07-11 | Snap Inc. | Apparatus and method for maintaining a message thread with opt-in permanence for entries |
US10439972B1 (en) | 2013-05-30 | 2019-10-08 | Snap Inc. | Apparatus and method for maintaining a message thread with opt-in permanence for entries |
CA2863124A1 (en) | 2014-01-03 | 2015-07-03 | Investel Capital Corporation | User content sharing system and method with automated external content integration |
US9628950B1 (en) | 2014-01-12 | 2017-04-18 | Investment Asset Holdings Llc | Location-based messaging |
US10082926B1 (en) | 2014-02-21 | 2018-09-25 | Snap Inc. | Apparatus and method for alternate channel communication initiated through a common message thread |
US8909725B1 (en) | 2014-03-07 | 2014-12-09 | Snapchat, Inc. | Content delivery network for ephemeral objects |
US9276886B1 (en) | 2014-05-09 | 2016-03-01 | Snapchat, Inc. | Apparatus and method for dynamically configuring application component tiles |
US9396354B1 (en) | 2014-05-28 | 2016-07-19 | Snapchat, Inc. | Apparatus and method for automated privacy protection in distributed images |
US9537811B2 (en) | 2014-10-02 | 2017-01-03 | Snap Inc. | Ephemeral gallery of ephemeral messages |
IL239237B (en) | 2014-06-05 | 2018-12-31 | Rotem Efrat | Network document extension |
US9113301B1 (en) | 2014-06-13 | 2015-08-18 | Snapchat, Inc. | Geo-location based event gallery |
US9225897B1 (en) * | 2014-07-07 | 2015-12-29 | Snapchat, Inc. | Apparatus and method for supplying content aware photo filters |
US10055717B1 (en) | 2014-08-22 | 2018-08-21 | Snap Inc. | Message processor with application prompts |
US10423983B2 (en) | 2014-09-16 | 2019-09-24 | Snap Inc. | Determining targeting information based on a predictive targeting model |
US10824654B2 (en) | 2014-09-18 | 2020-11-03 | Snap Inc. | Geolocation-based pictographs |
US11216869B2 (en) | 2014-09-23 | 2022-01-04 | Snap Inc. | User interface to augment an image using geolocation |
US10284508B1 (en) | 2014-10-02 | 2019-05-07 | Snap Inc. | Ephemeral gallery of ephemeral messages with opt-in permanence |
US9015285B1 (en) | 2014-11-12 | 2015-04-21 | Snapchat, Inc. | User interface for accessing media at a geographic location |
US10311916B2 (en) | 2014-12-19 | 2019-06-04 | Snap Inc. | Gallery of videos set to an audio time line |
US9385983B1 (en) | 2014-12-19 | 2016-07-05 | Snapchat, Inc. | Gallery of messages from individuals with a shared interest |
US9754355B2 (en) | 2015-01-09 | 2017-09-05 | Snap Inc. | Object recognition based photo filters |
US11388226B1 (en) | 2015-01-13 | 2022-07-12 | Snap Inc. | Guided personal identity based actions |
US10133705B1 (en) | 2015-01-19 | 2018-11-20 | Snap Inc. | Multichannel system |
US9521515B2 (en) | 2015-01-26 | 2016-12-13 | Mobli Technologies 2010 Ltd. | Content request by location |
US10223397B1 (en) | 2015-03-13 | 2019-03-05 | Snap Inc. | Social graph based co-location of network users |
US10616239B2 (en) | 2015-03-18 | 2020-04-07 | Snap Inc. | Geo-fence authorization provisioning |
US9692967B1 (en) | 2015-03-23 | 2017-06-27 | Snap Inc. | Systems and methods for reducing boot time and power consumption in camera systems |
US10135949B1 (en) | 2015-05-05 | 2018-11-20 | Snap Inc. | Systems and methods for story and sub-story navigation |
US9881094B2 (en) | 2015-05-05 | 2018-01-30 | Snap Inc. | Systems and methods for automated local story generation and curation |
EP3308356B1 (de) * | 2015-06-09 | 2020-04-08 | Vehant Technologies Private Limited | System und verfahren zur erkennung eines ungleichen objekts im fahrgestell eines fahrzeugs |
CN104967778B (zh) * | 2015-06-16 | 2018-03-02 | 广东欧珀移动通信有限公司 | 一种对焦提示方法及终端 |
US10993069B2 (en) | 2015-07-16 | 2021-04-27 | Snap Inc. | Dynamically adaptive media content delivery |
US10817898B2 (en) | 2015-08-13 | 2020-10-27 | Placed, Llc | Determining exposures to content presented by physical objects |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
KR102446442B1 (ko) * | 2015-11-24 | 2022-09-23 | 삼성전자주식회사 | 디지털 촬영 장치 및 그 동작 방법 |
US10474321B2 (en) | 2015-11-30 | 2019-11-12 | Snap Inc. | Network resource location linking and visual content sharing |
US9984499B1 (en) | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US10354425B2 (en) | 2015-12-18 | 2019-07-16 | Snap Inc. | Method and system for providing context relevant media augmentation |
US10679389B2 (en) | 2016-02-26 | 2020-06-09 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections |
US11023514B2 (en) | 2016-02-26 | 2021-06-01 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections |
US10285001B2 (en) | 2016-02-26 | 2019-05-07 | Snap Inc. | Generation, curation, and presentation of media collections |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US11900418B2 (en) | 2016-04-04 | 2024-02-13 | Snap Inc. | Mutable geo-fencing system |
US10334134B1 (en) | 2016-06-20 | 2019-06-25 | Maximillian John Suiter | Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction |
US11785161B1 (en) | 2016-06-20 | 2023-10-10 | Pipbin, Inc. | System for user accessibility of tagged curated augmented reality content |
US11044393B1 (en) | 2016-06-20 | 2021-06-22 | Pipbin, Inc. | System for curation and display of location-dependent augmented reality content in an augmented estate system |
US10638256B1 (en) | 2016-06-20 | 2020-04-28 | Pipbin, Inc. | System for distribution and display of mobile targeted augmented reality content |
US11201981B1 (en) | 2016-06-20 | 2021-12-14 | Pipbin, Inc. | System for notification of user accessibility of curated location-dependent content in an augmented estate |
US10805696B1 (en) | 2016-06-20 | 2020-10-13 | Pipbin, Inc. | System for recording and targeting tagged content of user interest |
US11876941B1 (en) | 2016-06-20 | 2024-01-16 | Pipbin, Inc. | Clickable augmented reality content manager, system, and network |
US9681265B1 (en) | 2016-06-28 | 2017-06-13 | Snap Inc. | System to track engagement of media items |
US10430838B1 (en) | 2016-06-28 | 2019-10-01 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections with automated advertising |
US10387514B1 (en) | 2016-06-30 | 2019-08-20 | Snap Inc. | Automated content curation and communication |
US10348662B2 (en) | 2016-07-19 | 2019-07-09 | Snap Inc. | Generating customized electronic messaging graphics |
US10410367B2 (en) | 2016-08-30 | 2019-09-10 | C3D Augmented Reality Solutions Ltd. | Systems and methods for simulatenous localization and mapping |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
CN109952610B (zh) | 2016-11-07 | 2021-01-08 | 斯纳普公司 | 图像修改器的选择性识别和排序 |
US10203855B2 (en) | 2016-12-09 | 2019-02-12 | Snap Inc. | Customized user-controlled media overlays |
US10636175B2 (en) * | 2016-12-22 | 2020-04-28 | Facebook, Inc. | Dynamic mask application |
US11616745B2 (en) | 2017-01-09 | 2023-03-28 | Snap Inc. | Contextual generation and selection of customized media content |
US10454857B1 (en) | 2017-01-23 | 2019-10-22 | Snap Inc. | Customized digital avatar accessories |
US10915911B2 (en) | 2017-02-03 | 2021-02-09 | Snap Inc. | System to determine a price-schedule to distribute media content |
US11250075B1 (en) | 2017-02-17 | 2022-02-15 | Snap Inc. | Searching social media content |
US10319149B1 (en) | 2017-02-17 | 2019-06-11 | Snap Inc. | Augmented reality anamorphosis system |
US10074381B1 (en) | 2017-02-20 | 2018-09-11 | Snap Inc. | Augmented reality speech balloon system |
US10565795B2 (en) | 2017-03-06 | 2020-02-18 | Snap Inc. | Virtual vision system |
US10523625B1 (en) | 2017-03-09 | 2019-12-31 | Snap Inc. | Restricted group content collection |
US10582277B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
US10581782B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
TWI641264B (zh) | 2017-03-30 | 2018-11-11 | 晶睿通訊股份有限公司 | 影像處理系統及鏡頭狀態判斷方法 |
US11170393B1 (en) | 2017-04-11 | 2021-11-09 | Snap Inc. | System to calculate an engagement score of location based media content |
US10387730B1 (en) | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
US10212541B1 (en) | 2017-04-27 | 2019-02-19 | Snap Inc. | Selective location-based identity communication |
KR102515132B1 (ko) | 2017-04-27 | 2023-03-28 | 스냅 인코포레이티드 | 소셜 미디어 플랫폼상의 사용자 위치의 지역적 레벨 표현 |
US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
US10467147B1 (en) | 2017-04-28 | 2019-11-05 | Snap Inc. | Precaching unlockable data elements |
EP3488603B1 (de) * | 2017-05-24 | 2021-07-28 | SZ DJI Technology Co., Ltd. | Verfahren und systeme zur verarbeitung eines bildes |
US10803120B1 (en) | 2017-05-31 | 2020-10-13 | Snap Inc. | Geolocation based playlists |
KR102338576B1 (ko) * | 2017-08-22 | 2021-12-14 | 삼성전자주식회사 | 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법 |
US11475254B1 (en) | 2017-09-08 | 2022-10-18 | Snap Inc. | Multimodal entity identification |
US10740974B1 (en) | 2017-09-15 | 2020-08-11 | Snap Inc. | Augmented reality system |
US10499191B1 (en) | 2017-10-09 | 2019-12-03 | Snap Inc. | Context sensitive presentation of content |
US10425593B2 (en) * | 2017-10-19 | 2019-09-24 | Paypal, Inc. | Digital image filtering and post-capture processing using user specific data |
US10573043B2 (en) | 2017-10-30 | 2020-02-25 | Snap Inc. | Mobile-based cartographic control of display content |
US10721419B2 (en) * | 2017-11-30 | 2020-07-21 | International Business Machines Corporation | Ortho-selfie distortion correction using multiple image sensors to synthesize a virtual image |
US11265273B1 (en) | 2017-12-01 | 2022-03-01 | Snap, Inc. | Dynamic media overlay with smart widget |
US11017173B1 (en) | 2017-12-22 | 2021-05-25 | Snap Inc. | Named entity recognition visual context and caption data |
US10678818B2 (en) | 2018-01-03 | 2020-06-09 | Snap Inc. | Tag distribution visualization system |
US11507614B1 (en) | 2018-02-13 | 2022-11-22 | Snap Inc. | Icon based tagging |
US10979752B1 (en) | 2018-02-28 | 2021-04-13 | Snap Inc. | Generating media content items based on location information |
US10885136B1 (en) | 2018-02-28 | 2021-01-05 | Snap Inc. | Audience filtering system |
US10327096B1 (en) | 2018-03-06 | 2019-06-18 | Snap Inc. | Geo-fence selection system |
EP3766028A1 (de) | 2018-03-14 | 2021-01-20 | Snap Inc. | Erzeugung von sammelbaren gegenständen auf der basis von ortsinformationen |
US11163941B1 (en) | 2018-03-30 | 2021-11-02 | Snap Inc. | Annotating a collection of media content items |
US10219111B1 (en) | 2018-04-18 | 2019-02-26 | Snap Inc. | Visitation tracking system |
KR102495008B1 (ko) * | 2018-05-11 | 2023-02-06 | 삼성전자주식회사 | 영상 편집 지원 방법 및 이를 지원하는 전자 장치 |
US10896197B1 (en) | 2018-05-22 | 2021-01-19 | Snap Inc. | Event detection system |
GB2574802A (en) * | 2018-06-11 | 2019-12-25 | Sony Corp | Camera, system and method of selecting camera settings |
US10679393B2 (en) | 2018-07-24 | 2020-06-09 | Snap Inc. | Conditional modification of augmented reality object |
US10997760B2 (en) | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
US10698583B2 (en) | 2018-09-28 | 2020-06-30 | Snap Inc. | Collaborative achievement interface |
KR102551220B1 (ko) * | 2018-10-12 | 2023-07-03 | 삼성전기주식회사 | 카메라 모듈 |
US10778623B1 (en) | 2018-10-31 | 2020-09-15 | Snap Inc. | Messaging and gaming applications communication platform |
US10939236B1 (en) | 2018-11-30 | 2021-03-02 | Snap Inc. | Position service to determine relative position to map features |
US11199957B1 (en) | 2018-11-30 | 2021-12-14 | Snap Inc. | Generating customized avatars based on location information |
KR102633221B1 (ko) * | 2019-01-11 | 2024-02-01 | 엘지전자 주식회사 | 카메라 장치 및 이를 구비하는 전자 장치 |
US11032670B1 (en) | 2019-01-14 | 2021-06-08 | Snap Inc. | Destination sharing in location sharing system |
US10939246B1 (en) | 2019-01-16 | 2021-03-02 | Snap Inc. | Location-based context information sharing in a messaging system |
US11294936B1 (en) | 2019-01-30 | 2022-04-05 | Snap Inc. | Adaptive spatial density based clustering |
US10936066B1 (en) | 2019-02-13 | 2021-03-02 | Snap Inc. | Sleep detection in a location sharing system |
US10838599B2 (en) | 2019-02-25 | 2020-11-17 | Snap Inc. | Custom media overlay system |
US10964082B2 (en) | 2019-02-26 | 2021-03-30 | Snap Inc. | Avatar based on weather |
US10852918B1 (en) | 2019-03-08 | 2020-12-01 | Snap Inc. | Contextual information in chat |
US11868414B1 (en) | 2019-03-14 | 2024-01-09 | Snap Inc. | Graph-based prediction for contact suggestion in a location sharing system |
US11852554B1 (en) | 2019-03-21 | 2023-12-26 | Snap Inc. | Barometer calibration in a location sharing system |
US11249614B2 (en) | 2019-03-28 | 2022-02-15 | Snap Inc. | Generating personalized map interface with enhanced icons |
US10810782B1 (en) | 2019-04-01 | 2020-10-20 | Snap Inc. | Semantic texture mapping system |
US10560898B1 (en) | 2019-05-30 | 2020-02-11 | Snap Inc. | Wearable device location systems |
US10582453B1 (en) | 2019-05-30 | 2020-03-03 | Snap Inc. | Wearable device location systems architecture |
US10893385B1 (en) | 2019-06-07 | 2021-01-12 | Snap Inc. | Detection of a physical collision between two client devices in a location sharing system |
US11307747B2 (en) | 2019-07-11 | 2022-04-19 | Snap Inc. | Edge gesture interface with smart interactions |
US11821742B2 (en) | 2019-09-26 | 2023-11-21 | Snap Inc. | Travel based notifications |
US11218838B2 (en) | 2019-10-31 | 2022-01-04 | Snap Inc. | Focused map-based context information surfacing |
CN114902646B (zh) * | 2019-12-19 | 2024-04-19 | Oppo广东移动通信有限公司 | 电子设备、控制电子设备的方法以及计算机可读存储介质 |
US11128715B1 (en) | 2019-12-30 | 2021-09-21 | Snap Inc. | Physical friend proximity in chat |
US11429618B2 (en) | 2019-12-30 | 2022-08-30 | Snap Inc. | Surfacing augmented reality objects |
US10880496B1 (en) | 2019-12-30 | 2020-12-29 | Snap Inc. | Including video feed in message thread |
US11169658B2 (en) | 2019-12-31 | 2021-11-09 | Snap Inc. | Combined map icon with action indicator |
US11343323B2 (en) | 2019-12-31 | 2022-05-24 | Snap Inc. | Augmented reality objects registry |
US11228551B1 (en) | 2020-02-12 | 2022-01-18 | Snap Inc. | Multiple gateway message exchange |
US11516167B2 (en) | 2020-03-05 | 2022-11-29 | Snap Inc. | Storing data based on device location |
US11619501B2 (en) | 2020-03-11 | 2023-04-04 | Snap Inc. | Avatar based on trip |
US10956743B1 (en) | 2020-03-27 | 2021-03-23 | Snap Inc. | Shared augmented reality system |
US11430091B2 (en) | 2020-03-27 | 2022-08-30 | Snap Inc. | Location mapping for large scale augmented-reality |
US11290851B2 (en) | 2020-06-15 | 2022-03-29 | Snap Inc. | Location sharing using offline and online objects |
US11314776B2 (en) | 2020-06-15 | 2022-04-26 | Snap Inc. | Location sharing using friend list versions |
US11483267B2 (en) | 2020-06-15 | 2022-10-25 | Snap Inc. | Location sharing using different rate-limited links |
US11503432B2 (en) | 2020-06-15 | 2022-11-15 | Snap Inc. | Scalable real-time location sharing framework |
US11308327B2 (en) | 2020-06-29 | 2022-04-19 | Snap Inc. | Providing travel-based augmented reality content with a captured image |
US11514617B2 (en) * | 2020-08-14 | 2022-11-29 | Htc Corporation | Method and system of providing virtual environment during movement and related non-transitory computer-readable storage medium |
US11349797B2 (en) | 2020-08-31 | 2022-05-31 | Snap Inc. | Co-location connection service |
US11606756B2 (en) | 2021-03-29 | 2023-03-14 | Snap Inc. | Scheduling requests for location data |
US11645324B2 (en) | 2021-03-31 | 2023-05-09 | Snap Inc. | Location-based timeline media content system |
US11829834B2 (en) | 2021-10-29 | 2023-11-28 | Snap Inc. | Extended QR code |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11355624A (ja) * | 1998-06-05 | 1999-12-24 | Fuji Photo Film Co Ltd | 撮影装置 |
US6301440B1 (en) * | 2000-04-13 | 2001-10-09 | International Business Machines Corp. | System and method for automatically setting image acquisition controls |
EP1584067A2 (de) * | 2003-01-16 | 2005-10-12 | D-blur Technologies LTD. C/o Yossi Haimov CPA | Kamera mit funktionen zur bildverbesserung |
JP4725453B2 (ja) * | 2006-08-04 | 2011-07-13 | 株式会社ニコン | デジタルカメラ及び画像処理プログラム |
JP5109803B2 (ja) * | 2007-06-06 | 2012-12-26 | ソニー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP4492724B2 (ja) * | 2008-03-25 | 2010-06-30 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
JP4637942B2 (ja) * | 2008-09-30 | 2011-02-23 | 富士フイルム株式会社 | 3次元表示装置および方法並びにプログラム |
US8570429B2 (en) * | 2009-02-27 | 2013-10-29 | Samsung Electronics Co., Ltd. | Image processing method and apparatus and digital photographing apparatus using the same |
JP2011073256A (ja) * | 2009-09-30 | 2011-04-14 | Dainippon Printing Co Ltd | カード |
US8090251B2 (en) * | 2009-10-13 | 2012-01-03 | James Cameron | Frame linked 2D/3D camera system |
US9369685B2 (en) * | 2010-02-26 | 2016-06-14 | Blackberry Limited | Mobile electronic device having camera with improved auto white balance |
JP2013030895A (ja) * | 2011-07-27 | 2013-02-07 | Sony Corp | 信号処理装置、撮像装置、信号処理方法およびプログラム |
CN101840068B (zh) * | 2010-05-18 | 2012-01-11 | 深圳典邦科技有限公司 | 一种头佩式光学电子自动对焦助视器 |
JP2011257303A (ja) * | 2010-06-10 | 2011-12-22 | Olympus Corp | 画像取得装置、欠陥修正装置および画像取得方法 |
KR101051509B1 (ko) * | 2010-06-28 | 2011-07-22 | 삼성전기주식회사 | 카메라의 광량 제어 장치 및 방법 |
JP5183715B2 (ja) * | 2010-11-04 | 2013-04-17 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP5306544B2 (ja) * | 2010-11-05 | 2013-10-02 | 富士フイルム株式会社 | 画像処理装置、画像処理プログラム、画像処理方法、及び記憶媒体 |
JP5614268B2 (ja) * | 2010-12-09 | 2014-10-29 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP2012253713A (ja) * | 2011-06-07 | 2012-12-20 | Sony Corp | 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム |
JP5760727B2 (ja) * | 2011-06-14 | 2015-08-12 | リコーイメージング株式会社 | 画像処理装置および画像処理方法 |
JP5932666B2 (ja) * | 2011-07-19 | 2016-06-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像符号化装置とその集積回路、および画像符号化方法 |
JP5821457B2 (ja) * | 2011-09-20 | 2015-11-24 | ソニー株式会社 | 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム |
CN103176684B (zh) * | 2011-12-22 | 2016-09-07 | 中兴通讯股份有限公司 | 一种多区域切换界面的方法及装置 |
US8941750B2 (en) * | 2011-12-27 | 2015-01-27 | Casio Computer Co., Ltd. | Image processing device for generating reconstruction image, image generating method, and storage medium |
US9185387B2 (en) * | 2012-07-03 | 2015-11-10 | Gopro, Inc. | Image blur based on 3D depth information |
US10659763B2 (en) * | 2012-10-09 | 2020-05-19 | Cameron Pace Group Llc | Stereo camera system with wide and narrow interocular distance cameras |
JP6218377B2 (ja) * | 2012-12-27 | 2017-10-25 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
US9025874B2 (en) * | 2013-02-19 | 2015-05-05 | Blackberry Limited | Method and system for generating shallow depth of field effect |
US9363499B2 (en) * | 2013-11-15 | 2016-06-07 | Htc Corporation | Method, electronic device and medium for adjusting depth values |
-
2014
- 2014-05-08 US US14/272,513 patent/US20150116529A1/en not_active Abandoned
- 2014-07-09 DE DE201410010152 patent/DE102014010152A1/de active Pending
- 2014-07-16 TW TW103124395A patent/TWI549503B/zh active
- 2014-07-28 CN CN201410362346.6A patent/CN104580878B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104580878B (zh) | 2018-06-26 |
CN104580878A (zh) | 2015-04-29 |
TW201517620A (zh) | 2015-05-01 |
US20150116529A1 (en) | 2015-04-30 |
TWI549503B (zh) | 2016-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014010152A1 (de) | Automatikeffektverfahren für Fotografie und elektronische Vorrichtung | |
DE112020003794T5 (de) | Tiefenbewusste Fotobearbeitung | |
DE602005003917T2 (de) | Verfahren und Vorrichtung zur Erzeugung von Bildern mit hoher Dynamik aus mehreren Belichtungen | |
DE102013017122B4 (de) | Verfahren zum Herstellen automatischer Cinemagramme auf einer Bildgebungsvorrichtung | |
DE60218317T2 (de) | Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen | |
DE112006001017B4 (de) | Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur | |
DE102013226164B4 (de) | Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren, Programm und Speichermedium | |
DE202014010969U1 (de) | Kamerafähiges Mobilgerät | |
DE112016002229B4 (de) | Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium | |
DE112008002819T5 (de) | Autofokus-Bildsystem | |
DE102012016160A1 (de) | Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation | |
DE102017126269B4 (de) | Vorrichtung und Verfahren zur hinterleuchteten Gesichtserkennung | |
EP2030433B1 (de) | Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium | |
DE202013012272U1 (de) | Einrichtung zur Steuerung einer Kamera | |
DE102015102681B4 (de) | All-in-focus-implementierung | |
DE112012000950T5 (de) | Ermitteln des Abstands zwischen verschiedenen Punkten an einem abgebildeten Gegenstand | |
DE102016120954A1 (de) | Abbildungseinrichtung und Abbildungsverfahren | |
DE112006000358T5 (de) | Verfahren und Vorrichtung zur Erstellung eines Panoramabildes | |
DE102009035927A1 (de) | Verfahren zur Simulation der Belichtungskorrektur dunkler Bereiche mit einem Einzelbild und ein entsprechendes Bildverarbeitungsgerät | |
DE112006000534T5 (de) | Positionieren eines Aufnahmegegenstandes bezüglich einer Hintergrundszene in einer Digitalkamera | |
DE102015102772A1 (de) | Bildverarbeitungsvorrichtung und Verfahren für deren Steuerung | |
DE102013201980B4 (de) | Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät | |
DE102012100081A1 (de) | Digitale Fotografiervorrichtung und Steuerverfahren dafür | |
DE102014104070A1 (de) | Panoramafotografierverfahren, Panoramaanzeigeverfahren und Bilderfassungsverfahren | |
DE102014211039A1 (de) | Bildgebungsgerät, Bildverarbeitungsgerät und zugehöriges Steuerungsverfahren |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: H04N0005232000 Ipc: H04N0023600000 |