DE102015007145A1 - Method for automatic route evaluation - Google Patents
Method for automatic route evaluation Download PDFInfo
- Publication number
- DE102015007145A1 DE102015007145A1 DE102015007145.9A DE102015007145A DE102015007145A1 DE 102015007145 A1 DE102015007145 A1 DE 102015007145A1 DE 102015007145 A DE102015007145 A DE 102015007145A DE 102015007145 A1 DE102015007145 A1 DE 102015007145A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- route
- fourteen
- evaluation signal
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
Abstract
Die Erfindung betrifft ein Verfahren zum Auswerten eines optischen Erscheinungsbildes einer Fahrstrecke (28, 29, 30), wobei aus zumindest einem Kraftfahrzeug (3), das auf der Fahrstrecke (28, 29, 30) fährt oder gefahren ist, Videodaten (6), die eine Bildsequenz (13) der Fahrstrecke (28, 29, 30) enthalten, empfangen werden. Aufgabe ist es, die Fahrstrecke hinsichtlich eines subjektiven, emotionalen Attraktivitätskriteriums auszuwerten. Die Aufgabe wird gelöst, indem durch eine Analyseeinrichtung (12) auf der Grundlage der Videodaten (6) zu Bildern (14) der Bildsequenz (13) jeweils ein Übereinstimmungswert (15) betreffend einen Grad einer Übereinstimmung des Bildes (14) mit dem vorbestimmten Attraktivitätskriterium ermittelt wird und die Übereinstimmungswerte (15) der einzelnen Bilder (14) zu einem Bewertungssignal (10) für die Bildsequenz (13) kombiniert werden und das Bewertungssignal (10) als eine Beschreibung des Erscheinungsbildes der Fahrstrecke (28, 29, 30) bereitgestellt wird.The invention relates to a method for evaluating an optical appearance of a route (28, 29, 30), wherein from at least one motor vehicle (3) traveling on the route (28, 29, 30), video data (6), which contain a picture sequence (13) of the route (28, 29, 30). The task is to evaluate the route in terms of a subjective, emotional attractiveness criterion. The object is achieved by an analysis device (12) on the basis of the video data (6) to images (14) of the image sequence (13) each have a match value (15) regarding a degree of coincidence of the image (14) with the predetermined attractiveness criterion is determined, and the match values (15) of the individual images (14) are combined into an evaluation signal (10) for the image sequence (13) and the evaluation signal (10) is provided as a description of the appearance of the travel route (28, 29, 30) ,
Description
Die Erfindung betrifft ein Verfahren zum Auswerten eines optischen Erscheinungsbildes einer Fahrstrecke. Durch die Auswertung wird ermittelt, ob die Fahrstrecke oder Teile der Fahrstrecke zum Beispiel landschaftlich besonders schön ist oder architektonische Sehenswürdigkeiten aufweist. Durch die Erfindung wird ein Verfahren weitergebildet, das aus der
Bei dem bekannten Verfahren werden durch Kraftfahrzeuge Videodaten mit Bildsequenzen von Fahrstrecken eines Straßennetzes erfasst. Die Videodaten werden zentral in einem Server gesammelt und einem Benutzer angezeigt, wenn sich dieser über die Fahrstrecke informieren möchte. Falls sehr viele Kraftfahrzeuge Videodaten erzeugen, ergibt sich, dass jede Fahrstrecke mehrfach gefilmt wird. Um eine Auswahl aus den Videodaten zu treffen, müssen Personen das Bildmaterial sichten und bewerten. Nur hierdurch ist es möglich, schlechte Videoaufnahmen von guten, für die Fahrstrecke repräsentativen Filmaufnahmen zu unterscheiden. Dies macht das Verfahren aufwändig.In the known method, video data is captured by motor vehicles with image sequences of routes of a road network. The video data is collected centrally in a server and displayed to a user, if he wants to find out about the route. If a large number of motor vehicles generate video data, it follows that each route is filmed several times. To make a selection from the video data, people need to view and rate the footage. Only this makes it possible to distinguish bad video recordings of good, representative of the route filming. This makes the process expensive.
Aus der
Aus der
Einem Fahrer ist es heutzutage also möglich, vor Antritt einer Fahrt einen Eindruck von verschiedenen Fahrrouten zu gewinnen, die zu einem von ihm gewählten Ziel führen. Des Weiteren kann er sich beispielsweise im Internet Fotos, Videos und Bewertungen von Fahrrouten ansehen.Nowadays, it is possible for a driver to gain an impression of different driving routes leading to a destination of his choice before starting a journey. Furthermore, he can, for example, on the Internet view photos, videos and reviews of driving routes.
Um eine Routenauswahl automatisiert durchzuführen, ist Voraussetzung, dass das Bildmaterial, also Fotos und Videos, von anderen Personen schon einmal ausgewertet und kategorisiert wurde. Handelt es sich um abstrakte, beispielsweise emotionale, Kriterien wie beispielsweise eine Bewertung der „landschaftlichen Schönheit”, so ist man auf das Urteilsvermögen einer anderen Person angewiesen. Ansonsten lässt sich eine Suche nach einer „landschaftlich schönen” Fahrroute nicht automatisiert durchführen.In order to carry out a route selection automatically, the prerequisite is that the image material, ie photos and videos, has already been evaluated and categorized by other persons. If it is an abstract, for example, emotional, criteria such as an assessment of "scenic beauty", it depends on the judgment of another person. Otherwise, a search for a "scenic" route can not be automated.
Ein zweites Problem besteht in der Auswertung der Menge der Videodaten selbst. Werden über mehrere Kraftfahrzeuge, in denen jeweils eine Videokamera Bildsequenzen von der Umgebung erfasst werden, zentral in einem Server gesammelt, so ist der Aufwand, diese umfangreichen Videodaten zu sichten, wirtschaftlich nicht mehr vertretbar.A second problem is the evaluation of the amount of video data itself. If several motor vehicles, in each of which a video camera captures image sequences from the environment, are collected centrally in a server, then the effort to view this extensive video data is no longer economically viable justifiable.
Der Erfindung liegt die Aufgabe zugrunde, ein optisches Erscheinungsbild von Fahrstrecken auszuwerten, um eine systematische Suche einer Fahrroute in Abhängigkeit von deren optischen Erscheinungsbild zu ermöglichen.The invention has for its object to evaluate an optical appearance of routes to allow a systematic search of a route in dependence on their visual appearance.
Die Aufgabe wird durch den Gegenstand des unabhängigen Patentanspruchs gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die Merkmale der abhängigen Patentansprüche.The object is solved by the subject matter of the independent patent claim. Advantageous developments of the invention will become apparent from the features of the dependent claims.
Erfindungsgemäß wird ein Verfahren bereitgestellt, das zum Auswerten eines optischen Erscheinungsbildes einer Fahrstrecke dient. Eine Fahrstrecke ist in diesem Zusammenhang beispielsweise ein Streckenabschnitt in einem Straßenverkehrsnetz, also beispielsweise eine Straße oder ein Straßenzug. In der bereits beschriebenen Weise werden aus zumindest einem Kraftfahrzeug, das auf der Fahrstrecke fährt oder auf der Fahrstrecke gefahren ist, Videodaten empfangen. Bevorzugt sind mehrere Kraftfahrzeug vorgesehen. Die Videodaten jedes Kraftfahrzeugs enthalten eine Bildsequenz oder ein Video der Fahrstrecke. Die Videodaten können beispielsweise durch einen zentralen Server des Internets, also eine an das Internet angeschlossene Recheneinrichtung, empfangen werden. Durch eine Analyseeinrichtung wird auf Grundlage der Videodaten zu Bildern der Bildsequenz jeweils ermittelt, zu welchem Grad oder Anteil oder Prozentsatz das Bild mit einem vorbestimmten Attraktivitätskriterium übereinstimmt. Hierzu wird ein entsprechender Übereinstimmungswert ermittelt, also beispielsweise ein Wert in einem Bereich von 0 bis 100 Prozent. Das Attraktivitätskriterium kann beispielsweise eine „landschaftlich schöne” Fahrstrecke oder eine „architektonisch schöne” Fahrstrecke bezeichnet oder definieren. Der Übereinstimmungswert besagt dann, inwieweit oder zu welchem Grad die durch die Videodaten dargestellte Fahrstrecke dem Attraktivitätskriterium entspricht. Hierzu werden beispielsweise für einzelne Bilder der Bildsequenz jeweils Vergleiche zwischen dem Bild und einer optischen Eigenschaft, durch welche das Attraktivitätskriterium charakterisiert ist, durchgeführt. Beispielsweise können Grünflächen, also grüne Bildbereiche, für eine landschaftlich schöne Umgebung repräsentativ sein. In Abhängigkeit vom Anteil einer jeweiligen optischen Eigenschaft (grüne Bildbereiche, Bildbereiche mit Gebäudestrukturen) kann dann der Übereinstimmungswert festgelegt werden.According to the invention, a method is provided which serves for evaluating an optical appearance of a driving route. A route is in this context, for example, a section of a road network, so for example, a road or a street. In the manner already described, video data is received from at least one motor vehicle driving on the route or driven on the route. Preferably, several motor vehicles are provided. The video data of each motor vehicle includes a picture sequence or video of the route. The video data can be received, for example, by a central server of the Internet, that is to say a computer connected to the Internet. By an analysis device is determined based on the video data to images of the image sequence, respectively, to what degree or proportion or percentage of the image matches a predetermined attractiveness criterion. For this purpose, a corresponding match value is determined, that is, for example, a value in a range of 0 to 100 percent. The attractiveness criterion may for example designate or define a "scenic" route or an "architecturally beautiful" route. The match value then indicates to what extent or to what degree the route represented by the video data corresponds to the attractiveness criterion. For this purpose, for example, comparisons are made between the image and an optical property by which the attractiveness criterion is characterized for individual images of the image sequence. For example, green areas, so green image areas, for a scenic environment to be representative. Depending on the proportion of a respective optical property (green image areas, image areas with building structures), the match value can then be determined.
Durch die Analyseeinrichtung wird zu mehreren oder allen Bildern der Bildsequenz jeweils ein Übereinstimmungswert erzeugt. Die Übereinstimmungswerte werden gemäß dem erfindungsgemäßen Verfahren zu einem Bewertungssignal für die Bildsequenz kombiniert. Mit anderen Worten stellen die Übereinstimmungswerte der Bilder Amplitudenwerte des Bewertungssignals dar. Das Bewertungssignal wird dann als eine Beschreibung des Erscheinungsbildes der Fahrstrecke bereitgestellt. Es kann beispielsweise zusammen mit den Videodaten bereitgestellt werden oder in die Videodaten integriert sein. Mittels des Verfahrens können natürlich auch mehrere Fahrstrecken in der beschriebenen Weise mit einem Bewertungssignal versehen werden.The analysis device generates a match value for several or all images of the image sequence. The match values are combined according to the method of the present invention into an evaluation signal for the image sequence. In other words, the coincidence values of the images represent amplitude values of the evaluation signal. The evaluation signal is then provided as a description of the appearance of the travel route. For example, it may be provided along with the video data or integrated into the video data. By means of the method, it is of course also possible to provide a plurality of routes in the manner described with an evaluation signal.
Durch die Erfindung ergibt sich der Vorteil, dass Videodaten, die von Kraftfahrzeugen beispielsweise mittels Videokameras während einer Fahrt generiert werden, in automatisierter Form durch eine zentrale Recheneinrichtung, beispielsweise einen Internetserver, in Bezug auf ein Attraktivitätskriterium bewertet werden. Die Bildsequenz der Videodaten wird somit um ein Bewertungssignal ergänzt, welches zu einzelnen Abschnitten der Fahrstrecke jeweils einen Übereinstimmungswert oder Zugehörigkeitsgrad zu dem Attraktivitätskriterium angibt. Somit steht mit dem Bewertungssignal eine Beschreibung des Erscheinungsbildes der Fahrstrecke für eine weitere automatisierte Bearbeitung bereit. Es ist nicht nötig, die Videodaten durch eine Person auszuwerten. Die genannte Analyseeinrichtung kann z. B. ein Programmmodul der Recheneinrichtung umfassen. Die Analyseeinrichtung kann z. B. auf der Grundlage eines Klassifikators oder eines Algorithmus für eine Klassifikation gebildet sein.The invention provides the advantage that video data generated by motor vehicles, for example by means of video cameras during a journey, are evaluated in automated form by a central computing device, for example an internet server, in relation to an attractiveness criterion. The image sequence of the video data is thus supplemented by an evaluation signal, which in each case specifies an agreement value or degree of membership to the attractiveness criterion for individual sections of the route. Thus, the evaluation signal provides a description of the appearance of the route for further automated processing. It is not necessary to evaluate the video data by a person. The mentioned analysis device can, for. B. include a program module of the computing device. The analysis device can, for. B. based on a classifier or an algorithm for a classification.
Die Erfindung weist optionale Weiterbildungen auf, durch deren Merkmale sich zusätzliche Vorteile ergeben.The invention has optional refinements, by the characteristics of which additional advantages arise.
Gemäß einer Weiterbildung der Erfindung ermittelt die Analyseeinrichtung den Übereinstimmungswert jedes Bildes mittels eines neuronalen Netzes. Durch das neuronale Netz werden Bildelemente des Bildes in einem einstufigen oder mehrstufigen Verarbeitungsprozess gruppiert. Mit anderen Worten werden die Bildelemente zusammengefasst. Dies ergibt in vorteilhafter Weise eine Abstraktion oder Abstrahierung der Bildelemente hin zu repräsentativen Zahlen oder Werten. Beispielsweise können grüne Bildelemente in einem Bild zu einer grünen Region zusammengefasst werden, welche dann durch einen einzelnen Wert repräsentiert werden kann, der beispielsweise den Grünflächen- oder Laubanteil im Bild repräsentieren kann. Mittels des neuronalen Netzes kann alternativ zur Auswertung eines einzelnen Bildes auch vorgesehen sein, zum Ermitteln des einen Übereinstimmungswerts das Bild und zumindest ein weiteres Bild der Bildsequenz zugrunde zu legen. Hierdurch ergibt sich in vorteilhafter Weise ein Glättungseffekt oder Stabilisierungseffekt. Besonders bevorzugt wird ein sogenanntes tiefes neuronales Netz verwendet, das insbesondere mehr als drei neuronale Schichten aufweist. Hierdurch kann allein mittels eines neuronalen Netzes eine Abstraktion des Bildes hin zu einem einzelnen Übereinstimmungswert erreicht werden. Es ist dann keine zusätzliche Nachbearbeitung zum Berechnen des Übereinstimmungswerts nötig.According to one embodiment of the invention, the analysis device determines the matching value of each image by means of a neural network. The neural network groups image elements of the image in a single-stage or multi-stage processing process. In other words, the picture elements are combined. This advantageously results in abstraction or abstraction of the picture elements towards representative numbers or values. For example, green pixels in an image may be grouped into a green region, which may then be represented by a single value, which may represent, for example, the green area or foliage portion in the image. By means of the neural network, as an alternative to the evaluation of a single image, it can also be provided to use the image and at least one further image of the image sequence to determine the one match value. This results in an advantageous manner, a smoothing effect or stabilization effect. Particularly preferably, a so-called deep neural network is used, which in particular has more than three neural layers. As a result, an abstraction of the image towards a single match value can be achieved solely by means of a neural network. There is no need for additional post processing to calculate the match score.
Gemäß einer Weiterbildung der Erfindung werden zum Konfigurieren des neuronalen Netzes mittels einer unüberwachten Lernmethode (Englisch: unsupervised learning) Trainingsbilder untereinander verglichen und in Gruppen eingeteilt. Mit anderen Worten kann in vorteilhafter Weise beim Konfigurieren des neuronalen Netzes darauf verzichtet werden, die entscheidenden Bildelemente durch eine Person herauszusuchen oder zu markieren. Durch Vergleichen von Trainingsbildern wird in automatisierter Form ermittelt, welche Bildbereiche für das Unterscheiden zwischen den Trainingsbildern wichtig sind. Beispielsweise unterscheiden sich Trainingsbilder nur geringfügig im Bereich des vorausliegenden Straßenabschnitts, der in allen Trainingsbildern mit hoher Wahrscheinlichkeit gleich grau ist. Das neuronale Netz wird somit insbesondere für die Bild-Randbereiche empfindlich oder sensibilisiert, in denen in Abhängigkeit von der landschaftlichen Beschaffenheit Farben und Strukturen anders sind. Eine der Gruppen kann hierbei dann beispielsweise einen grauen Randbereich für eine Fahrt durch ein Stadtgebiet aufweisen und eine zweite Gruppe für einen grünen Randbereich stehen, wie er sich bei einer Fahrt durch eine Landschaft ergibt.According to one embodiment of the invention, training images are compared with each other and divided into groups for configuring the neural network by means of an unsupervised learning method (English: unsupervised learning). In other words, when configuring the neural network, it is advantageously possible to dispense with selecting or marking the decisive picture elements by a person. By comparing training images, it is automatically determined which image areas are important for distinguishing between the training images. For example, training images differ only slightly in the area of the road ahead, which is most likely the same gray in all training images. The neural network is thus sensitive or sensitized, in particular, to the image border areas in which colors and structures are different depending on the landscape. One of the groups can then, for example, have a gray border area for a drive through a city area and a second group stand for a green border area, as is the case when driving through a landscape.
Algorithmen zum Durchführen eines unüberwachten Lernens eines neuronalen Netzes sind an sich aus dem Stand der Technik bekannt. Durch das Gruppieren ergibt sich aber noch keine Möglichkeit, einem Bild mittels des neuronalen Netzes einen Übereinstimmungswert bezüglich eines Attraktivitätskriteriums zuzuordnen.Algorithms for performing unsupervised learning of a neural network are well known in the art. By means of grouping, however, there is still no possibility of assigning to a picture by means of the neural network a match value with regard to an attractiveness criterion.
In einem weiteren Schritt werden deshalb Beispielbilder, denen ein vorbestimmter Übereinstimmungswert zugeordnet ist, jeweils einer der Gruppen zugeordnet. Hierbei kann es sich um eine sehr geringe Anzahl von Bildern handeln, die von Personen bewertet worden sein können. Beispielsweise können Personen feststellen, dass ein Beispielbild besonders schöne landschaftliche Elemente enthält. Wird dann dieses Bild einer der Gruppen zugeordnet (in welcher sich z. B. Bilder mit grünem Randbereich befinden), so ist dann klar, dass Bilder der Bildsequenz, die durch das neuronale Netz dieser Gruppe zugeordnet werden, offenbar von einer Person als landschaftlich schön eingestuft werden. Dagegen wird ein Beispielbild, das während einer Fahrt durch ein Stadtgebiet erzeugt worden ist, von der Person nicht als landschaftlich schön eingestuft. Wird dann dieses Beispielbild einer anderen Gruppe (z. B. mit grauem Randbereich in den Bildern) zugeordnet, so wird diesem Bild ein kleinerer Übereinstimmungswert zugeordnet als einem Bild, das der Gruppe mit grünem Randbereich zugeordnet wird. Durch die Weiterbildung ergibt sich der Vorteil, dass eine Vielzahl von Trainingsbildern ohne eine Auswertung durch Bedienpersonen verarbeitet werden kann und lediglich eine verhältnismäßig zu den Trainingsbildern geringe Anzahl an Beispielbildern zum abschließenden Konfigurieren des neuronalen Netzes nötig ist. Das Verhältnis an der Anzahl an Beispielbildern zur Anzahl an Trainingsbildern kann beispielsweise weniger als 1 Prozent betragen. Hierdurch lässt sich die Analyseeinrichtung in einem automatisierten Prozess konfigurieren, der lediglich einen Eingriff von Benutzerpersonen bei dem Bestimmen des Grades der Übereinstimmung der Beispielbilder mit dem Attraktivitätskriterium erfordert.In a further step, therefore, example images to which a predetermined match value is assigned are each assigned to one of the groups. This can be a very small number of images that may have been rated by people. For example, people may find that a sample image contains beautiful scenic elements. Will this image be one of the groups It is then clear that images of the image sequence assigned by the neural network of this group are apparently classified by a person as being scenically beautiful (in which, for example, images with a green border area are located). In contrast, a sample image that has been generated during a trip through a city area, classified by the person not as scenic. If this example image is then assigned to another group (eg with a gray border area in the images), this image is assigned a smaller match value than an image that is assigned to the group with a green border area. The development results in the advantage that a large number of training images can be processed without an evaluation by operators and only a relatively small number of sample images for the final configuration of the neural network is necessary for the training images. For example, the ratio of the number of sample images to the number of training images may be less than 1 percent. This allows the analyzer to be configured in an automated process that requires only operator intervention in determining the degree of match of the example images with the attractiveness criterion.
Besonders vorteilhaft ist diese Ausführungsform im Zusammenhang mit einem Attraktivitätskriterium, das sich auf subjektive, von zumindest einer Person bereitzustellende Einschätzungen eines ästhetischen Empfindens beziehen. Die Beispielbilder werden somit bei einer entsprechenden Weiterbildung jeweils mit einer subjektiven, von zumindest einer Person bereitgestellten Einschätzung einer in dem Beispielbild dargestellten Fahrstrecke bereitgestellt. Es erfolgt also eine Einschätzung in Bezug auf das Attraktivitätskriterium. Die Einschätzung gibt insbesondere eine landschaftliche Schönheit oder eine architektonische Schönheit oder einen Grad der Abgeschiedenheit der Fahrstrecke an. Beispielsweise kann die Einschätzung also besagen, dass die in dem Beispielbild dargestellte Fahrstrecke landschaftlich sehr schön oder nicht schön ist. Insbesondere kann auch eine Einteilung gemäß einer Skala erfolgen, also ein Wert für den zu beurteilenden oder einzuschätzenden subjektiven Eindruck. Beispielsweise kann die Person der Fahrstrecke für das Attraktivitätskriterium „landschaftlich schön” einen Wert in einem Bereich von 0 bis 100 Prozent zuteilen.This embodiment is particularly advantageous in connection with an attractiveness criterion which relates to subjective assessments of an aesthetic sensibility to be provided by at least one person. The example images are thus provided in a corresponding development each with a subjective, provided by at least one person assessment of a route shown in the example image. Thus, an assessment is made with respect to the attractiveness criterion. The assessment indicates in particular a scenic beauty or an architectural beauty or a degree of seclusion of the route. For example, the assessment may therefore say that the route shown in the example image is very scenic or not beautiful. In particular, a classification according to a scale can also be made, that is, a value for the subjective impression to be assessed or estimated. For example, the person may assign a value in the range of 0 to 100 percent for the attractiveness criterion "beautiful landscape".
Gemäß einer Weiterbildung der Erfindung wird aus dem Bewertungssignal ein Gesamtwert für die Fahrstrecke berechnet. Es kann sich hierbei beispielsweise um einen arithmetischen oder geometrischen Mittelwert des Bewertungssignals handeln. Es kann auch beispielsweise das gemittelte Bewertungssignal dann noch in Intervalle unterteilt werden, um beispielsweise eine Zugehörigkeitsstufe (beispielsweise 3 von 5 Sternen) zu dem Attraktivitätskriterium anzugeben. Durch Bereitstellen eines einzelnen Gesamtwerts für die gesamte Fahrstrecke ergibt sich der Vorteil, dass beim Vergleichen mehrerer Fahrstrecken ein besonders geringer Berechnungsaufwand entsteht.According to one embodiment of the invention, a total value for the route is calculated from the evaluation signal. This may be, for example, an arithmetic or geometric mean value of the evaluation signal. It is also possible, for example, to subdivide the averaged evaluation signal into intervals, for example to specify a membership level (for example 3 out of 5 stars) for the attractiveness criterion. By providing a single total value for the entire route, there is the advantage that when comparing multiple routes a particularly low computational effort arises.
Gemäß einer Weiterbildung der Erfindung wird ein Maximalbereich des Bewertungssignals detektiert. In dem Maximalbereich ist zumindest einer der Übereinstimmungswerte des Bewertungssignals, also eine Amplitude des Bewertungssignals, größer als ein vorbestimmter Schwellenwert. Aus der Bildsequenz wird dann zumindest ein zu dem Maximalbereich korrespondierendes Bild der Bildsequenz ermittelt und ausgegeben. Mit anderen Worten wird in Abhängigkeit von der Abspieldauer entweder ein Videosignal aus mehreren Bildern oder nur ein einzelnes Bild ausgegeben, wobei die Bilder jeweils gemäß dem Bewertungssignal mit dem Attraktivitätskriterium einen Übereinstimmungswert aufweisen, der größer als der Schwellenwert ist. Es wird also in dem Bewertungssignal ein lokales Maximum oder das globale Maximum ermittelt und das zumindest eine Bild aus diesem Maximalbereich ausgegeben. Der Benutzer erhält dann zumindest ein Bild der Bildsequenz, das besonders repräsentativ in Bezug auf das Attraktivitätskriterium ist. Hierdurch ergibt sich der Vorteil, dass in automatisierter Form ein besonders aussagekräftiges Bild der Bildsequenz oder einen aussagekräftigen Filmausschnitt aus der Bildsequenz bereitgestellt wird.According to one embodiment of the invention, a maximum range of the evaluation signal is detected. In the maximum range, at least one of the coincidence values of the evaluation signal, that is to say an amplitude of the evaluation signal, is greater than a predetermined threshold value. At least one image of the image sequence corresponding to the maximum area is then determined and output from the image sequence. In other words, depending on the playing time, either one video signal is output from a plurality of pictures or only a single picture, the pictures each having a matching value which is greater than the threshold value in each case in accordance with the rating signal with the attractiveness criterion. Thus, a local maximum or the global maximum is determined in the evaluation signal and the at least one image is output from this maximum range. The user then obtains at least one image of the image sequence which is particularly representative of the attractiveness criterion. This has the advantage that a particularly meaningful image of the image sequence or a meaningful film excerpt from the image sequence is provided in an automated form.
Gemäß einer Weiterbildung der Erfindung wird zu den Bildern der Bildsequenz jeweils zusätzlich ein anhand eines vorbestimmten Qualitätsmaßes festgelegter Qualitätswert einer optischen Qualität des Bildes erzeugt. Das Qualitätsmaß kann beispielsweise ein Signal-zu-Rausch-Verhältnis und/oder eine Bildschärfe angeben. Die Bildschärfe und das Signal-zu-Rausch-Verhältnis können in an sich bekannter Weise ermittelt werden. Es kann auch ein Maß für eine Verdeckung durch ein vorausfahrendes Fahrzug ermittelt werden. Alternativ dazu kann mittels eines weiteren neuronalen Netzes in der beschriebenen Weise für jedes der genannten Bilder ein Qualitätswert ermittelt werden, wobei hier wieder Trainingsbilder und Beispielbilder zum Ermöglichen eines unbeaufsichtigten Lernens und anschließenden Konfigurierens zugrundegelegt werden können. Die Qualitätswerte der Bilder werden dann zu einem Qualitätssignal kombiniert. Ist nun ein Maximalbereich des Bewertungssignals ermittelt worden, so kann das zumindest eine Bild aus dem Maximalbereich zusätzlich in Abhängigkeit von dem Qualitätssignal ermittelt werden. Hierdurch ergibt sich der Vorteil, dass das zumindest eine zum Maximalbereich korrespondierende Bild auch hinsichtlich der Bildqualität ausgewählt wird. Somit kann sichergestellt werden, dass das ausgegebene Bild eine vorbestimmte Mindestqualität aufweist, also z. B. eine freie Sicht auf die Umgebung dargestellt ist.According to a development of the invention, a quality value of an optical quality of the image determined in each case additionally on the basis of a predetermined quality measure is additionally generated for the images of the image sequence. The quality measure can specify, for example, a signal-to-noise ratio and / or a sharpness. The image sharpness and the signal-to-noise ratio can be determined in a manner known per se. It can also be determined a measure of a cover by a preceding vehicle. Alternatively, by means of a further neural network in the manner described, a quality value can be determined for each of the aforementioned images, whereby again training images and sample images for enabling unattended learning and subsequent configuration can be used as a basis. The quality values of the images are then combined to form a quality signal. If a maximum range of the evaluation signal has now been determined, then the at least one image from the maximum range can additionally be determined as a function of the quality signal. This results in the advantage that the at least one image corresponding to the maximum area is also selected with regard to the image quality. Thus, it can be ensured that the output image is a predetermined one Has minimum quality, ie z. B. a clear view of the environment is shown.
Eine Weiterbildung der Erfindung betrifft die Frage, ob aus dem Maximalbereich ein Einzelbild oder ein Videosignal ausgewählt werden soll. Hierzu wird gemäß der Weiterbildung eine Abspieldauer desjenigen Teils der Bildsequenz, für welchen das Bewertungssignal den Maximalbereich aufweist, ermittelt. Beispielsweise wird die Anzahl der in dem Maximalbereich bereitgestellten oder zur Verfügung stehenden Bilder der Bildsequenz ermittelt. Es kann auch auf der Grundlage der Videodaten eine Abspieldauer in Bezug auf eine normale Abspielgeschwindigkeit ermittelt werden. In Abhängigkeit von der ermittelten Abspieldauer wird entweder der Teil der Bildsequenz, also ein Videosignal, oder nur ein einzelnes Bild aus dem Teil ausgegeben. Hierdurch ergibt sich der Vorteil, dass keine unerwünscht kurzen Videosignale präsentiert werden, die von einem menschlichen Betrachter mental nicht verarbeitet werden können. Hier ist es sinnvoller, ein Standbild oder ruhendes Einzelbild bereitzustellen, das die Person betrachten kann.A development of the invention relates to the question of whether a single image or a video signal should be selected from the maximum range. For this purpose, according to the development, a playing time of that part of the picture sequence for which the evaluation signal has the maximum range is determined. By way of example, the number of images of the image sequence provided or available in the maximum range is determined. It can also be determined based on the video data, a playback time with respect to a normal playback speed. Depending on the determined playback time either the part of the image sequence, ie a video signal, or only a single image is output from the part. This has the advantage that no undesirably short video signals are presented, which can not be mentally processed by a human observer. Here it makes more sense to provide a still or static still image that the person can look at.
Gemäß einer Weiterbildung der Erfindung wird das Bewertungssignal als eine Funktion der Tageszeit und/oder der Jahreszeit und/oder des Wetters gebildet. Mit anderen Worten wird der Übereinstimmungswert zusammen mit der Information bereitgestellt, dass diese Übereinstimmung zu einer vorbestimmten Tageszeit und/oder Jahreszeit und/oder bei einem vorbestimmten Wetter ermittelt wurde. Beispielsweise kann das Attraktivitätskriterium „landschaftliche Schönheit” im Sommer oder im Winter ermittelt worden sein und hierbei zu unterschiedlichen Übereinstimmungswerten der Bilder mit dem Attraktivitätskriterium führen.According to one embodiment of the invention, the evaluation signal is formed as a function of the time of day and / or the season and / or the weather. In other words, the coincidence value is provided along with the information that this match was determined at a predetermined time of day and / or season and / or at a predetermined weather. For example, the attractiveness criterion "scenic beauty" may have been determined in summer or in winter, leading to different match values of the images with the attractiveness criterion.
Gemäß einer Weiterbildung der Erfindung wird in der beschriebenen Weise zu mehreren Fahrstrecken jeweils ein Bewertungssignal erzeugt. Im Zusammenhang mit einer Navigationsassistenz wird zumindest eine Fahrstrecke, die zu einem vorgegebenen Navigationsziel führt, ermittelt. Dem Benutzer wird zu jeder ermittelten Fahrstrecke auf der Grundlage des jeweiligen Bewertungssignals ein Hinweis betreffend das Attraktivitätskriterium ausgegeben. Es kann dann beispielsweise eine Auswahl einer der Fahrstrecken empfangen werden, die z. B. der Benutzer eingibt. Es kann auch vorgesehen sein, dass der Benutzer das Attraktivitätskriterium auswählt und als Fahrstrecke für die Navigationsassistenz dann diejenige ausgewählt wird, welche gemäß ihrem Bewertungssignal das Attraktivitätskriterium ab besten erfüllt, also z. B. den größten Gesamtwert aufweist. Durch die Weiterbildung ergibt sich der Vorteil, dass eine Navigationsassistenz bereitgestellt wird, welche auch subjektive und/oder emotionale Kriterien, nämlich das Attraktivitätskriterium, berücksichtigt.According to one embodiment of the invention, an evaluation signal is generated in each case in the manner described for several routes. In connection with a navigation assistance, at least one route that leads to a predefined navigation destination is determined. The user is given an indication of the attractiveness criterion for each determined route on the basis of the respective evaluation signal. It can then be received, for example, a selection of the routes, the z. B. the user enters. It can also be provided that the user selects the attractiveness criterion and then selects as the route for the navigation assistance that which according to its evaluation signal satisfies the attractiveness criterion from the best, that is to say, for example. B. has the largest total value. The development results in the advantage that a navigation assistance is provided, which also takes into account subjective and / or emotional criteria, namely the attractiveness criterion.
Das erfindungsgemäße Verfahren kann durch eine Recheneinrichtung für das Internet durchgeführt werden. Durch diese Recheneinrichtung können somit dieselben Vorteile verwirklicht werden wie durch das Verfahren.The inventive method can be performed by a computing device for the Internet. By this computing means thus the same advantages can be realized as by the method.
Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:In the following an embodiment of the invention is described. This shows:
Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiment explained below is a preferred embodiment of the invention. In the exemplary embodiment, the described components of the embodiment each represent individual features of the invention that are to be considered independently of one another, which also each independently further develop the invention and thus also individually or in a different combination than the one shown as part of the invention. Furthermore, the described embodiment can also be supplemented by further features of the invention already described.
In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference numerals.
Hierzu erzeugt jedes Kraftfahrzeug
Die Videodaten
In
Das Qualitätssignal
In
In dem Kraftfahrzeug
Das Navigationssystem
Für die weitere Erläuterung des Beispiels sei angenommen, dass das Bewertungssignal
In
In einem Schritt S2 wird das trainierte neuronale Netz
In einem Schritt S4 kann in vergleichbarer Weise ein weiteres neuronales Netz
In einem Schritt S6 wird dann durch die Analyseeinrichtung
In einem Schritt S9 kann durch das Navigationssystem
Durch das Beispiel ist gezeigt, wie die Recheneinrichtung
Für lokale Maxima der Bewertungssignale zu den Attraktivitätskriterien können Einzelbilder oder kurze Videoclips an der entsprechenden Position in den Videosequenzen oder Bildsequenzen extrahiert werden. Handelt es sich bei einem Maximum um einen kurzen Ausschlag, sollte ein Einzelbild extrahiert werden, bei einem plateauartigen Ausschlag sollte ein kurzer Videoclip extrahiert werden. Ein kurzer Ausschlag kann in der beschriebenen Weise definiert werden.For local maxima of the evaluation criteria for the attractiveness criteria, single images or short video clips can be extracted at the corresponding position in the video sequences or image sequences. If a maximum is a short rash, a frame should be extracted, a plateau-like rash should extract a short video clip. A short rash can be defined in the manner described.
Für sämtliche Videoaufnahmen sollte auch der Wert für die optische Qualität des Bildmaterials durch ein Verfahren für maschinelles Lernen, wie bereits beschrieben, extrahiert werden. Dieses Signal sollte bei der Extraktion von Einzelbildern dazu verwendet werden, um das optisch ansprechendste Einzelbild um einen Maximalbereich im Bewertungssignal herum zu identifizieren, und genau dieses Einzelbild extrahieren. Möchte sich ein Fahrer über die verschiedenen möglichen Fahrrouten zu einem Fahrziel informieren, bezieht sein Fahrzeug die extrahierten Bilder und Attraktivitätskriterien aus der Recheneinrichtung
Für die Erstellung der Routenbewertung und Routenvorschau ist nach einer einmaligen Einrichtung keine menschliche Arbeit mehr nötig. Die Videoaufnahmen können von Fahrzeugen nebenbei während normaler Fahrten aufgezeichnet werden. Da die Aufzeichnung der benötigten Daten nebenbei erfolgen kann, kann über die Zeit eine Bewertung und Vorschau für jede Fahrstrecke, die von entsprechend ausgestatteten Kraftfahrzeugen befahren wird, erstellt werden. Es ergibt sich mittelfristig automatisch eine sehr hohe Streckenabdeckung. Das beschriebene Verfahren läuft vollkommen automatisch ab und erfordert, auch für die Durchführung des maschinellen Lernens selbst, nur einen begrenzten Aufwand an Ressourcen und Finanzen.For the creation of the route evaluation and route preview after a one-time setup no human work is necessary. The video recordings can be recorded by vehicles incidentally during normal rides. Since the recording of the required data can take place incidentally, over the time a rating and preview for each route, which is traveled by appropriately equipped vehicles, can be created. In the medium term, there is automatically a very high route coverage. The described method is completely automatic and requires only a limited amount of resources and finances, also for the implementation of machine learning itself.
Die Mitglieder des Fahrzeugschwarms zeichnen mit Hilfe der Kameras Bilder vom Streckenverlauf einzelner Fahrstrecken auf und senden die Videodaten über ein Funkmodul zu einem zentralen Server. Nachdem genügend Videodaten auf dem Server gesammelt wurde, wird auf dem Server das Training eines Verfahrens für maschinelles Lernen initiiert. Das Lernverfahren, zum Beispiel ein tiefes neuronales Netz, muss ein ausreichend großes Abstraktionsvermögen erreichen können, um Bildelemente jedes Bildes soweit zusammenzufassen, dass ein Übereinstimmungswert für eines der beschriebenen Attraktivitätskriterien, wie zum Beispiel landschaftliche Schönheit, zusammengefasst werden. In der Trainingsphase soll die verwendete Analyseeinrichtung ohne zusätzliche Informationen, das heißt mittels unüberwachten Lernens, von Trainingsbildern lernen. Danach werden der Analyseeinrichtung von Menschen für das jeweilige Attraktivitätskriterium bewertete Beispielbilder zur Verfügung gestellt. Mit Hilfe dieser Beispielbilder kann die Analyseeinrichtung die in der Trainingsphase abstrahierten Muster einem Übereinstimmungswert zuordnen. Nachdem das Training und die Zuordnung erfolgt sind, kann die Analyseeinrichtung sämtliche zur Verfügung stehende Videodaten sowie später eingehende Videodaten in Bezug auf die vorgegebenen Attraktivitätskriterien bewerten.The members of the vehicle swarm use the cameras to record images of the route of individual routes and send the video data via a radio module to a central server. After sufficient video data has been collected on the server, the training of a machine learning method is initiated on the server. The learning process, for example, a deep neural network, must be able to achieve a sufficiently high level of abstraction in order to summarize picture elements of each picture so far that a match value for one of the described attractiveness criteria, such as, for example, scenic beauty, is summarized. In the training phase, the analysis device used is to learn from training images without additional information, that is, by means of unsupervised learning. Thereafter, the analysis device is provided by humans for the particular attractiveness criterion evaluated example images. Using these sample images, the analysis device can assign the patterns abstracted in the training phase to a match value. After the training and the assignment have been made, the analysis device can evaluate all available video data as well as later incoming video data with respect to the given attractiveness criteria.
Auf dieselbe Art sollte hinsichtlich der Bildqualität beispielsweise ein weiteres neuronales Netz trainiert werden. Sämtliche Videoaufnahmen sollten damit ebenfalls ausgewertet werden, sodass sich jeweils ein zusätzliches Qualitätssignal
Insgesamt zeigt das Beispiel, wie durch die Erfindung ein Verfahren zur automatischen Routenbewegung und Erstellung einer Routenvorschau bereitgestellt werden kann. Overall, the example shows how the invention can provide a method for automatic route movement and creation of a route preview.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2006/0271286 A1 [0001] US 2006/0271286 A1 [0001]
- WO 2014/054288 A1 [0003] WO 2014/054288 A1 [0003]
- US 2009/0171568 A1 [0004] US 2009/0171568 A1 [0004]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015007145.9A DE102015007145A1 (en) | 2015-06-03 | 2015-06-03 | Method for automatic route evaluation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015007145.9A DE102015007145A1 (en) | 2015-06-03 | 2015-06-03 | Method for automatic route evaluation |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015007145A1 true DE102015007145A1 (en) | 2016-12-08 |
Family
ID=57352606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015007145.9A Pending DE102015007145A1 (en) | 2015-06-03 | 2015-06-03 | Method for automatic route evaluation |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015007145A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017215718A1 (en) | 2017-09-07 | 2019-03-07 | Audi Ag | Method for evaluating an optical appearance in a vehicle environment and vehicle |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CH176381A (en) * | 1934-11-01 | 1935-04-15 | Hallwag A G Hallersche Buchdru | Map with landmarks for scenic beauties. |
DE10005780A1 (en) * | 2000-02-10 | 2001-08-16 | Bosch Gmbh Robert | Route planning method for navigation system, involves setting the determined routes as high priority based on at least one evaluation criterion |
US20060271286A1 (en) | 2005-05-27 | 2006-11-30 | Outland Research, Llc | Image-enhanced vehicle navigation systems and methods |
DE102007037329A1 (en) * | 2006-08-18 | 2008-02-21 | Volkswagen Ag | Optimal driving strategy determining method for motor vehicle, involves optimizing driving strategy depending on two parameters that include route desireability for passenger of vehicle, travel time, comfort, operation cost and safety |
US20090171568A1 (en) | 2007-12-28 | 2009-07-02 | Mcquaide Jr Arnold Chester | Methods, devices, and computer program products for geo-tagged photographic image augmented gps navigation |
DE102009005259A1 (en) * | 2009-01-20 | 2010-07-22 | Bayerische Motoren Werke Aktiengesellschaft | Computer-aided method for multi-criteria optimization of route of motor vehicle, involves calculating target based on weights when user inputs release command, and outputting information about calculated target to user over output unit |
WO2014054288A1 (en) | 2012-10-03 | 2014-04-10 | 株式会社デンソー | Vehicle navigation system |
-
2015
- 2015-06-03 DE DE102015007145.9A patent/DE102015007145A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CH176381A (en) * | 1934-11-01 | 1935-04-15 | Hallwag A G Hallersche Buchdru | Map with landmarks for scenic beauties. |
DE10005780A1 (en) * | 2000-02-10 | 2001-08-16 | Bosch Gmbh Robert | Route planning method for navigation system, involves setting the determined routes as high priority based on at least one evaluation criterion |
US20060271286A1 (en) | 2005-05-27 | 2006-11-30 | Outland Research, Llc | Image-enhanced vehicle navigation systems and methods |
DE102007037329A1 (en) * | 2006-08-18 | 2008-02-21 | Volkswagen Ag | Optimal driving strategy determining method for motor vehicle, involves optimizing driving strategy depending on two parameters that include route desireability for passenger of vehicle, travel time, comfort, operation cost and safety |
US20090171568A1 (en) | 2007-12-28 | 2009-07-02 | Mcquaide Jr Arnold Chester | Methods, devices, and computer program products for geo-tagged photographic image augmented gps navigation |
DE102009005259A1 (en) * | 2009-01-20 | 2010-07-22 | Bayerische Motoren Werke Aktiengesellschaft | Computer-aided method for multi-criteria optimization of route of motor vehicle, involves calculating target based on weights when user inputs release command, and outputting information about calculated target to user over output unit |
WO2014054288A1 (en) | 2012-10-03 | 2014-04-10 | 株式会社デンソー | Vehicle navigation system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017215718A1 (en) | 2017-09-07 | 2019-03-07 | Audi Ag | Method for evaluating an optical appearance in a vehicle environment and vehicle |
WO2019048554A1 (en) | 2017-09-07 | 2019-03-14 | Audi Ag | Method for evaluating an optical appearance in the surroundings of a vehicle, and vehicle |
DE102017215718B4 (en) | 2017-09-07 | 2019-06-13 | Audi Ag | Method for evaluating an optical appearance in a vehicle environment and vehicle |
US11132560B2 (en) | 2017-09-07 | 2021-09-28 | Audi Ag | Method for evaluating an optical appearance in the surroundings of a vehicle, and vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013205950B4 (en) | Roadside detection method | |
DE102018201054A1 (en) | System and method for image representation by a driver assistance module of a vehicle | |
DE102017217056A1 (en) | Method and device for operating a driver assistance system and driver assistance system and motor vehicle | |
DE102018214510A1 (en) | Parking ticket generation on the street | |
DE102007044578A1 (en) | Device for detecting an observed object and method for detecting an observed object | |
DE102013205952A1 (en) | Reconfigurable system for detection of a clear path | |
DE102015203016A1 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102013205854B4 (en) | Method for detecting a free path using temporary coherence | |
DE102016210534A1 (en) | Method for classifying an environment of a vehicle | |
DE102012201724A1 (en) | TRAFFIC SIGNAL DETECTION DEVICE | |
DE102018111935A1 (en) | Image processing system, image processing method, information processing apparatus and recording medium | |
DE102010020298B4 (en) | Method and device for collecting traffic data from digital aerial sequences | |
DE102015211874A1 (en) | Object detection device | |
EP2813999A2 (en) | Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle | |
DE102015211871A1 (en) | Object detection device | |
DE112018005749T5 (en) | Lane marking determination device for automated driving | |
DE102015006569A1 (en) | Method for image-based recognition of the road type | |
DE102018209158B3 (en) | Method and vehicle system for optimizing parking proposals | |
DE102015007145A1 (en) | Method for automatic route evaluation | |
DE102016124888A1 (en) | A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device | |
DE102015216352A1 (en) | Method for detecting a possible collision of a vehicle with a pedestrian on the basis of high-resolution recordings | |
DE102013211028A1 (en) | Method and system for locating one or more persons by a vehicle | |
DE102018132627A1 (en) | Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product | |
WO2014146864A1 (en) | Method and apparatus for creating a recording of an object which lights up in a pulsed manner | |
DE102006060612B4 (en) | Method for monitoring target objects and multispectral camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R082 | Change of representative |
Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE |
|
R002 | Refusal decision in examination/registration proceedings | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06V0030190000 Ipc: G06V0020560000 |
|
R006 | Appeal filed | ||
R008 | Case pending at federal patent court |