[go: up one dir, main page]

DE102020120469A1 - Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet - Google Patents

Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet Download PDF

Info

Publication number
DE102020120469A1
DE102020120469A1 DE102020120469.8A DE102020120469A DE102020120469A1 DE 102020120469 A1 DE102020120469 A1 DE 102020120469A1 DE 102020120469 A DE102020120469 A DE 102020120469A DE 102020120469 A1 DE102020120469 A1 DE 102020120469A1
Authority
DE
Germany
Prior art keywords
output sequence
image
analysis device
sequence
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020120469.8A
Other languages
English (en)
Inventor
Serge Volodarski
Simon Brandl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102020120469.8A priority Critical patent/DE102020120469A1/de
Publication of DE102020120469A1 publication Critical patent/DE102020120469A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Bildmontage-Verfahren. Eine Filmanalyseeinrichtung (10) stellt eine Mediendatei (22) mit einer vorgegebenen Ausgabereihenfolge von mindestens zwei Ausgabesequenzen fest und stellt Abspieldaten bereit, die zu mehr als einer der Ausgabesequenzen jeweils ein Nutzerverhalten eines Benutzers der Abspieleinrichtung (18) beim Abspielen der bereitgestellten Mediendatei (22) beschreiben. Anhand der Abspieldaten ordnet die Filmanalyseeinrichtung (10) jeder Ausgabesequenz einen Aufmerksamkeits-Wert zu, welcher einen Grad einer Aufmerksamkeit des Benutzers repräsentiert (S2). Die Filmanalyseeinrichtung (10) gibt mindestens eine Ausgabesequenz als zu ändernde Ausgabesequenz vor (S7), und legt zu dieser Ausgabesequenz einen derart geänderten Bildinhalt mit mindestens einem geänderten Bildsequenzparameter fest, sodass der geänderte Bildinhalt den Grad der Aufmerksamkeit erhöht (S8). Die Filmanalyseeinrichtung (10) stellt einer Empfangseinrichtung (26) ein Bildmontagesignal bereit (S9), das ein Ändern des Bildsequenzparameters beschreibt, sowie die geänderte Ausgabesequenz mit dem geänderten Bildinhalt (S10). Die Filmanalyseeinrichtung (10) ersetzt in der Mediendatei (22) die zu ändernde Ausgabesequenz durch die geänderte Ausgabesequenz.

Description

  • Die Erfindung betrifft ein Verfahren zum Bereitstellen einer Bildmontage, also einer Bildserie oder eines Films. Mit anderen Worten betrifft die Erfindung ein Bildmontageverfahren.
  • Um zum Beispiel ein Kraftfahrzeug zu verkaufen, wird üblicherweise ein Inserat, ein Bild oder ein Video erstellt und auf einer Fahrzeugverkaufsplattform hochgeladen.
  • Die US 2017/0270580 A1 beschreibt eine Datenplattform, die ein Maschinelles-Lernen-Modell umfassen kann, welches indikativ ist für eine Neigung eines Käufers, ein bestimmtes Kraftfahrzeug einer Mehrzahl von Kraftfahrzeugen, die zum Verkauf sind, zu kaufen.
  • Die US 2015/0348589 A1 beschreibt einen digitalen Video-Showroom, der eine interaktive Videoplattform zum Recherchieren, Einkaufen und Vergleichen von Konsumprodukten und Dienstleistungen ist.
  • Aus der US 2019/0095963 A1 ist ein elektronisches System bekannt zum Bestimmen eines Status von mindestens einem zum Verkauf angebotenen Kraftfahrzeug.
  • Nachteilig ist bisher, dass Anzeigen starr sind und nur durch den aktiven Einsatz des Anzeigenerstellers verändert werden können. Jeder Benutzer sieht die gleiche Anzeige, und jeder Betrachter sieht den kompletten Inhalt einer Anzeige. Zuschauer haben jedoch unterschiedliche Schwerpunkte, das heißt, sie interessieren sich für unterschiedliche Details. Manche Interessenten sind sehr Technik-begeistert, andere legen mehr Wert auf Design. Dadurch können manche Szenen langweilig oder uninteressant sein, insbesondere wenn derjenige, der den Film gedreht hat, generell nur weniger interessante Informationen durch die Mediendatei gibt.
  • Eine der Erfindung zugrunde liegende Aufgabe ist das Verbessern einer Qualität einer Mediendatei für mindestens einen Zuschauer.
  • Die gestellte Aufgabe wird durch das erfindungsgemäße Verfahren und die erfindungsgemäßen Vorrichtungen gemäß der nebengeordneten Patentansprüche gelöst. Vorteilhafte Weiterbildungen sind durch die Unteransprüche gegeben.
  • Die Erfindung basiert auf der Idee, das Verhalten eines Zuschauers beim Anschauen einer Mediendatei, die eine Bildserie oder einen Videofilm beschreibt, zu analysieren, und darauf basierend den Ausgabeinhalt zu ändern. Mit anderen Worten wird eine Ausgabesequenz analysiert in Zusammenhang mit einer Reaktion eines Betrachters. Dies kann „online“ oder „on the fly“ für die aktuellen Benutzer geschehen, also während der Benutzer beispielhaft einen Film schaut. Es ist aber auch möglich, über einen längeren Zeitraum hinweg das Verhalten einer Vielzahl von Zuschauern zu analysieren und daraufhin für zukünftige (oder den aktuellen) Benutzer den Ausgabeinhalt neu zu gestalten. Eine inhaltliche Qualität des Ausgabeinhalts sowie eine filmische Qualität können somit sehr effizient gesteigert werden. Dadurch kann der richtige Inhalt für den richtigen Betrachter zur richtigen Zeit und in der richtigen „Menge“ oder „Dosierung“ ausgegeben werden.
  • Die Wahrscheinlichkeit, dass ein Betrachter gelangweilt ist, wird deutlich reduziert. Für den Betrachter ergibt sich vorteilhaft, dass der für ihn zugeschnittene Ausgabeinhalt für ihn einfach, interessant und schnell erfassbar ist und der Betrachter so einen größeren Nutzen aus dem Ausgabeinhalt ziehen kann. Für den Ersteller der Mediendatei, also zum Beispiel einen Verkäufer eines Kraftfahrzeugs, ist vorteilhaft, dass er mehrere Interessenten für sein Anliegen gewinnen kann und die Chancen beim Verkauf des Kraftfahrzeugs steigen.
  • Das erfindungsgemäße Verfahren zum Bereitstellen einer Bildmontage wird durch eine Filmanalyseeinrichtung durchgeführt. Unter einer Bildmontage wird eine Montage von statischen oder bewegten Bildern verstanden, also eine Fotomontage und/oder eine Filmmontage. Bei der Bildmontage handelt es sich vorzugsweise um eine Filmmontage, also einen Filmschnitt, mit anderen Worten die Auswahl, Bearbeitung und Strukturierung von aufgenommenem Bildmaterial, um einem Film eine andere Form zu geben. Idealerweise wird dabei auch Tonmaterial bearbeitet.
  • Die Filmanalyseeinrichtung kann auch als Bildanalyseeinrichtung bezeichnet werden und kann zum Beispiel einen Datenspeicher aufweisen, in dem ein Programm für Bildanalyse gespeichert ist. Die Filmanalyse kann zum Beispiel als Steuerchip oder Steuergerät ausgestaltet sein.
  • Gemäß dem Verfahren stellt die Filmanalyseeinrichtung eine Mediendatei fest, also eine Datei, die eine Bildserie und/oder einen Videofilm mit einer vorgegebenen Ausgabereihenfolge von mindestens zwei Ausgabesequenzen beschreibt. Jede der Ausgabesequenzen hat dabei einen Bildinhalt. Eine Ausgabesequenz beschreibt eine Gruppe aus inhaltlich aufeinanderfolgenden Bild- und/oder Filmeinstellungen, also eine inhaltlich zusammenhängende Serie von Einzelbildern, ist also zum Beispiel eine Filmszene. Vorzugsweise kann die Filmanalyseeinrichtung die Mediendatei feststellen, während die Mediendatei von einer Abspieleinrichtung bereitgestellt oder sogar gerade abgespielt wird.
  • Unter einer Abspieleinrichtung wird eine Gerätekomponente oder eine Gerätegruppe verstanden, die zum Abspielen von Mediendateien mit Bildinhalten ausgestaltet ist. Die Abspieleinrichtung kann zum Beispiel ein Videogerät, ein anderes Bildausgabegerät, ein Bildschirm oder ein Datenserver sein, der die Mediendatei auf einem Bildschirm, auf dem der Datenserver über das Internet verbunden ist, abspielen kann, oder den Ausgabeinhalt an den Bildschirm übertragen kann.
  • Die Filmanalyseeinrichtung stellt Abspieldaten bereit, die zu mehr als einer der Ausgabesequenzen jeweils ein Nutzerverhalten eines Benutzers der Abspieleinrichtung beim Abspielen der bereitgestellten Mediendatei beschreiben. Vorzugsweise beschreiben die bereitgestellten Abspieldaten zu allen der Ausgabesequenzen jeweils ein Nutzerverhalten des Benutzers. Die Abspieldaten können also zum Beispiel beschreiben, wie viele Benutzer die Szene anschauen, ob der Benutzer eine Ausgabesequenz vorspult oder abbricht, oder ob der Benutzer ein sehr aufmerksames oder gelangweiltes Verhalten zeigt, zum Beispiel wegschaut oder weggeht. Das Verhalten des Benutzers kann zum Beispiel über Körpersprache und Gesichtsmimik erfasst werden, wobei die Abspieldaten zum Beispiel Kameradaten beschreiben können. Mit anderen Worten beschreiben die Abspieldaten ein Abspielverhalten des Benutzers, also ob und/oder wie die jeweilige Ausgabesequenz vom Benutzer abgespielt wird/wurde oder wahrgenommen wird/wurde.
  • Anhand der bereitgestellten Abspieldaten ordnet die Filmanalyseeinrichtung jeder der durch die Abspieldaten beschriebenen Ausgabesequenzen in Abhängigkeit von dem jeweiligen Nutzerverhalten einen Aufmerksamkeits-Wert zu, welcher einen Grad einer Aufmerksamkeit des Nutzers gegenüber der jeweiligen Ausgabesequenz repräsentiert. Beschreiben die Abspieldaten zum Beispiel Kameradaten, die beschreiben, dass der Benutzer während der Filmszene wegschaut oder weggeht, oder dass ihm die Augenlider zufallen, kann die Filmanalyseeinrichtung dieser Szene einen sehr geringen Aufmerksamkeits-Wert zuordnen. Dies kann ebenfalls der Fall sein, falls die Abspieldaten beschreiben, dass der Nutzer - oder viele Nutzer an diesem Tag - bei dieser Filmszene vorspulen oder den Film abbrechen. Ein hoher Aufmerksamkeits-Wert kann jedoch zugeordnet werden, falls der oder die Benutzer die Szene noch einmal anschauen oder gezielt diese Szene auswählen oder die Szene bis zu Ende anschauen.
  • Die Filmanalyseeinrichtung zerteilt die Bildserie oder den Videofilm also in die Ausgabesequenzen. Diese Ausgabesequenzen werden dann bewertet in Abhängigkeit davon, wie der Benutzer sich verhält. Die einzelnen Szenen werden also nicht objektiv beurteilt, sondern benutzerspezifisch. Dies kann optional gekoppelt werden mit einer Tageszeit, so dass der Aufmerksamkeits-Wert nach einer Auswertung einer bestimmten Tageszeit zugeordnet werden kann. So können zum Beispiel lange Szenen abends nach der Arbeit beliebter sein, weil die Betrachter sehr viel mehr Zeit haben, sich den ganzen Film anzuschauen. Um die Mittagszeit können jedoch nur diejenigen Ausgabesequenzen interessant sein, die kurz und prägnant viele Informationen liefern.
  • Die Filmanalyseeinrichtung kann mindestens eine Ausgabesequenz, deren zugeordneter Aufmerksamkeits-Wert ein vorgegebenes Ablehnungskriterium erfüllt, als zu ändernde Ausgabesequenz vorgeben. Zu der vorgegebenen zu ändernden Ausgabesequenz legt die Filmanalyseeinrichtung einen derart geänderten Bildinhalt mit mindestens einem geänderten Bildsequenzparameter fest, so dass der geänderte Bildinhalt den Grad der Aufmerksamkeit erhöht. Es kann also zum Beispiel prädiziert werden, dass ein Erhöhen der Helligkeit der Ausgabesequenz oder ein deutliches Kürzen der Ausgabesequenz sehr wahrscheinlich dazu führen kann, dass der oder die Benutzer beim Anschauen der geänderten Ausgabesequenz mit dem geänderten Bildsequenzparameter aufmerksamer sind. Mit anderen Worten sucht die Filmanalyseeinrichtung aufgrund der Bewertung nach einer Lösung, um eine allgemeine Bewertung der Mediendatei zu erhöhen, indem „uninteressante“ Ausgabesequenzen verbessert werden.
  • Das vorgegebene Ablehnkriterium kann vorzugsweise ein Unterschreiten eines vorgegebenen Mindestwerts des Grads der Aufmerksamkeit durch den zugeordneten Aufmerksamkeits-Wert vorgeben. Zum Selektieren der zu ändernden Ausgabesequenzen kann die Filmanalyseeinrichtung optional anhand des zugeordneten Aufmerksamkeits-Werts prüfen, welche der Ausgabesequenzen das vorgegebene Ablehnkriterium erfüllt.
  • Die Filmanalyseeinrichtung stellt ein Bildmontagesignal bereit, welches ein Ändern des Bildparameters zum Bereitstellen des geänderten Bildinhalts in der zu ändernden Ausgabesequenz beschreibt und überträgt das erzeugte Bildmontagesignal an eine Empfangseinrichtung. Unter der Empfangseinrichtung wird eine Gerätegruppe, ein Gerät oder eine Gerätkomponente verstanden, die zur Datenkommunikation eingerichtet ist und Signale auswerten kann. Die Empfangseinrichtung kann zum Beispiel ein mobiles Endgerät sein, zum Beispiel ein Smartphone des Erstellers der Mediendatei, oder eine Komponente der Filmanalyseeinrichtung.
  • Die Filmanalyseeinrichtung stellt die geänderte Ausgabesequenz, also zum Beispiel die Filmszene, die noch einmal unter verbesserter Beleuchtung gedreht wurde und zum Beispiel von dem Ersteller der Mediendatei mit seinem Smartphone angefertigt und an die Filmanalyseeinrichtung übertragen wurde, bereit. Bei diesem Beispiel kann die Filmanalyseeinrichtung die geänderte Ausgabesequenz also empfangen. Ist die Empfangseinrichtung eine Komponente der Filmanalyseeinrichtung, kann das Bereitstellen der geänderten Ausgabesequenz durch das Erzeugen der geänderten Ausgabesequenz durch zum Beispiel eine digitale Aufhellung der zu ändernden Ausgabesequenz durch die Filmanalyseeinrichtung erfolgen.
  • Die Filmanalyseeinrichtung ersetzt in der Mediendatei die zu ändernde Ausgabesequenz durch die geänderte Ausgabesequenz. Es ergeben sich die oben genannten Vorteile, da die Qualität des Ausgabeinhalts der Mediendatei deutlich erhöht wurde.
  • Vorzugsweise kann die Filmanalyseeinrichtung die bereitgestellten Abspieldaten an eine Deep-Learning-Engine übertragen. Eine Deep-Learning-Engine („Deep-Learning-Einrichtung“) ist ein Gerät, eine Gerätekomponente oder ein Programm, welches sogenanntes Deep-Learning (sogenanntes tiefgehendes Lernen, maschinelles Lernen) auf eine Vielzahl von Daten anwenden kann. Mit anderen Worten ist die Deep-Learning-Engine eine hochentwickelte Einrichtung zum Durchführen von tiefgehendem Lernen, also eine Umsetzung von künstlicher Intelligenz. Mit anderen Worten sind sowohl künstliche Intelligenz als Maschinenlernen und tiefgehendes Lernen mittels der Deep-Learning-Engine umsetzbar. Die Deep-Learning-Engine kann beispielsweise als tiefgehendes, künstliches neuronales Netz ausgebildet und/oder ausgestaltet sein. Mit anderen Worten kann die Deep-Learning-Engine dazu eingerichtet sein, mittels einer Methode des maschinellen Lernens eine Vielzahl von Erfahrungswerten und/oder Trainingsdaten, die auch als Trainierdatensatz bezeichnet werden können, oder ein Dataset nach einem vorbestimmten Algorithmus und anhand der bereits gespeicherten Vielzahl von Erfahrungswerten auszuwerten, beispielsweise über eine darin enthaltene Logik, zum Beispiel eine Korrelation. Hierdurch können auch weitere logische Verknüpfungen in der Deep-Learning-Engine erstellt werden.
  • Erfahrungswerte oder Trainingsdaten können dabei zum Beispiel zu einer Vielzahl von Abspieldaten - also auch zu einer Vielzahl von unterschiedlichen Nutzerverhalten - und/oder bereits zugeordnete Aufmerksamkeits-Werte dann zu Werten von Bildsequenzparametern, die den Grad der Aufmerksamkeit erhöhen (also dazu geeignet sind, den Grad der Aufmerksamkeit zu erhöhen), statistisch zusammengefasst sein.
  • Die Filmanalyseeinrichtung kann bei dieser Ausführungsform des erfindungsgemäßen Verfahrens die Deep-Learning-Engine betreiben, so dass durch die Deep-Learning-Engine zu einer Vielzahl von Nutzerverhalten und/oder Aufmerksamkeits-Werte Werte von Bildsequenzparametern, die den Grad der Aufmerksamkeit erhöhen, statistisch zusammengefasst sind. Die Filmanalyseeinrichtung kann die Deep-Learning-Engine weiter dazu betreiben, die durch die bereitgestellten Abspieldaten beschriebenen Nutzerverhalten und/oder die bereits zugeordneten Aufmerksamkeits-Werte zu verarbeiten und hierdurch eine Aufmerksamkeitserhöhungsprognose zu ermitteln. Die Aufmerksamkeitserhöhungsprognose umfasst dabei eine Wahrscheinlichkeit, mit welcher der Benutzer (oder zukünftige Benutzer) eine geänderte Ausgabesequenz mit dem entsprechenden Bildsequenzparameter bevorzugt und ihr einen höheren Grad an Aufmerksamkeit entgegenbringt.
  • Falls die Wahrscheinlichkeit für eine Präferenz einer geänderten Ausgabesequenz mit einem durch einen geänderten Bildsequenzparameter geänderten Bildinhalt einen vorgegebenen Schaltwechsel übersteigt, legt die Filmanalyseeinrichtung mittels der Deep-Learning-Engine den geänderten Bildsequenzparameter fest, prädiziert ihn also vorzugsweise, und gibt dadurch den geänderten Bildinhalt vor. Das bereitgestellte Bildmontagesignal kann dann also das Ergebnis der Deep-Learning-Engine beschreiben.
  • Durch diese Ausführungsform des erfindungsgemäßen Verfahrens wird eine Vielfalt der möglichen Filmschnitte deutlich erhöht, und zusätzlich wird die Vielfalt für einen besonders situations- und/oder benutzerspezifischen Zweck nutzbar. Die oben genannten Vorteile steigern sich also synergistisch.
  • Die bereitgestellten Abspieldaten können vorzugsweise beschreiben, ob der Benutzer die jeweilige Ausgabesequenz vorzeitig abbricht, können zum Beispiel eine Abbruchrate als Durchschnitt mehrerer Benutzer beschreiben, eine Abbruchrate des gleichen Benutzers über mehrere Ausgabesequenzen hinweg, oder zum Beispiel eine Informationen, dass der Benutzer den beispielhaften Film oder die entsprechende Ausgabesequenz stoppt. Alternativ oder zusätzlich können die Abspieldaten beschreiben, ob der Benutzer die jeweilige Ausgabesequenz vorspult und/oder überspringt. Die Abspieldaten können dann beispielsweise generiert werden, falls ein entsprechender Knopfdruck eines Abspielgeräts detektiert wird.
  • Zusätzlich oder alternativ können die bereitgestellten Abspieldaten beschreiben, ob der Benutzer sich während des Abspielens der jeweiligen Ausgabesequenz von einem Bildschirm der Abspieleinrichtung abwendet; und/oder eine Emotion des Benutzer während des Abspielens der jeweiligen Ausgabesequenz und/oder eine Gesichtsmimik und/oder eine Körpersprache des Benutzer während des Abspielens der jeweiligen Ausgabesequenz. Bei den letzteren Varianten kann die Filmanalyseeinrichtung zum Beispiel ein Signal von Kameras und/oder eines Näherungssensors eines Bildschirms empfangen, die zum Beispiel die Gesichtsmimik (oder nur das Kamerabild) beschreiben, das Entfernen des Körpers des Bildschirms oder zum Beispiel andere biometrische Daten, zum Beispiel eine Herzrate oder eine Schweißabsonderungsrate, die mittels beispielsweise entsprechender Herzratensensoren oder Schweißsensoren erfasst werden können. Körpersprache und/oder biometrische Daten können von der Filmanalyseeinrichtung ausgewertet werden.
  • Mit solchen Abspieldaten als Eingangsdaten kann die Filmmontage besonders zuverlässig und benutzerspezifisch erfolgen.
  • Der Bildsequenzparameter, der zum Erhöhen des Grads der Aufmerksamkeit geändert werden soll, kann vorzugsweise eine Sequenzlänge der Ausgabesequenz sein, ein Bildinhalt, ein thematischer Kontext des Bildinhalts, ein Beleuchtungsparameter, eine Abspielgeschwindigkeit oder eine Länge der Bildsequenz. Vorzugsweise können durch das Bildmontagesignal mehrere Bildsequenzparameter, die geändert werden sollen, beschrieben werden, vorzugsweise Kombinationen der hier genannten Bildsequenzparameter. Diese Bildsequenzparameter, insbesondere die Sequenzlänge, haben eine besondere Auswirkung auf die Wahrnehmung des Bildinhalts.
  • Vorzugsweise kann die Filmanalyseeinrichtung zum Ändern der Ausgabesequenz ein Löschen der Ausgabesequenz vorgeben. Mit anderen Worten kann durch die Filmanalyseeinrichtung ein Rauschschnitt derjenigen Ausgabesequenz umfassen, neue Ausgabesequenzen einfügen oder eine andere Reihenfolge von Ausgabesequenzen schneiden. Durch diese Maßnahmen kann der Charakter des Ausgabeinhalts in viele Richtungen verändert werden, wodurch die Filmmontage noch benutzerfreundlicher gestaltet wird.
  • In einer Variante des Verfahrens kann die Filmanalyseeinrichtung eine Bildmontageeinrichtung umfassen, also ein Gerät, eine Gerätekomponente oder eine Gerätegruppe, das/die dazu eingerichtet ist, eine Bildmontage durchzuführen, also zum Beispiel einen Film zu schneiden und/oder Bildsequenzparameter zu ändern. Bei dieser Ausführungsform kann das erzeugte Bildmontagesignal die Bildmontageeinrichtung dazu veranlassen, den Bildsequenzparameter zu ändern, um die Ausgabesequenz ändern. Insbesondere bei einer Kopplung mit einer Deep-Learning-Engine kann eine besonders gut tarierte Bildmontage erfolgen.
  • Alternativ - oder zusätzlich - kann die Filmanalyseeinrichtung das Bildmontagesignal als Handlungsempfehlung an die Empfangseinrichtung bereitstellen und übertragen, wobei die Empfangseinrichtung eine Empfangseinrichtung einer der Mediendatei zugeordneten Person ist. Die Empfangseinrichtung kann vorzugsweise ein mobiles Endgerät dieser Person sein, zum Beispiel des Erstellers der Mediendatei. Mit anderen Worten erzeugt die Filmanalyseeinrichtung als Bildmontagesignal ein Signal, das die Handlungsempfehlung beschreibt. Die Handlungsempfehlung kann zum Beispiel sein: „Szene nochmal mit besserer Beleuchtung drehen“. Bei dieser Variante kann die Filmanalyse die geänderte Ausgabesequenz bereitstellen, indem sie die geänderte Ausgabesequenz aus der Empfangseinrichtung empfängt. Der beispielhafte Ersteller des Videos kann also zum Beispiel, nachdem er die Handlungsempfehlung empfangen hat, die entsprechende Szene mit seinem beispielhaften Smartphone noch einmal drehen und an die Filmanalyseeinrichtung schicken. Dadurch hat die der Mediendatei zugeordnete Person, zum Beispiel der Ersteller der Videodatei, noch einmal Einfluss auf den Film.
  • In einer Ausführungsform des Verfahrens kann die Filmanalyseeinrichtung aus der Empfangseinrichtung eine zusätzliche Ausgabesequenz empfangen, und die zusätzliche Ausgabesequenz in die Bilderserie oder den Videofilm der Mediendatei integrieren. Auch dies verbessert die Mediendatei.
  • Optional kann die Empfangseinrichtung dabei eine von der Filmanalyseeinrichtung baulich getrennte Empfangseinrichtung sein, oder eine Bildmontageeinrichtung der Filmanalyseeinrichtung.
  • In einer Weiterbildung kann die Filmanalyseeinrichtung als zusätzliche Ausgabesequenz einen Datensatz empfangen, der ein Konstruktionsmodell eines Geräts oder Gegenstands beschreibt, insbesondere ein Konstruktionsmodell eines Kraftfahrzeugs und/oder eines Kraftfahrzeugteils. Ein solches digitales Konstruktionsmodell kann zum Beispiel ein CAD-Modell des Kraftfahrzeugs sein. Vorzugsweise kann die Filmanalyseeinrichtung also zum Beispiel eine Handlungsempfehlung verschicken, die den Ersteller des Videos dazu auffordert, ein CAD-Modell bereitzustellen, nachdem die Filmanalyseeinrichtung zum Beispiel analysiert hat, dass an einer Filmszene, die auf die technischen Details nur marginal eingeht, die Zuschauer auch häufig vorspulen. Steht dann das digitale Konstruktionsmodell dieser Szene zur Verfügung, ist dies für die Betrachter eine wichtige Information und hat einen deutlichen Mehrwert für den Zuschauer und den Ersteller der Mediendatei. Die Vorteile treten noch deutlicher zu Tage, falls die Filmanalyseeinrichtung erkennt, dass der Benutzer die Ausgabesequenz „tagged“, also markiert, zum Beispiel durch einen Knopfdruck, und die Filmanalyseeinrichtung dann zu dieser markierten Ausgabesequenz das Konstruktionsmodell anfordert.
  • Alternativ können einzelne Ausgabesequenzen derart markiert oder „getaggt“ sein, dass der Benutzer, also der Zuschauer, beim Ansehen der Ausgabesequenz erkennt, dass zu dieser Szene mehr Informationen abrufbar sind oder angefordert werden können. In einer solchen Ausgabesequenz kann dann zum Beispiel ein Symbol angezeigt werden, dass den Benutzer darauf hinweist.
  • In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens kann die Filmanalyseeinrichtung die Abspieldaten zu mehreren Benutzern der Abspieleinrichtung bereitstellen, vorzugsweise wobei die Filmanalyseeinrichtung zusätzlich berücksichtigt, wie oft die jeweilige Ausgabesequenz angeschaut wird oder wurde. Dadurch wird eine Qualität der Mediendatei an sich und nicht nur für einzelne Zuschauer verbessert und eine Wahrscheinlichkeit, dass ein neuer Benutzer vorspult oder Szenen abbricht, wird deutlich reduziert.
  • Zu der Erfindung gehört auch die Filmanalyseeinrichtung. Die Filmanalyseeinrichtung kann eine Datenverarbeitungsvorrichtung oder eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) aufweisen. Des Weiteren kann die Prozessoreinrichtung einen Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.
  • Unter einer Filmanalyseeinrichtung wird ein Gerät oder eine Gerätekomponente zur elektronischen Datenverarbeitung verstanden, die Signale empfangen und auswerten, sowie Steuersignale erzeugen kann. Insbesondere ist die Filmanalyseeinrichtung zur Bildanalyse eingerichtet.
  • Die Filmanalyseeinrichtung kann vorzugsweise die oben beschriebene Deep-Learning-Engine umfassen. Die Filmanalyseeinrichtung ist dabei dazu eingerichtet, die entsprechende bereits oben beschriebene Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen und die Deep-Learning-Engine entsprechend betreiben. Für die genannte Ausführungsform des erfindungsgemäßen Verfahrens kann die Filmanalyseeinrichtung jedoch auch dann eingerichtet sein, falls die Deep-Learning-Engine keine Komponente der Filmanalyseeinrichtung ist, sondern zum Beispiel eine Komponente eines baulich von der Filmanalyseeinrichtung getrennten Datenservers. Die Vorteile wurden bereits oben besprochen.
  • In einer weiteren Ausgestaltung kann die Filmanalyseeinrichtung eine Bildmontageeinrichtung umfassen, die dazu eingerichtet ist, den Bildsequenzparameter zu ändern, um die Ausgabesequenz zu ändern. Die Vorteile wurden bereits oben besprochen.
  • Die oben gestellte Aufgabe wird gelöst durch ein Speichermedium mit einem Programmcode, der dazu eingerichtet ist, bei Ausführung durch eine Prozessoreinrichtung, insbesondere durch eine Prozessoreinrichtung eines mobilen Endgeräts, die Filmanalyseeinrichtung dazu zu veranlassen, eine Ausführungsform des oben beschriebenen Verfahrens durchzuführen. Das Speichermedium kann zum Beispiel als Speicherkarte oder Speicherchip oder anderer Datenspeicher ausgestaltet sein. Es ergeben sich die bereits genannten Vorteile.
  • Die oben gestellte Aufgabe wird gelöst durch eine Datenservereinrichtung zum Betreiben im Internet, zum Beispiel ein Datenserver, ein Backend und/oder eine Daten-Cloud, wobei die Datenservervorrichtung eine Ausführungsform des erfindungsgemäßen Speichermediums und/oder der erfindungsgemäßen Filmanalyseeinrichtung aufweist.
  • Zu der Erfindung gehören auch Weiterbildungen der erfindungsgemäßen Filmanalyseeinrichtung, des erfindungsgemäßen Speichermediums, und der erfindungsgemäßen Datenservereinrichtung, die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen der erfindungsgemäßen Filmanalyseeinrichtung, des erfindungsgemäßen Speichermediums, und der erfindungsgemäßen Datenservereinrichtung hier nicht noch einmal beschrieben.
  • Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Ausführungsformen aufweisen, sofern die Ausführungsformen nicht als sich gegenseitig ausschließend beschrieben wurden.
  • Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
    • 1 eine schematische Darstellung zu einem Ausführungsbeispiel des erfindungsgemäßen Verfahrens und der erfindungsgemä-ßen Vorrichtungen; und
    • 2 eine weitere schematische Darstellung zu dem Ausführungsbeispiel des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtungen.
  • Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.
  • Die 1 veranschaulicht das Prinzip des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtungen gemäß eines Ausführungsbeispiels. Hierzu zeigt die 1 eine Filmanalyseeinrichtung 10, die zum Beispiel als Bildverarbeitungsgerät oder Steuerchip ausgestaltet sein kann. Die Filmanalyseeinrichtung 10 kann optional eine Prozessoreinrichtung 12 und/oder einen Datenspeicher 14 aufweisen. Im Beispiel der 1 kann die Filmanalyseeinrichtung 10 beispielsweise eine Komponente einer Datenservereinrichtung 16 sein, die zum Beispiel als Datenserver oder Computer ausgestaltet sein kann.
  • Eine Abspieleinrichtung 18, zum Beispiel ein Videogerät oder ein Computer mit einem Bildschirm, ist beispielhaft in der 1 als baulich von der Datenservereinrichtung 16 und der Filmanalyseeinrichtung 10 getrenntes Gerät gezeigt. Denkbar ist jedoch auch, dass die Abspieleinrichtung 18 zum Beispiel ein Teil der Datenservereinrichtung 16 sein kann, oder zusammen mit der Filmanalyseeinrichtung 10 zum Beispiel ein Gerät bilden kann. Im Falle der baulich getrennten Variante wie in der 1 gezeigt, erfolgt die Kommunikation mit der Filmanalyseeinrichtung 10 über eine Datenkommunikationsverbindung 20, vorzugsweise eine drahtlose Datenkommunikationsverbindung, wie zum Beispiel eine WLAN-Verbindung, eine Internetverbindung oder eine Mobilfunkverbindung. Eine drahtgebundene Datenkommunikationsverbindung 20, zum Beispiel ein Kabel oder ein Datenbus, ist jedoch auch möglich.
  • Die Abspieleinrichtung 18 kann zum Beispiel ein eigenes Speichermedium 19 umfassen, auf der eine Mediendatei 22, zum Beispiel ein Film mit mehreren Videoszenen als Ausgabesequenzen, abgespeichert sein kann.
  • Im Beispiel der 1 kann die Filmanalyseeinrichtung 10 eine Bildmontageeinrichtung 24 umfassen, zum Beispiel ein Chip oder ein Anwenderprogramm zur Bildbearbeitung. Die Bildmontageeinrichtung 24 kann deswegen auch als Bildbearbeitungseinrichtung bezeichnet werden. Ist die Bildmontageeinrichtung 24 kein Bestandteil der Filmanalyseeinrichtung 10, kann sie zum Beispiel eine Bildmontageeinrichtung 24 eines anderen Geräts sein.
  • Die 1 zeigt auch eine andere Variante, die optional mit der bereits genannten Variante kombiniert werden kann, und in der die Filmanalyseeinrichtung 10 dazu eingerichtet ist, eine Handlungsempfehlung an eine Empfangseinrichtung 26, vorzugsweise ein mobiles Endgerät, zu übertragen, was idealerweise das mobile Endgerät eines Erstellers der Mediendatei 22 sein kann. Das mobile Endgerät kann zum Beispiel ein Smartphone sein, ein Laptop oder ein PC. Auch hier kann die Kommunikation vorzugsweise über eine drahtlose Datenkommunikation erfolgen.
  • Im Beispiel der 1 ist eine Deep-Learning-Engine 28 als Komponente der Filmanalyseeinrichtung 10 gezeigt. Alternativ kann die Deep-Learning-Engine 28 jedoch eine Komponente eines anderen Datenservers (in der 1 nicht gezeigt) oder in der in der 1 gezeigten Datenservereinrichtung 16 integriert sein und vorzugsweise drahtlos mit der Filmanalyseeinrichtung 10 kommunizieren.
  • Trainingsdaten oder Erfahrungswerte, mit der eine solche Deep-Learning-Engine 28 trainiert worden sein kann, können vorzugsweise als künstliches neuronales Netz zusammengefasst sein, und beispielsweise aus einer Datenbank stammen. Vorzugsweise können solche Daten zu Nutzerdaten, Abspieldaten und/oder Aufmerksamkeits-Werten in einer Anzahl von >1000, insbesondere >10000, zum Trainieren der Deep-Learning-Engine 28 verwendet werden/worden sein, wobei die Trainingsdaten vorzugsweise über einen vorbestimmten Beobachtungszeitraum erfasst wurden. Ein solcher Datensatz kann als Big-Data-Datensatz bezeichnet werden.
  • Jeder Erfahrungswert kann dabei zum Beispiel eine Kombination von einem Nutzerverhalten und dem entsprechenden Ändern eines Bildsequenzparameters sein, zum Beispiel die Kombination von einem erfassten Vorspulen einer Ausgabesequenz und einem Ändern einer Beleuchtung der entsprechenden Filmszene. Dabei können vorzugsweise auch die jeweiligen Werte der Beleuchtung der ursprünglichen Ausgabesequenz miteinbezogen sein. Unter einem Erfahrungswert wird also ein Wert oder eine Angabe verstanden, der/die zum Beispiel auf empirischen Messungen oder Untersuchungen basierend eine Aussage darüber trifft, ob zum Beispiel das Nutzerverhalten mit der Beleuchtung korreliert und ein gezieltes Ändern der Beleuchtung dazu beiträgt, dass diese Filmszene seltener vorgespult wird.
  • Der Erfahrungswert kann also zum Beispiel ein nummerischer Wert sein oder ein Zuordnungswert. Unter einem Erfahrungswert wird auch eine funktionelle Abhängigkeit oder eine funktionale Zuordnung verstanden, die eine Aussage darüber trifft, ob oder zu welchem Nutzerverhalten das Ändern des jeweiligen Bildsequenzparameters zu einem Erhöhen des Grads der Aufmerksamkeit führt. Unter einem Erfahrungswert kann deswegen, mit anderen Worten, auch eine auf nummerischen Werten basierende Regel für die Zuordnung verstanden werden.
  • Die Mediendatei 22 aus dem Beispiel der 1 kann beispielsweise ein Film sein, in dem das Kraftfahrzeug zum Verkauf angeboten wird. Optional können in dem Datenspeicher 14 der Filmanalyseeinrichtung 10 oder in einem Datenspeicher der Bildmontageeinrichtung 24 eine Vielzahl von Ausgabesequenzen abgelegt sein, die der Ersteller der Mediendatei 22 zur Verfügung stellt, die jedoch noch nicht Teil des Films der Mediendatei 22 sind. Dadurch kann die Bildmontageeinrichtung 24 später wie bei einer Art Baukastensystem neue Szenen einfügen. Vorzugsweise ist eine Vielzahl von Sequenzen dort abgelegt und diese können in Kategorien unterteilt sein, zum Beispiel in die Kategorien „Karosseriedaten“, „Ansicht von außen“, „Digitale Konstruktionsmodelle“ und „Clips für Sonderausstattung“.
  • Die 2 zeigt eine mögliche technische Umsetzung in einer anderen Darstellung, in der die Mediendatei 22 mit ihren Ausgabesequenzen A bis J bildlich repräsentiert ist. Ist die Mediendatei 22 zum Beispiel in einem Kundenkonto und damit auf einem Server der Kraftfahrzeugherstellers abgelegt, können optional - aber nicht zwingend notwendig - auf einer solchen Plattform auch zum Beispiel eCommerce-Tools 29, ein Trust-Provider und/oder eine verification layer 30 (zum Beispiel Informationen von einer Prüfstelle, zum Beispiel dem TÜV), ein „Car CV“ (eine Art Lebenslauf des Kraftfahrzeugs, das mit der Mediendatei 22 verkauft werden soll), Informationen zum Verkäufer (zum Beispiel Daten eines elektronischen Personalausweises), und diverse Identifikationsnummern abgelegt sein. Solche Informationen werden vorzugsweise nur nach entsprechender Freischaltung durch Zustimmung des Benutzers des Kundenkontos zur Verfügung gestellt.
  • Im Beispiel der Mediendatei 22 wie in der 2 gezeigt kann diese die Ausgabesequenzen A, B, C, D, E, F, G, H, I und J aufweisen, die in der gezeigten Abspielreihenfolge zu einem Film zusammengeschnitten sein können.
  • Die 2 zeigt schematisch einen potentiellen Käufer 32, der sich ein Kraftfahrzeug kaufen möchte und den auf der Abspieleinrichtung 18 abgelegten Film, also die Mediendatei 22, anschaut. Die Abspieleinrichtung 18 ist aus Gründen der besseren Übersichtlichkeit in der 2 nicht gezeigt. Jeder der Ausgabesequenzen A - J hat einen Ausgabeinhalt, also einen Bildinhalt zu einem bestimmten Thema, der in der 2 zu jeder Ausgabesequenz A - J als Symbol verdeutlicht ist. Die Zahlen der jeweiligen Ausgabesequenz A - J gibt dabei eine beispielhafte Anzahl von so genannten „Views“ wieder, also wie oft die jeweilige Ausgabesequenz A - J bisher angeschaut wurde. So kann zum Beispiel die Ausgabesequenz A, die zum Beispiel den Verkäufer des Kraftfahrzeugs vorstellt, 30-mal angeschaut worden sein. Die Ausgabesequenz B, die das Exterieur des Kraftfahrzeugs zeigt, kann 20-mal angeschaut worden sein und die Ausgabesequenz C ebenfalls 20-mal, in welcher das Interieur des Kraftfahrzeugs gezeigt wird. In D können zum Beispiel Schäden des zu verkaufenden Kraftfahrzeugs gefilmt sein, und diese Ausgabesequenz D kann zum Beispiel 18-mal angeschaut worden sein. E kann zum Beispiel eine Szene über die Servicewartung sein, F ein Beitrag zu Angeboten von Händlern, G ein Beitrag zum Fahrverhalten des Kraftfahrzeugs, während H zum Beispiel Kontaktinformationen für Feedback anzeigen kann. In I kann zum Beispiel Werbung eingeblendet werden. Die „View“-Zahlen der Ausgabesequenzen E - I sind analog als Beispielzahlen angegeben.
  • Idealerweise kann diese Reihenfolge von Ausgabesequenzen A - J von der Deep-Learning-Engine 28 analysiert werden. Die durch die Deep-Learning-Engine 28 verkörperte künstliche Intelligenz kann idealerweise dahingehend zum Lernen ausgestaltet sein, dass sie sich ständig mit neuen Eingangsdaten fortbildet. Die Filmanalyseeinrichtung 10 in Kombination mit der Deep-Learning-Engine 28 kann im Beispiel der Fig. zum Beispiel als Influencerdienst bereitgestellt werden. Die 2 zeigt hierzu schematisch, um einen Überblick zu geben, eine Gesamtheit an „Followern“ 34, also Personen, Institutionen oder Profilen, die den Dienst nutzen und den Dienst zum Beispiel abonniert haben. Dies können zum Beispiel der Hersteller sein, der das zu verkaufende Kraftfahrzeug hergestellt hat, Datenquellen als dritte Parteien, Händler, ein Verkäuferguide, Aufbereitungsdienste, Drittparteien-Serviceprovider, Reiniger (also Dienstleistungsanbieter, die eine Autoreinigung anbieten), eine Werkstatt und eine Drittpartei-künstliche Intelligenz. Mit anderen Worten können typische „Follower“ zum Beispiel klassische Follower auf Käuferseite und auf Verkäuferseite sein.
  • Optional können die Filmanalyseeinrichtung 10 und/oder die Deep-Learning-Engine 28 Zugriffe haben auf eine Datenbank 36, die eine Datenbank für Kraftfahrzeug-Identifikationsnummern ist. Anhand dieser Fahrzeug-Identifikationsnummer kann dann zum Beispiel als zusätzliche Ausgabesequenz J ein Beitrag dieser Daten erstellt werden, falls eine Angabe vorliegt, welche Kraftfahrzeug-Identifikationsnummer das durch den Film angebotene Kraftfahrzeug hat. Analog hierzu kann die Filmanalyseeinrichtung 10 und/oder die Deep-Learning-Engine 28 auf eine analytische Datenbank 38 zugreifen, auf der zum Beispiel die Erfahrungswerte für die Deep-Learning-Engine 28 abgelegt sein können. Es können also analysierte Fahrzeugdaten als Lerndatensatz oder Trainierdatensatz hier abgelegt und bei Bedarf abgerufen werden. Ein solcher Lerndatensatz kann zum Beispiel die Verknüpfung enthalten, dass zum Beispiel das Fahrzeug das Modell XY aus dem Baujahr Z erfahrungsgemäß 10000 Kilometer Fahrleistung haben kann.
  • Optional können auch noch weitere Daten in die Analyse mit einbezogen werden, zum Beispiel Umgebungsdaten, wie zum Beispiel Wetterdaten, Positionsdaten, die beschreiben, wo sich der potentielle Käufer 32 befindet, oder eine aktuelle Zeit. Weitere Daten, die optional mit einbezogen werden können, sind zum Beispiel bereits vorhandene Schäden, eine Präsentation der Person, also des Verkäufers, Daten zu unterschiedlichen Perspektiven, Daten für eine Stimmanalyse, falls die Mediendatei 22 eine Tonspur hat, auf der der Verkäufer etwas spricht, Daten zu einer Sprache, also zum Beispiel für eine Sprachanalyse, sowie die „Views“.
  • Die 2 zeigt außerdem die Kommunikationswege, die zum Beispiel bei einem optionalen Tagging, also Markieren, gegangen werden können. Bei einer solchen Tag-basierten Kommunikation mit dem Verkäufer oder einem Follower, insbesondere mit dem Verkäufer, kann der potentielle Käufer 32 zum Beispiel in der Ausgabesequenz B markieren (in der 2 durch den ausgefüllten Kreis in der Ausgabesequenz B veranschaulicht) und damit dem Verkäufer signalisieren, dass er zu dem Exterieur noch gerne mehr technische Details haben möchte.
  • Zwischen den Followern 34 und der Filmanalyseeinrichtung 10 und/oder der Deep-Learning-Engine 28 kann zum Beispiel über den Sequence-View kommuniziert werden, über einen Upload und allgemeine Kommunikation.
  • Der Verkäufer 40 kann auf der Empfangseinrichtung 26, zum Beispiel einem mobilen Endgerät wie einem Smartphone, ein Dashboard angezeigt bekommen, auf dem er zum Beispiel eine Handlungsempfehlung der Filmanalyseeinrichtung 10 angezeigt bekommt, vorzugsweise in Kombination mit der Möglichkeit zum Anschauen der Mediendatei 22, also der „Car Story“ seines Kraftfahrzeugs. Vorzugsweise können dabei die einzelnen Ausgabesequenzen A -J oder vorzugsweise nur die zu ändernde Ausgabesequenz gezeigt werden. Auf dem beispielhaften Dashboard kann auch eine Möglichkeit zur Videokommunikation mit dem Käufer 32 (oder den Followern) bereitgestellt werden, eine Textanzeige für zum Beispiel eine Handlungsempfehlung, und eine Möglichkeit für Bedienhandlungen, zum Beispiel beim Bedienen einer App durch zum Beispiel Sprachkommandos. Die zwei Pfeile zwischen der Empfangseinrichtung 26 und der Mediendatei 22 repräsentieren die Kommunikation zwischen Filmanalyseeinrichtung 10 und der Empfangseinrichtung 26, also das Übertragen von zumindest einer Handlungsempfehlung an die Empfangseinrichtung 26, im Austausch gegen eine geänderte Filmszene für zum Beispiel die Ausgabesequenz B oder J, welche zum Beispiel mit Hilfe einer Kamera 42 aufgenommen werden kann. Die 2 zeigt dabei symbolisch, wie die Kamera 42 das fahrende Kraftfahrzeug aufnehmen kann.
  • Die 2 veranschaulicht das Prinzip der Sequenzoptimierung innerhalb zum Beispiel einer Car Story. Die Darstellung der 1 ist hierfür eine andere Darstellung, in der die Vorrichtungen zum Hervorheben der Verfahrensabläufe beschrieben ist, wie im Folgenden erläutert. Das in der 1 gezeigte Beispiel kann dabei mit den zur 2 erläuterten Merkmalen kombiniert sein, jedoch auch alleinstehend ein Ausführungsbeispiel bilden.
  • In einem ersten Verfahrensschritt S1 stellt die Filmanalyseeinrichtung 10 die Mediendatei 22 fest, die auf der Abspieleinrichtung 18 abgelegt sein kann (1). Die Abspieldaten werden bereitgestellt (S2), indem zum Beispiel ein entsprechendes Signal aus der Abspieleinrichtung 18 empfangen wird, das zum Beispiel die Views zählt oder zum Beispiel detektiert, bei welchen Ausgabesequenzen A - J der Benutzer auf Vorspulen drückt oder die Szene abbricht.
  • Anhand der bereitgestellten Abspieldaten kann die Filmanalyseeinrichtung 10 zum Beispiel feststellen, dass viele Zuschauer die Ausgabesequenzen E, F, D, H und I vorspulen oder abbrechen, oder diese Ausgabesequenzen erst überhaupt gar nicht zum Anschauen auswählen. Aufgrund der vielen Abbrüche bei diesen Ausgabesequenzen E - I kann die Filmanalyseeinrichtung 10 jeder dieser Ausgabesequenzen einen sehr geringen Aufmerksamkeits-Wert zuordnen (S2). Diese Werte können zum Beispiel auf einer Skala von 1 bis 10 liegen, wobei ein Wert von 1 eine sehr geringe Aufmerksamkeit bedeutet, die 10 einen höchstmöglichen Grad der Aufmerksamkeit.
  • Dieser Schritt kann vorzugsweise durch die Deep-Learning-Engine 28 durchgeführt werden. Um die Deep-Learning-Engine 28 zu betreiben (S3), kann die Filmanalyseeinrichtung 10 die bereitgestellten Abspieldaten an die Deep-Learning-Engine 28 übertragen (S4). Das Verarbeiten der bereitgestellten Abspieldaten (S5) kann vorzugsweise in dem Bereitstellen einer Aufmerksamkeitserhöhungsprognose resultieren (S6).
  • Das vorgegebene Ablehnkriterium kann zum Beispiel im Datenspeicher 14 der Filmanalyseeinrichtung 10 abgelegt sein und zum Beispiel vorgeben, dass ein vorbestimmter Zahlenwert als Aufmerksamkeitswert als Schwellenwert festgelegt ist. Der vorbestimmte Zahlenwert kann dabei ein Mindestwert sein. Durch einen Vergleich der vergebenen Aufmerksamkeitswerte mit diesem Schwellenwert kann dann überprüft werden, welche der Ausgabesequenzen A - I das vorgegebene Ablehnkriterium erfüllen. Entspricht der vergebene Aufmerksamkeitswert zum Beispiel der Anzahl der Views, und ist der Schwellenwert zum Beispiel 15, können die Ausgabesequenzen E - I das vorgegebene Ablehnkriterium erfüllen.
  • In den beispielhaften Ausgabesequenzen E - I des Beispiels können zum Beispiel alle dieser Ausgabesequenzen E - I als zu ändernde Ausgabesequenzen vorgegeben werden (S7), denn der jeweils zugeordnete Aufmerksamkeits-Wert kann einen entsprechenden Schwellenwert unterschreiten. Optional kann die Filmanalyseeinrichtung 10 zum Beispiel eine Stimmanalyse durchführen, und zum Beispiel eine sehr geringe Lautstärke feststellen, oder eine schlechte Stimmmodulation. Alternativ oder zusätzlich kann die Filmanalyseeinrichtung 10 feststellen, dass allgemein der Ton zu leise ist. Als Maßnahme zum Erhöhen des Grads der Aufmerksamkeit kann die Filmanalyseeinrichtung 10 dann zum Beispiel feststellen (S8), dass ein Tonparameter geändert werden soll, zum Beispiel eine Lautstärke erhöht werden soll; und/oder dass die jeweilige Szene besser wäre, wenn die Stimme des Erzählers moduliert wird. Die jeweiligen Verfahrensschritte sind in der 1 außerhalb der Deep-Learning-Engine 28 gezeigt, können jedoch auch durch diese durchgeführt werden. Insbesondere das Festlegen des Bildsequenzparameters (S8) und dessen Änderung kann durch die Deep-Learning-Engine 28 durchgeführt werden, weswegen in der 1 dieser Verfahrensschritt auch noch einmal in der Deep-Learning-Engine 28 angegeben ist. Im Beispiel der 1 kann zum Beispiel die Deep-Learning-Engine 28 das Bildmontagesignal bereitstellen (S9), also zum Beispiel erzeugen.
  • Ändert die Bildmontageeinrichtung 24 die Ausgabesequenzen E - I (S10), kann diese die geänderten Ausgabesequenzen generieren und so bereitstellen (S10). Im Verfahrensschritt S11 kann dann die Mediendatei geändert werden, indem die geänderte Ausgabesequenz E, nachfolgend auch die Ausgabesequenzen F - I, in die Mediendatei 22 eingefügt werden.
  • Überträgt die Filmanalyseeinrichtung 10 das bereitgestellte Bildmontagesignal an die Empfangseinrichtung 26 (S12), kann der Verkäufer dazu aufgefordert werden, die Ausgabesequenzen E - I noch einmal zu drehen.
  • Das Markieren oder „Taggen“ einer oder mehrerer der Ausgabesequenzen A - J kann zum Beispiel dadurch erfolgen, dass der Benutzer immer dann, wenn er zum Beispiel ein Feedback geben oder mehr Informationen haben möchte, während des Abspielens der Ausgabesequenz von Interesse auf einen Knopf oder eine Stelle eines berührungssensitiven Bildschirms drückt, auf dem der Film gezeigt wird. Interessieren sich zum Beispiel viele Benutzer für die Ausgabesequenz B, kann die Handlungsempfehlung an die Empfangseinrichtung 26 beschreiben, dass der Verkäufer eine zusätzliche Ausgabesequenz drehen oder ein digitales Konstruktionsmodell bereitstellen soll. Auch ein „Taggen“ kann durch die Abspieldaten als beschrieben werden, und daraufhin kann dieser Szene ein sehr hoher Aufmerksamkeits-Wert zugeordnet werden.
  • Alternativ kann die Ausgabesequenz B derart markiert oder „getaggt“ sein, dass der Benutzer, also der Zuschauer, beim Ansehen der Ausgabesequenz erkennt, dass zu dieser Szene mehr Informationen abrufbar sind oder angefordert werden können. In der Ausgabesequenz B kann dann zum Beispiel ein Symbol einer Lupe angezeigt werden, dass den Benutzer 32 darauf hinweist.
  • Die künstliche Intelligenz kann vorzugsweise auch dazu eingerichtet sein, ein Story-Telling durchzuführen, also eine durch die Abspielfolge der Ausgabesequenzen A - J erzählte Geschichte zu ändern und/oder zu ergänzen. Entsprechende Story-Telling-Tools für digitales Story Telling sind dem Fachmann aus dem Stand der Technik bekannt.
  • Insgesamt zeigen die Beispiele, wie eine Sequenzoptimierung innerhalb zum Beispiel einer Car Story bereitgestellt werden kann.
  • Ein Sequenzvideo oder ein Kapitel mit Text bzw. Bildern wird vorzugsweise ständig durch eine Künstliche Intelligenz - also die Deep-Learning-Engine 28 - überwacht, also analysiert. Basierend auf den Analysen und deren individuellen Interpretation werden vorzugsweise die Sequenzlänge, Inhalt und/oder Geschwindigkeit für jeden Benutzer individuell zugeschnitten (S8). Außerdem kann der Ersteller (zum Beispiel der Fahrzeugverkäufer oder Follower) regelmäßig eine Auswertung mit Handlungsempfehlungen erhalten. Ist zum Beispiel bei einer Ausgabesequenz die Beleuchtung nicht optimal, kann daraus der Auftrag resultieren, die Ausgabesequenz zu einer anderen Tageszeit oder von einem anderen Winkel zu wiederholen. Oder es springen sehr viele Viewer bei einer längeren Ausgabesequenz ab. Diese wird vorzugsweise durch die Künstliche Intelligenz, also die Deep-Learning-Engine 28, neu geschnitten, und die Abspielgeschwindigkeit bei nicht relevanten Abschnitten erhöht, dass es für den Betrachter ein geringerer „Pain“ ist, die Ausgabesequenz zu Ende zu sehen. Außerdem können in der Ausgabesequenz zum Beispiel durch einen hinterlegten CAD-Datensatz Bauteile markiert werden. So kann der Fokus auf das Wesentliche gerichtet werden.
  • Vorteilhaft ergibt sich unter anderem, dass der richtige Inhalt für den richtigen Betrachter in der richtigen Zeit und Menge bereitgestellt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2017/0270580 A1 [0003]
    • US 2015/0348589 A1 [0004]
    • US 2019/0095963 A1 [0005]

Claims (14)

  1. Verfahren zum Bereitstellen einer Bildmontage, wobei eine Filmanalyseeinrichtung (10) : - eine Mediendatei (22) feststellt, die eine Bilderserie oder einen Videofilm mit einer vorgegebenen Ausgabereihenfolge von mindestens zwei Ausgabesequenzen beschreibt, wobei jede der Ausgabesequenzen einen Bildinhalt hat (S1); - Abspieldaten bereitstellt, die zu mehr als einer der Ausgabesequenzen jeweils ein Nutzerverhalten eines Benutzers der Abspieleinrichtung (18) beim Abspielen der bereitgestellten Mediendatei (22) beschreiben (S2); - anhand der bereitgestellten Abspieldaten: jeder der durch die Abspieldaten beschriebenen Ausgabesequenzen in Abhängigkeit von dem jeweiligen Nutzerverhalten einen Aufmerksamkeits-Wert zuordnet, welcher einen Grad einer Aufmerksamkeit des Benutzers gegenüber der jeweiligen Ausgabesequenz repräsentiert (S2); - mindestens eine Ausgabesequenz, deren zugeordneter Aufmerksamkeits-Wert ein vorgegebenes Ablehnkriterium erfüllt, als zu ändernde Ausgabesequenz vorgibt (S7); und zu der vorgegebenen zu ändernden Ausgabesequenz einen derart geänderten Bildinhalt mit mindestens einem geänderten Bildsequenzparameter festlegt, sodass der geänderte Bildinhalt den Grad der Aufmerksamkeit erhöht (S8); - ein Bildmontagesignal bereitstellt (S9), das ein Ändern des Bildsequenzparameters zum Bereitstellen des geänderten Bildinhalts in der zu ändernden Ausgabesequenz beschreibt, und das erzeugte Bildmontagesignal an eine Empfangseinrichtung (26) überträgt (S12); - die geänderte Ausgabesequenz mit dem geänderten Bildinhalt bereitstellt (S10); und - in der Mediendatei (22) die zu ändernde Ausgabesequenz durch die geänderte Ausgabesequenz ersetzt.
  2. Verfahren nach Anspruch 1, wobei die Filmanalyseeinrichtung (10): - die bereitgestellten Abspieldaten an eine Deep-Learning-Engine (28) überträgt (S4); - die Deep-Learning-Engine (28) betreibt (S3), sodass durch die Deep-Learning-Engine (28) zu einer Vielzahl von Nutzerverhalten und/oder Aufmerksamkeits-Werte Werte von Bildsequenzparametern, die den Grad der Aufmerksamkeit erhöhen, statistisch zusammengefasst sind; - die Deep-Learning-Engine (28) betreibt (S3), um die durch die bereitgestellten Abspieldaten beschriebenen Nutzerverhalten mittels der Deep-Learning-Engine (28) zu verarbeiten (S5) und hierdurch eine Aufmerksamkeitserhöhungsprognose zu ermitteln (S6), wobei die Aufmerksamkeitserhöhungsprognose eine Wahrscheinlichkeit umfasst, mit welcher der Benutzer eine geänderte Ausgabesequenz bevorzugt und ihr einen höheren Grad an Aufmerksamkeit entgegenbringt; und - falls die Wahrscheinlichkeit für eine Präferenz einer geänderten Ausgabesequenz mit einem durch einen geänderten Bildsequenzparameter geänderten Bildinhalt einen vorgegebenen Schwellenwert übersteigt: die Deep-Learning-Engine (28) betreibt (S3), um anhand der Aufmerksamkeitserhöhungsprognose den geänderten Bildsequenzparameter festzulegen (S8) und dadurch den geänderten Bildinhalt vorzugeben.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die bereitgestellten Abspieldaten beschreiben: - ob der Benutzer die jeweilige Ausgabesequenz vorzeitig abbricht, - ob der Benutzer die jeweilige Ausgabesequenz vorspult, - ob der Benutzer die jeweilige Ausgabesequenz überspringt, - ob der Benutzer sich während des Abspielens der jeweiligen Ausgabesequenz von einem Bildschirm der Abspieleinrichtung (18) abwendet, und/oder - eine Emotion des Benutzers während des Abspielens der jeweiligen Ausgabesequenz und/oder eine Gesichtsmimik und/oder seine Körpersprache des Benutzers während des Abspielens der jeweiligen Ausgabesequenz.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Bildsequenzparameter eine Sequenzlänge, ein Bildinhalt, ein thematischer Kontext des Bildinhalts, ein Beleuchtungsparameter, eine Abspielgeschwindigkeit oder eine Länge der Bildsequenz ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Filmanalyseeinrichtung (10) zum Ändern der Mediendatei (S11) ein Löschen der Ausgabesequenz vorgibt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Filmanalyseeinrichtung (10) eine Bildmontageeineinrichtung (24) umfasst, an die sie das erzeugte Bildmontagesignal überträgt (S12), und wobei das erzeugte Bildmontagesignal die Bildmontageeineinrichtung (24) dazu veranlasst, den Bildsequenzparameter zu ändern, um die Ausgabesequenz zu ändern.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Filmanalyseeinrichtung (10) als Bildmontagesignal eine Handlungsempfehlung bereitstellt (S9) und an die Empfangseinrichtung (26) überträgt (S12), welche eine Empfangseinrichtung (26) einer der Mediendatei (22) zugeordneten Person (40) ist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Filmanalyseeinrichtung (10) aus der Empfangseinrichtung (26) eine zusätzliche Ausgabesequenz empfängt, und die zusätzliche Ausgabesequenz in die Bilderserie oder den Videofilm der Mediendatei (22) integriert.
  9. Verfahren nach Anspruch 8, wobei die Filmanalyseeinrichtung (10) als zusätzliche Ausgabesequenz einen Datensatz empfängt, der ein Konstruktionsmodell eines Geräts oder Gegenstands beschreibt, insbesondere ein Konstruktionsmodell eines Kraftfahrzeugs und/oder eines Kraftfahrzeugteils.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Filmanalyseeinrichtung (10) die Abspieldaten zu mehreren Benutzern der Abspieleinrichtung (18) bereitstellt; vorzugsweise wobei die Filmanalyseeinrichtung (10) zusätzlich berücksichtigt, wie oft die Ausgabesequenz angeschaut wird oder wurde.
  11. Filmanalyseeinrichtung (10), die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  12. Filmanalyseeinrichtung (10) nach Anspruch 11, die eine Deep-Learning-Engine (28) umfasst, wobei die Filmanalyseeinrichtung (10) dazu eingerichtet ist: die bereitgestellten Abspieldaten an eine Deep-Learning-Engine (28) zu übertragen (S4); - die Deep-Learning-Engine (28) zu betreiben, sodass durch die Deep-Learning-Engine (28) zu einer Vielzahl von Nutzerverhalten und/oder Aufmerksamkeits-Werte Werte von Bildsequenzparametern, die den Grad der Aufmerksamkeit erhöhen, statistisch zusammengefasst sind (S3); - die Deep-Learning-Engine (28) zu betreiben, um die durch die bereitgestellten Abspieldaten beschriebenen Nutzerverhalten mittels der Deep-Learning-Engine (28) zu verarbeiten (S5) und hierdurch eine Aufmerksamkeitserhöhungsprognose zu ermitteln (S6), wobei die Aufmerksamkeitserhöhungsprognose eine Wahrscheinlichkeit umfasst, mit welcher der Benutzer eine geänderte Ausgabesequenz bevorzugt und ihr einen höheren Grad an Aufmerksamkeit entgegenbringt; und - falls die Wahrscheinlichkeit für eine Präferenz einer geänderten Ausgabesequenz mit einem durch einen geänderten Bildsequenzparameter geänderten Bildinhalt einen vorgegebenen Schwellenwert übersteigt: die Deep-Learning-Engine (28) zu betreiben, anhand der Aufmerksamkeitserhöhungsprognose den geänderten Bildsequenzparameter festzulegen (S8) und dadurch den geänderten Bildinhalt vorzugeben.
  13. Filmanalyseeinrichtung (10) nach einem der Ansprüche 11 oder 12, die eine Bildmontageeinrichtung (24) umfasst, die dazu eingerichtet ist, den Bildsequenzparameter zu ändern, um die Ausgabesequenz zu ändern.
  14. Datenservereinrichtung (16) zum Betreiben im Internet, die eine Filmanalyseeinrichtung (10) nach einem der Ansprüche 11 bis 13 aufweist.
DE102020120469.8A 2020-08-04 2020-08-04 Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet Pending DE102020120469A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020120469.8A DE102020120469A1 (de) 2020-08-04 2020-08-04 Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020120469.8A DE102020120469A1 (de) 2020-08-04 2020-08-04 Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet

Publications (1)

Publication Number Publication Date
DE102020120469A1 true DE102020120469A1 (de) 2022-02-10

Family

ID=79686358

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020120469.8A Pending DE102020120469A1 (de) 2020-08-04 2020-08-04 Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet

Country Status (1)

Country Link
DE (1) DE102020120469A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1806896A1 (de) 2006-01-10 2007-07-11 Hurra Communications GmbH Verfahren zur Auswahl und Darstellung einer Zusatzinformation
US20150348589A1 (en) 2014-05-28 2015-12-03 Automotive Networks Corporation Digital video showroom
US20170270580A1 (en) 2016-03-21 2017-09-21 CarCo Technologies, Inc. Method and System for Facilitating Purchase of Vehicles by Buyers and/or Sale of Vehicles by Sellers
US20190095963A1 (en) 2017-09-26 2019-03-28 Pipeset Inc. Electronic platform for selling and buying used vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1806896A1 (de) 2006-01-10 2007-07-11 Hurra Communications GmbH Verfahren zur Auswahl und Darstellung einer Zusatzinformation
US20150348589A1 (en) 2014-05-28 2015-12-03 Automotive Networks Corporation Digital video showroom
US20170270580A1 (en) 2016-03-21 2017-09-21 CarCo Technologies, Inc. Method and System for Facilitating Purchase of Vehicles by Buyers and/or Sale of Vehicles by Sellers
US20190095963A1 (en) 2017-09-26 2019-03-28 Pipeset Inc. Electronic platform for selling and buying used vehicles

Similar Documents

Publication Publication Date Title
DE112010003731T5 (de) Impliziter Mechanismus zur Bestimmung von Benutzerreaktionen auf Medien
DE102012224268B4 (de) Verdecken von Web-Videos: Ein Verfahren und Computersystem zum Darstellen der in mehreren Fenstern angesehenen Videos
DE102020100497A1 (de) Systeme und verfahren von fahrzeugbasierter echtzeitanalyse und verwendungen davon
DE202016107300U1 (de) Auffindbarkeitssystem für Sprachaktionen
DE112016005931T5 (de) Emotionsbezogenes Timed Media Playback
DE212010000052U1 (de) Inhaltsyndizierung in web-basierten Medien über Anzeigemarkierung
DE112009000070T5 (de) Systeme und Verfahren zum Bereitstellen einer Navigationsunterstützung unter Verwendung eines sozialen Online-Netzwerks
DE112015005186T5 (de) Strukturierte Entitätsinformationsseite
EP2701115A1 (de) Verfahren und System zur Live-Video-Beratung
US20110275046A1 (en) Method and system for evaluating content
DE102022124077A1 (de) Wiedergabe einer aufgezeichneten strecke auf einer augmented-reality-headup-display-anwendung
EP2791939A1 (de) Streaming-basiertes medien-system
DE102020120469A1 (de) Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet
DE102020120470B4 (de) Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet
DE102020120467B4 (de) Verfahren zum Bereitstellen einer Bildmontage, Filmanalyseeinrichtung, und Datenservereinrichtung zum Betreiben im Internet
DE69827809T2 (de) Verfahren und vorrichtung zum erfassen von zuschauerreaktionen zu audiovisuellen stimuli
EP1725958B1 (de) Verfahren und vorrichtung zur informationswiedergabe
DE10354886A1 (de) Mediensteuersystem und -Verfahren
EP3899852A1 (de) Verfahren und vorrichtung zum überwachen eines insassen eines fahrzeugs
DE102013009579A1 (de) Kraftfahrzeug-Infotainmentsystem mit konfigurierbarer Themenwiedergabe
DE112014002003T5 (de) Informationswiedergabesystem, Informationswiedergabeverfahren, Informationswiedergabevorrichtung und Zugriffsanalysevorrichtung
DE102024203296A1 (de) Verfahren und Vorrichtung zur Ausgabe, insbesondere zur Anzeige, von Audioqualitäten von Audioelementen in einem Kraftfahrzeug
DE102010016323A1 (de) Newreporter System, Anordnungen und Verfahren für Videoplattformen
EP1978700A1 (de) Verfahren und System zur Bereitstellung einer Datenauswahl über einen Übereinstimmungsgrad zwischen Programm- und Dienstangeboten und Benutzerinteressen
WO2022053399A1 (de) Prüfung eines filmvorprodukts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE