Wie Daten Kreative unterstützen können

Aiconix und die Macht der Künstlichen Intelligenz

Aleksander Koleski und Eugen Gross gründeten 2018 die Aiconix GmbH. Sie fragten sich: „Wie können Daten uns Kreative unterstützen?“ Wir haben in unserer Ausgabe 6/2019 nachgefragt. Welche Prinzipien die Kreativgemeinschaft dabei verstehen muss und wo die Chancen für die Zukunft liegen, verrieten sie Volker Striemer im Interview.

Die Gründer von Aiconix: Alexander Koleski und Eugen Gross
Die Gründer von Aiconix: Alexander Koleski und Eugen Gross (Foto Volker Striemer)

Seit wann gibt es euer Startup und was macht ihr?
Eugen Gross: Rechtlich gibt es uns seit April 2018. Aber an einem Produkt arbeiten wir seit 2016, dem Jahr, in dem ich meine Masterarbeit über Daten und Kreativität abgeschlossen hatte. Thema: „Wie können Daten uns Kreative unterstützen?“ Momentan unterstützen die Daten nur die Betriebswirte oder Marketingleute. Wir wollen aber, dass Daten auch den kreativen Prozessen nützen. So entstand die Idee. Wir hatten uns dann Gedanken gemacht und festgestellt: Wir können heutzutage nicht so wie vor 20 Jahren arbeiten und ewig lang in Sprachaufnahmen nach diesem einen Satz suchen, den wir gerade brauchen oder tagelang in tausenden von Bildern im Archiv wühlen. Der Prozess hat sich lange nicht verändert. Künstliche Intelligenz kann uns da viele Arbeitsschritte ersparen. Gerade für die Dinge, die wir auch ungern machen. Wir hatten dann überlegt, ob wir nicht mit künstlicher Intelligenz, also mit neuronalen Netzen und Analysedaten, Zusammenhänge finden können, wie ein guter Film und wie ein schlechter Film aufgebaut ist und funktioniert. Die Analyse des Nutzerverhaltens zeigt ja auf, wann die Leute zum Beispiel abschalten. So können wir eine künstliche Intelligenz trainieren, die uns Empfehlungen gibt und davor bewahrt, Fehler zu machen.

Also eine künstliche Intelligenz, die Bild- und Sprachmaterial nach den Inhalten auswertet, transkribiert, labelt, katalogisiert, empfiehlt?
Eugen Gross: Ja, Labeln ist das richtige Wort. Es werden immer Labels für ein Bild gegeben. Beim Transkribieren ist es so, dass es immer nach Wahrscheinlichkeiten geht. Die KIs geben diese Information an uns zurück und mit diesen Möglichkeiten arbeiten wir dann weiter.

Wie kann man sich die technische Umsetzung vorstellen?
Aleksander Koleski: Der Benutzer speichert das Material auf seinem Rechner, loggt sich auf unsere Website ein und lädt sein Video, Audio oder Bilddatei hoch. Die Engine im Hintergrund analysiert alles und die Ergebnisse werden dann auf einer Webseite präsentiert. So einfach ist das für den Benutzer. Technisch ist das natürlich viel komplizierter, aber für den Benutzer soll es so einfach wie möglich sein.
Eugen Gross: Das Ziel ist aber nicht, dass die Endnutzer manuelle Arbeit haben, sondern das ganze Unternehmen sich mit deren Infrastruktur anschließen können und inhouse einbinden. Mit unserer KI im Hintergrund kann jeder Journalist dann nach Stichwörtern suchen, zum Beispiel: Angela Merkel / Himmel im Hintergrund / sie sagt was über Donald Trump. Da bekommt man dann sehr schnell genau dieses Ergebnis. Das heißt nicht mehr stundenlang im Archiv suchen oder tagelang Interviews transkribieren.

Unser Gehirn leistet enormes bei kognitiver Bilderkennung, zum Beispiel wenn wir einen Hund irgendwo auf der Straße sehen. Wenn wir ihn fotografieren, ist das für uns primär ein Abbild eines Hundes. Auf dem Bild sind dann aber noch andere Sachen abgebildet: Straßenpflaster, ein Baum, das Frauchen. Bei Bewegtbild, sind das große und komplexe Informationen. Wie erkennt euer System diese Inhalte?
Aleksander Koleski: Dazu muss man wissen, wie überhaupt so eine KI arbeitet. Im Grunde sind es nur statistische Methoden, die durch eine KI erstellt werden. Dafür braucht man ganz viele Trainingsdaten, also Bilder wo ein Hund, sozusagen selektiert wurde und ein Label bekommt, das vermerkt, dass es ein Hund ist. Und davon braucht man etwa 500.000 Beispielbilder für Hund, für Kopfsteinpflaster, für Katze, die dann der KI zugeführt werden und das System trainieren. Damit ist diese KI vorbereitet, um mit neuen Bildern, die nicht für das Training verwendet wurden, Hunde etc. zu erkennen.

Ein Still aus dem Programm: Die KI unterscheidet zwischen Hund und Hund
Foto: Aiconix GmbH

Eugen Gross: Eine KI ist nur so clever wie die Trainingsdaten. Wir konnten mit nur 100 Bildern aus dem Internet von der Tagesschaumoderatorin Judith Rakers schon eine Wahrscheinlichkeit von 80 Prozent erreichen, sie zu er- kennen und von anderen Menschen zu unterscheiden. Aber um auf 99 Prozent zu kommen, sind Tausende von Bilder nötig. Beispiel Hund. Ein Kind, das Krabbeln kann, sieht von dem Hund ein Bein, den Schwanz und weiß: das ist ein Hund. Diese Abstraktion kann die KI nicht. Ich habe ein Bild mit meiner Tochter analysiert. Resultat: Mädchen-Außen-vor-Haus-sitzend. Das stimmt alles. Es kam aber auch Wirbeltier und Säugetier. Das stimmt auch. Aber danach würde ich nicht suchen. Diese Übersetzung von abstrakten Daten mit Wahrscheinlichkeiten dahinter, in eine Form, die man als Endnutzer auch sinnvoll nutzen kann, das ist unser Anliegen, indem über unsere Plattform visualisiert wird, was ist wo zu sehen. Ein Beispiel: Ein Video, in dem der Protagonist erkannt werden soll. Unsere Engine analysiert die Daten, erfasst unter vielem anderen auch den Protagonisten und trackt ihn durch das Video. Wir haben eine unserer KIs trainiert, die ausschließlich Einstellungsgrößen versteht, wir können ihr sagen: „Zeig’ alle Close-Ups vom Protagonisten.“ Kombiniert man eine andere KI dazu, die Emotionen im Gesicht erkennt, kann man mit diesem Filter auf diese Sequenzen – Hauptprotagonist – Close-Up – lächelnd – sofort zugreifen und sie weiterverarbeiten. Das ist dann die Brücke von der abstrakten 0 und 1 hin zu etwas, was wir nutzen können. Die KI ersetzt nicht die Kreativität. Sie unterstützt uns in den Sachen, die wir nicht gerne machen, um dann die Zeit wirklich dafür zu nutzen, was wir am Besten können, nämlich Filme machen.
Aleksander Koleski: Unser Ziel ist, den Cutter zu unterstützen, nicht nur anzuzeigen, wo im Video was passiert, sondern ihm auch Tipps zu geben. Durch statistische Daten, die wir in unserem Neuro-Labor haben, können wir hinweisen, wenn ein Film so geschnitten ist, für eine Zielgruppe, sagen wir mal YouTube, Facebook, müsste das so geschnitten sein. Das haben wir in unserem Neuro-Labor an Rezipienten getestet. Wir können dem Cutter dieses Feedback geben. Damit wir das machen können, müssen wir ganz viele verschiedenartige Informationen aus dem Rohmaterial ziehen. Auch Emotionen wie: ist die Bewegung angenehm oder nicht? Das sind alles mögliche Informationen. Wir bieten wichtige Prozesse an, die sonst niemand anders kann. Dafür trainieren wir selbst KIs, aber bedienen uns auch an vielen anderen Anbietern für Special Interest. Angefangen von Emotionen und anderen Vorgängen. Durch die Kombination können wir dann noch viel sicherere Daten aus dem Video extrahieren und andererseits haben wir dann auch dieses Potpourri der verschiedenartigsten Informationen überhaupt bei uns in der Plattform zur Verfügung. Kunden haben genau danach gefragt, denn der eine Anbieter kann nur das erkennen, der andere Anbieter jenes und genau da bieten wir unseren Kunden an, bei uns alle möglichen KIs mit nur einer Schnittstelle zu konfigurieren, nur das, was sie wirklich haben möchten.

Die beiden Gründer haben unserem Autor außerdem hier verraten, welche Möglichkeiten sich heute schon durch KI’s bieten und welchen Markt sie in der Filmbranche damit bedienen.

[8999]

Anzeige

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Sie auch interessieren