Bei Filmen wie „Jurassic Park“ oder „Terminator“ lehnte man sich früher mehr oder weniger genüsslich zurück und ließ sich und seine Augen gerne „betrügen“. Schließlich hatte man vieles so noch nie mit eigenen Augen gesehen und wusste dabei, es handelt sich um aufwendig produzierte Hollywood-Fiktion. Eine rasante technische Entwicklung führte komplexe Bildmanipulation aber schon bald aus den teuren Studios und ist mittlerweile für nahezu jeden verfügbar. Können wir heute überhaupt noch glauben, was wir sehen?

Deepfakes (oder auch Deep Fakes) setzt sich aus den Begriffen Deep Learning und Fake (Fälschung) zusammen und bezeichnet seit ca. 2017 mit Einsatz von künstlicher Intelligenz hergestellte Bilder und Videos, die täuschend echt wirken, es aber nicht sind.

Deep Learning, der Einsatz künstlicher neuronaler Netze, kommt in der KI immer dann zur Anwendung, wenn sich Aufgabenstellungen nur schwer mathematisch beschreiben lassen also z.B. gerade in der Sprach- und Gesichtserkennung. Diesen technischen Aspekt erwähne ich deshalb, weil er zeigt, dass wir es bei Deepfakes nicht etwa mit stumpfer Bildschnitt- oder Schablonensoftware zu tun haben. Vielmehr ist die schnelle Entwicklung und die rasant wachsende Qualität bei der Videomanipulation gerade eben auf den Ansatz des Machine Learning zurückzuführen. Und mit ihr leider auch die Gefahren und Problemstellungen die sich daraus ergeben!

Gefaked wird alles, was Aufmerksamkeit erzeugt

2018 sorgte ein Clip für Aufsehen, hinter dem der Schauspieler Jordan Peele steckte: Darin bezeichnet Barack Obama seinen Nachfolger Donald Trump als Vollidioten. Gleichzeitig spricht er über die Gefahren der Bildmanipulation. Alle Aussagen wurden Obama buchstäblich in den Mund gelegt, der Text, den er spricht stammt von Jordan Peele. Das Video ist ein Deepfake!

Im Grunde kann man also beliebige Personen Dinge sagen oder tun lassen, die so niemals gesagt wurden oder stattgefunden haben.

Bis zu ihrer Sperrung im Jahr 2018 wurden auf einer Plattform tausende von Deepfakes veröffentlicht (und an der Verbesserung ihrer Qualität gearbeitet), die bekannte Schauspielerinnen und Schauspieler in Pornosequenzen zeigen. Mittlerweile werden auch zunehmend Privatpersonen in dieser oder ähnlicher Weise verunglimpft. Die breite Verfügbarkeit der Technologie, im Netz verfügbare Anleitungen für den perfekten Deepfake und immer leistungsfähigere Hardware lassen erahnen, welche Flut an Fälschungen in Zukunft auf uns einströmen wird!

Katz-und-Maus-Spiel…

An den Themen KI-gestützter Bildmanipulation, Spracherzeugung und Gesichtserkennung wird weltweit geforscht, oft an renommierten Universitäten. Hao Li, ausserordentlicher Professor an der University of Southern California (USC) und Deepfake-Pionier der ersten Stunde, sagt: „Technik ist weder gut noch schlecht, es kommt darauf an, was man aus ihr macht.“ Er selbst arbeitet viel für Hollywood-Produktionen und entwickelt Kunstprojekte, die mit Bildmanipulation arbeiten. Zunehmend widmet er sich aber auch der Aufgabe, Deepfakes zu analysieren und als solche identifizieren zu können. Mit einem Kollegen liefert er sich eine Art Katz-und-Maus-Spiel, bei dem Hao Li versucht, möglichst perfekte Deepfakes zu erzeugen, während sich die Gegenseite darauf konzentriert, diese als Fälschungen zu entlarven.

Noch gibt es einige Hinweise, mit deren Hilfe man Deepfakes erkennen kann: Fälschungen werden häufig in geringerer Auflösung veröffentlicht um eventuelle Fehler zu vertuschen, Konturen bewegen sich nicht ganz exakt, unnatürliches Augenblinzeln von Personen, unstimmige Lichtverhältnisse bis hin zur Sichtbarmachung des Herzschlags (ist das eine lebende Person?).

Die Bild- und Video-Forensik wird in Ausmaß und Bedeutung in bisher unbekannter Weise zunehmen.

Schließlich funktioniert Deepfake ja auch im Umkehrschluss: Bei einer Straftat oder problematischen Aussage gefilmte Personen, könnten jederzeit geltend machen, dass es sich um „Fake“ handelt.

… oder Hase und Igel?

Es bleibt abzuwarten, wie sich die weitere Entwicklung gestaltet, Tendenzen weisen allerdings darauf hin, dass sich die technischen Möglichkeiten der Medienmanipulation schneller entwickeln als die ihrer Entlarvung. Dann wäre aus dem Katz-und-Maus-Spiel eher ein Hase und Igel geworden. Die Qualität von Deepfakes ist immer schon da, wo die Analyse erst noch hin muss!

Auch die rechtliche Würdigung von Deepfakes hinkt hinterher. Personen, deren Ruf oder Persönlichkeitsrecht geschädigt oder verletzt wurde, haben nach wie vor große Schwierigkeiten ihre Rechte in einem Fall von Bildmanipulation geltend zu machen.

Der verantwortliche Umgang mit neuer Technologie muss immer erst erlernt werden. In diesem Lernprozess sind Analyseverfahren, Bild- und Quellenrückverfolgung aber insbesondere sorgfältigste und belastbare journalistische Recherche die wichtigsten Stützpfeiler! Nur mit ihnen und einer angemessenen Portion Skepsis können wir dafür sorgen, dass Hollywood und Realität, Fiktion und Fakt weiterhin gut unterscheidbar bleiben!

Photo by Cristian Palmer on Unsplash