Deep Fakes helfen, die Illusion zu beseitigen, dass man Bildern glauben kann

Das Ende einer Illusion

Was wäre, wenn sich jederzeit täuschend echt aussehende Videos herstellen ließen, in denen man eine beliebige Person beliebige Dinge tun oder sagen lassen kann? Fast ist es so weit. Sogenannte Deepfakes sind Bilder und Videos, die entweder von Künstlicher Intelligenz (KI) erstellt oder durch sie manipuliert wurden.
Von

Vielleicht ist »Rogue One« der beste Star-Wars-Film des vergangenen Jahrzehnts, aber er hat einen Schönheitsfehler: Die Immersion bricht jeweils dann kurz zusammen, wenn Grand Moff Tarkin und die junge Prinzessin Leia auftreten. Die Darsteller Peter Cu­shing und Carrie Fisher waren zur Zeit des Drehs schon verstorben und wurden für die Rolle per Computeranimation zum Leben erweckt. Allerdings wirkt die Animation auf subtile und ­etwas unangenehme Weise unecht, ohne dass sich so recht sagen ließe, ­woran es liegt.

Manche Star-Wars-Fans und Graphiker ließ dieser Umstand nicht mehr los. Von der Öffentlichkeit weitgehend unbemerkt entstand in den Nischen von Social Media ein Wettbewerb, wer Prinzessin Leia kunstvoller animieren könne als die Disney-Graphiker. Reste dieses Wettkampfs sind heute noch auf Youtube zu finden. Die selbstgebastelten Leia-Imitate sind nicht nur meist überzeugender als ihr Kinovorbild, sie wurden auch in Tagen oder Stunden erstellt – während die Disney-Graphiker noch Wochen gebraucht hatten.

Auch wenn es angesichts der Suggestionskraft von Bildern schwerfällt, muss man sich an den Gedanken gewöhnen, dass sie ebenso geschrieben und verändert werden können wie Text.

Möglich macht das Software wie Fake­app, die frei im Internet heruntergeladen werden kann. Sie basiert auf Deep Learning, einer Form von Künstlicher Intelligenz. Die neuronale Vernetzung im menschlichen Gehirn wurde dabei auf vereinfachte Weise nachprogrammiert. Das daraus entstandene System lässt sich mit großen Datenmengen so trainieren, dass es recht zuverlässig Muster erkennen kann. Nach ähnlichen Prinzipien funktioniert die Gesichtserkennung im iPhone. Allerdings können solche Systeme bei entsprechendem Aufbau nicht nur Muster erkennen, sondern auch erzeugen – also Gesichter nicht nur identifizieren, sondern auch erfinden oder nachahmen. Man füttert den Computer mit sehr vielen Bildern und Videoschnipseln von Carrie Fisher als Prinzessin Leia und er ist anschließend in der Lage, ihre Gesichtszüge auf ein bewegtes Bild einer völlig anderen Person zu übertragen. Je nach Rechenleistung dauert das ein paar Stunden oder geht sogar in Echtzeit.

Benannt wurden diese Videos kurzerhand nach einem Reddit-User, der die ersten gefälschten Videos mit Nicolas Cage veröffentlichte und sich selbst »Deepfake« nannte. Obwohl viele dieser Deepfakes echter als das wirken, was Disney-Graphiker in mühevoller Kleinarbeit animierten, sehen die meisten wenig überzeugend aus. Oft stimmen die Übergänge zwischen dem gefälschten Gesicht und der Umgebung nicht. Manchmal flackert das eine Gesicht über dem anderen, so dass Nase, Mund oder Auge des Originals immer mal wieder aufblitzen. Manchmal hängt das ganze Gesicht in einem unmöglichen Winkel am Kopf. Solche Billig-Deepfakes, die eher an Snapchat- und Instagram-Filter erinnern, fluteten die Online-Foren und Social-Media-Plattformen.

Für ein gut gemachtes Deepfake müssen die zu fälschende Person und das Videomaterial zusammenpassen. Wer überzeugend Putin oder Selenskyj fälschen möchte, benötigt dafür Ziel­material, in dem Schauspieler auch ­deren typische Mimik und Haltung imitieren, damit alles stimmig aussieht. Oder man verwendet anstelle eines Schauspielers einfach passendes Filmmaterial der zu fälschenden Person.

Das beliebteste Deepfake-Genre ­neben Nicolas-Cage-Videos war, die ­Gesichter von Stars in Pornofilme zu montieren, was aber Social-Media-Plattformen wie Reddit oder Twitter nach kurzer Zeit unterbanden, als längst nicht mehr nur die Köpfe Prominenter in die Videos eingebaut wurden. Bald ging es nicht mehr nur um Spaß, sondern auch darum, »Rache­pornos« von dem oder der Ex zu veröffentlichen oder Personen mit gefälschten Pornos oder anderem vermeintlich kompromittierendem Material zu erpressen. Ab 2018 erließen einige Länder Gesetze, die derlei strafbar machen, wenn es das nicht schon war.

Man sollte meinen, dass Deepfakes das Potential haben, jede Menge Ärger zu verursachen, aber dessen Ausmaß blieb weit hinter den Erwartungen zurück. Zwar wurde immer wieder versucht, mit Hilfe von Deepfakes Unruhe zu stiften, aber wirklich funktioniert hat das selten. So tauchten im US-Präsidentschaftswahlkampf 2020 Deep­fakes von Joe Biden auf, die aber kaum ernst genommen wurden und niemanden interessierten. Ähnliches geschah im selben Jahr in Indien. Seither wurde es immer wieder versucht; zuletzt tauchten Deepfakes rund um den Krieg in der Ukraine auf, die aber in ­ihrer Machart so schlecht waren, dass eigentlich niemand auf sie hereinfiel.

Mittlerweile warnt Europol vor Kriminellen, die Deepfakes für die sogenannte Chef-Masche nutzen. Früher gaben sie sich per E-Mail oder Telefon als Chefs aus, die ihre Untergebenen beauftragten, eine Überweisung auf ein bestimmtes Konto zu tätigen. Das wird jedoch immer schwieriger, seit sich diese Masche herumgesprochen hat, weshalb gefälschte Videos die Glaubhaftigkeit erhöhen sollen. Bisher sind solche Fälle allerdings selten und diverse andere Praktiken einfacher und lukrativer – zum Beispiel, Computerviren zu verteilen und anschließend die betroffenen Firmen zu erpressen, die ihre Daten gerne zurückhätten.

Seit dem Auftreten von Deepfakes diskutiert das Feuilleton in erschrockenem Tonfall, ob wir demnächst denn gar keinen Bildern mehr trauen können. Die Debatte verläuft erstaunlich niveaulos, kommen doch sehr viele Feuilletonisten aus den Kultur- und Medienwissenschaften und müssten daher eigentlich wissen, wie leicht sich Bilder fälschen oder manipulieren lassen und in welchem Ausmaß das schon immer geschah. Bisher wird weitgehend ignoriert, dass dokumentarisches Filmmaterial niemals neutral ist, sondern immer durch Bildauswahl, Schnitt und bisweilen Inszenierung eine bestimmte Aussage suggeriert, die keinesfalls immer zutreffen muss. Vielleicht bleibt die Debatte auch folgenlos, weil Deepfakes gar nicht so viel daran ändern, dass Bilder manipulierbar sind und schon immer manipuliert wurden.

Womöglich richten Deepfakes selbst weniger Schaden an als die Tatsache, dass Leute, die in kompromittierenden Situationen gefilmt wurden, jetzt behaupten können, das Videomaterial sei in Wahrheit ein Deepfake. Damit dürfte sich genug Verwirrung stiften lassen, obwohl sich bislang relativ leicht herausfinden lässt, ob es sich bei einer Videosequenz um echtes Material handelt oder um ein Deepfake. Änderungen im unsichtbaren Grundrauschen der Kamera, seltsame Wiederholungen in Bewegungsmustern und ähnliche Anhaltspunkte verraten die Fälschung. Je nach Qualität des Videos lassen sich Deepfakes selbst von Laien oft auf den ersten oder zweiten Blick erkennen, von Fachleuten fast immer. Außerdem ist es denkbar, ein Machine-Learning-System darauf zu trainieren, Deepfakes zu erkennen.

Vielleicht sind Deep Fakes aber auch hilfreich, um endlich die Illusion zu beseitigen, dass man Bildern glauben könne. Das war zwar noch nie so, die ­Illusion wirkte aber immer weiter. Auch wenn es angesichts der Suggestionskraft von Bildern schwerfällt, muss man sich an den Gedanken gewöhnen, dass sie ebenso geschrieben und verändert werden können wie Text. Damit, dass man diesen manipulieren und fälschen kann, hat die Menschheit einen kulturellen Umgang gefunden, lange bevor es überhaupt Fotos und Videos gab. Dass ein solcher Lernprozess bereits im Gange ist, wurde beispielsweise deutlich, als der Rapper Kendrick Lamar in einem Musikvideo per Deep­fake als Kanye West, Will Smith und Kobe Bryant auftrat und dabei die ­typische Ästhetik von Deepfake-Demovideos übernahm. Deepfake ist bereits Pop.