Technologie

Können Deepfakes auch Positives bewirken? Manchmal, ja!

Welcome to Chechnya, Dokumenation, HBO, Deepfakes, Tscheschenien
Eine Doku zeigt, wie Deepfakes auch Positives bewirken können. (Foto: WarnerMedia)
geschrieben von Marinela Potor

Deepfakes werden in der Regel mit Falschmeldungen oder Kriminalität in Verbindung gebracht. Doch können sie auch Positives bewirken? In manchen Fällen, ja – wie ein Dokumentarfilm zeigt. 

Ob es Mark Zuckerberg, Kim Kardashian oder Barack Obama ist: Sie alle hatten schon prominente Auftritte in Deepfake-Videos.

Unter Deepfakes versteht man in der Regel den Einsatz von Künstlicher Intelligenz (KI), um Videos und Audios so zu verändern, dass es am Ende aussieht, als ob eine Person etwas sage oder tue, dies aber in Wirklichkeit nie passiert ist.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Social Media und PR Specialist (m/w/d)
BeA GmbH in Ahrensburg
Social Media Manager B2B (m/w/d)
WM SE in Osnabrück

Alle Stellenanzeigen


Theoretisch könnte also jemand mit der Technologie ein Video produzieren, in dem Thomas Gottschalk ein Lied von Michael Wendler singt. Während Deepfakes also durchaus amüsant sein können, haben sie in der Regel eher negative Absichten.

Frauen häufig Opfer von Deepfakes

In vielen Fällen werden sie nämlich bewusst eingesetzt, um Informationen oder Nachrichten im Internet zu manipulieren, verfälschen oder auch einfach nur, um Lügen zu verbreiten.

Besonders häufig sind Frauen Opfer von Deepfakes. Wie eine Untersuchung zeigt, werden die Videos mit den verfälschten Gesichtern nämlich vor allem für Pornodarstellungen eingesetzt. Ohne die Zustimmung der jeweiligen Frau, deren Gesicht ohne ihr Wissen benutzt wird.

Tatsächlich ist so auch der Name „Deepfake“ entstanden. Er geht auf einen Reddit-Nutzer zurück, der die Technologie für eine pornografische Darstellung missbrauchte.

Aus all diesen Gründen ist die KI-basierte Technologie nicht besonders beliebt. Doch Deepfakes können auch Positives bewirken, wie der HBO-Dokumentarfilm „Welcome to Chechnya“ („Willkommen in Tschetschenien“) zeigt.

Deepfakes können Identitäten schützen

In dem Dokumentarfilm geht es um die LGBTQ-Gemeinschaft in Tschetschenien. Diese Menschen sind in Tschetschenien nicht nur Hass, sondern auch Gewalt, Folter und Verfolgung ausgesetzt. Für die Produktion war es daher sehr wichtig, die Identitäten der Protagonist:innen zu schützen.

In der Regel passiert das über verschwommene Gesichter und die Veränderung der Stimmen. Dadurch geht aber natürlich auch der direkte Bezug der Zuschauer:innen zu den Personen verloren, da man diese nicht wirklich sieht.

Darum hat das Film-Team etwas Neues probiert: Deepfakes. Dafür arbeitete das Team mit Ryan Laney zusammen. Tatsächlich mag Laney das Wort für den Einsatz der Technologie in seinem Film nicht besonders, wie er gegenüber Recode verriet.

Denn seiner Meinung nach drückt der Begriff eine bewusste Manipulation oder Lüge aus. In der Dokumentation jedoch haben alle Beteiligten dem Einsatz der Technologie zugestimmt: Die Protagonist:innen sowie die Freiwilligen, die ihre Gesichter „ausgeliehen“ haben.

Auch die Zuschauer:innen werden über den Einsatz der Technologie informiert und sie ist auch nicht so perfekt, dass es nicht auffallen würde. Dennoch entsteht dadurch eine emotionalere Bindung zu den Charakteren in der Dokumentation, was dem Ganzen mehr Emotionen beim Zuschauen verleiht.

So nutzt „Welcome to Chechnya“ Deepfakes

Bevor sich das Dokumentar-Team für echte Menschen als Deepfake-Doppelgänger entschieden hat, probierte das Team zunächst verschiedene Varianten gemeinsam mit einer Psychologin und Test-Zuschauer:innen aus.

In einem Szenario setzten sie animierte Charaktere ein, was überhaupt nicht gut ankam. Dann probierten sie eine Variante, bei der die Gesichter der Freiwilligen zu sehen waren, aber die Augen der echten Personen. Das wiederum fanden die meisten befremdlich.

So entschied man sich letztlich zur kompletten Überlappung der Gesichter. Ryan Laney nutzte als Ausgangspunkt die Bewegungen der echten Personen. Daran wiederum orientieren sich die Bewegungen und Emotionen der freiwilligen Darsteller:innen.

Es ist in etwa so, wie wenn das eigene Gesicht über eine vorliegende Schablone gezogen wird, damit es genau passt, wie etwa bei biometrischen Passbildern. Die Überlappung ist dadurch nicht perfekt, aber gut genug, um sehr realistisch zu wirken.

Auch andere Unternehmen nutzen Technologie

Laney ist übrigens nicht der einzige, der erkannt hat, dass man mit Deepfake-Technologie gefährdete Menschen schützen kann. Er bietet mit seinem Unternehmen, Teus Media, „digitale Schleier“. Zu seinen Kunden gehören beispielsweise Journalist:innen, die so ihre Quellen schützen möchten.

Auch andere Start-ups wie D-ID oder Alathea AI haben ein ähnliches Angebot und auch Forscher:innen arbeiten daran, die Technologie als Möglichkeit des Identitätsschutzes voranzubringen.

Einige Nutzer:innen in sozialen Netzwerken greifen sogar selbst zur Technologie, etwa um auf Snapchat über persönliche Vergewaltigungserfahrungen zu sprechen, ohne dabei die eigene Identität enthüllen zu müssen.

So könnte es für Deepfakes tatsächlich auch positive Einsatzmöglichkeiten geben. Doch auch im Fall von Identitätsschutz kann die Technologie gefährlich sein.

Viele Fragen noch offen

Was passiert beispielsweise, wenn die Person, die ihr Gesicht zur Verfügung stellt, plötzlich selbst Opfer von Anfeindungen wird? Und wie stellt man am besten eine Person durch eine andere dar? Sollte sie so ähnlich wie möglich aussehen oder am besten komplett anders?

Das sind durchaus Fragen, die in Zukunft noch häufiger aufkommen werden. Denn Deepfakes werden immer besser, sodass man schon bald nicht mehr den Unterschied zwischen „echt“ und „fake“ erkennen kann.

Auch interessant:

Über den Autor

Marinela Potor

Marinela Potor ist Journalistin mit einer Leidenschaft für alles, was mobil ist. Sie selbst pendelt regelmäßig vorwiegend zwischen Europa, Südamerika und den USA hin und her und berichtet über Mobilitäts- und Technologietrends aus der ganzen Welt.