SENDETERMIN So., 06.04.25 | 23:05 Uhr | Das Erste

Deepfakes und Porno-Deepfakes

Die Gefahr der gefälschten Bilder

Deepfakes und Porno-Deepfakes | Video verfügbar bis 06.04.2027 | Bild: unbekannt

„Bilder haben keinerlei Wahrheitsbeweisfunktion mehr“

Ein Deepfake – das ist zum Beispiel, wenn die Gesichter realer Personen in andere Zusammenhänge montiert werden. Durch Künstliche Intelligenz.

„Wenn KI biometrische Daten kopieren und einen Menschen Dinge sagen und tun lassen kann, die er nicht getan hat – dann ist das eine Waffe. Und das sehen wir ja gerade schon“, sagt KI-Expertin Nina Schick.

Wenn ein Video viral geht, in dem der ukrainische Präsident die Kapitulation verkündet.

„Und das hat jetzt eine Dimension angenommen, wo der Zuschauer nicht mehr aus eigener Kraft feststellen kann, sehe ich hier die Wahrheit?“, so der Schauspieler Michael „Bully“ Herbig.

Ist das der echte Barack Obama? Sendet Adam Sandler hier eine Botschaft gegen Antisemitismus?

„Man glaubte an das, was man sah, und das ist natürlich massiv erschüttert jetzt. Bilder haben keinerlei Wahrheitsbeweisfunktion mehr“, meint der Anwalt Christian Schertz.

Petition gegen Deepfakes

Wie gefährlich sind Deepfakes? In einer Welt, in der wir unsere Informationen fast nur noch aus dem Digitalen schöpfen?

Der Bestseller-Autor Marc-Uwe Kling hat gerade eine Petition gegen Deepfakes gestartet. Er richtet sich an die neue Bundesregierung. Ihm macht es Angst, wie unvorbereitet Politik und Gesellschaft auf diese Technologie sind. In seinen letzten Büchern hat er sich literarisch damit beschäftigt. Und viel dazu recherchiert. Dabei wurde ihm immer klarer, was Deepfakes anrichten könnten.  

„Das sind keine High-Tech-Scherze, sondern das kann lebensbedrohlich sein, das kann wirklich Leben zerstören. Und das wird immer einfacher, das zu erstellen. Und wenn der Gesetzgeber da nicht nachjustiert, dann werden wir ein Riesen-Deepfake-Problem kriegen“, so Marc-Uwe Kling.

Seine berühmte Figur aus den „Känguru-Chroniken“ ist vom Urheberrecht geschützt. Bei realen Personen sieht das anders aus: Die Forderung, dass auch Menschen nicht kopiert werden dürfen, haben inzwischen viele deutsche Stars unterzeichnet. Auch er.

„Wie kann man glauben, dass man jemandem seine Identität einfach stehlen kann, um etwas damit herzustellen, ohne seine Zustimmung?“, fragt Michael „Bully“ Herbig.

Seit Deepfakes möglich sind, beschäftigt sich die KI-Expertin Nina Schick neben den positiven Möglichkeiten auch mit den Risiken.

Deepfake-Pornos

„Der allererste Missbrauch dieser Technologie fand im Porno statt, das zielte auf Frauen, die gegen ihren Willen benutzt wurden“, erzählt Nina Schick. „Und heute, fünf, sechs, acht Jahre später, ist dies immer noch einer der schlimmsten Missbräuche künstlicher Intelligenz.“

Stars wie Emma Watson sind davon betroffen. Ein frühes Opfer war auch Scarlett Johansson. Und mittlerweile werden auch Frauen in Pornos kopiert, die nicht berühmt sind.

„Es ist absolut verheerend für Frauen, die so angegriffen werden. Auch wenn es KI-generiert ist, ist die Wirkung so, als wäre es echt. Es ist genauso schlimm. Wenn ein Video einmal in Umlauf ist, ist es bereits rufschädigend. Eine berühmte Schauspielerin hat vielleicht noch Möglichkeiten, rechtlich dagegen vorzugehen – aber was kann ein Teenager tun?“, so Nina Schick weiter.

Jedes Social-Profil könne für Pornos missbraucht werden. In Deutschland, wie in vielen Ländern, sind die Opfer nicht geschützt, sagt der auf Persönlichkeitsrechte spezialisierte Anwalt Christian Schertz. Eine Gesetzeslücke.

„Wir brauchen eine Norm, eine Strafnorm, wo bereits die Herstellung, nicht erst die Verbreitung, bereits die Herstellung von Deepfake-Pornos unter Strafe gestellt werden“, meint Anwalt Christian Schertz. „Und die Plattformen, die das ermöglichen, auch die müssen gesetzlich verpflichtet werden, dass wenn sie Kenntnis davon haben, dass das nicht nur gelöscht wird, sondern auch dafür gesorgt wird durch Filter, dass es nicht wieder hochgeladen werden kann.“

Und das gelte auch für andere Bereiche, zum Beispiel Betrug. Kriminelle täuschten eine Frau mit diesen angeblichen „Beweisfotos“. Sie gaben sich als Brad Pitt aus, erbaten Geld für eine teure Behandlung. Der Schaden solcher Fälle wird in Milliardenhöhe geschätzt.

„Bleibt wachsam, Leute!“

Doch was passiert, wenn Deepfakes für politische Desinformation genutzt werden?

„Wir befinden uns in einer Zeit, in der unsere Feinde jeden zu jedem Zeitpunkt irgendetwas sagen lassen können. Trump ist ein Vollidiot“, heißt es in einem Deepfake Video, in dem angeblich Barack Obama spricht.

Nichts davon hat Barack Obama gesagt. Schauspieler Jordan Peele übertrug seine Mimik auf ihn. Ein Deepfake – das zeigen will, wozu künstliche Intelligenz benutzt werden kann.

„Bleibt wachsam, Leute!“, heißt es in dem Obama-Deepfake.

2023 gaben Börsenkurse (kurzzeitig) nach, als ein Bild einer Explosion nahe dem Pentagon auftaucht. Die nie stattgefunden hat. Künstliche Intelligenz sei hochpolitisch, sagt Nina Schick, die schon Joe Biden und den ehemaligen NATO-Generalsekretär Rasmussen dazu beraten hat.

 „Eine Onlinewelt, in der wir nichts mehr glauben und nichts mehr authentifizieren können: Das ist die Gefahr! Wenn du den Wahrheitsgehalt immer in Zweifel ziehen kannst, dann glaubst du nichts und niemandem mehr“, findet KI-Expertin Nina Schick.

Dieses Video wird millionenfach geteilt. Jüdische US-Stars protestieren scheinbar gegen die antisemitischen Äußerungen des Rappers Kanye West. Ein Deepfake, den viele glauben wollten, weil ihnen die Message gefiel.

„Bei diesem Video zeigt sich geradezu eklatant, wo wir inzwischen angekommen sind. Hier sind ja die Rechte aller Beteiligten verletzt worden. Und auch das Problem, dass man natürlich eine Newslage schafft und eine Nachrichtenlage, die einfach nicht der Wahrheit entspricht“, sagt Anwalt Christian Schertz.

Deepfakes und moderne Kriegsführung

Hier verkündet Präsident Selenskyj die Kapitulation der Ukraine. Es wurde schnell als Fake enttarnt. Doch was hätte passieren können, wenn nicht? Es zeige, wie Deepfakes zu einem gefährlichen Baustein der modernen Kriegsführung werden können, so Nina Schick.

„Das ist wahrscheinlich die Zukunft der hybriden Kriegsführung“, meint Nina Schick. „Es wird mehrstufige Angriffe geben. Künstliche Inhalte sind dabei nur eine Ebene, um die öffentliche Meinung zu verändern oder in einen Informationsraum einzudringen. Das wird mit mehreren anderen Angriffsebenen kombiniert. Ich spreche hier zum Beispiel von Cyber-Angriffen auf kritische Infrastruktur. Das wird dann nicht nur ein einziges Video sein. Sondern es werden sehr viele Videos im großen Stil sein, die Verwirrung stiften und verschiedene Narrative verbreiten.“

Immer realistischer, immer manipulativer

Dazu gehörten auch KI-generierte Fake-Menschen, die man mit Merkmalen ausstattet, um zum Beispiel die Agenda rechter Parteien durchzusetzen. Das hat die AfD im Wahlkampf gemacht. KI-Bilder wie diese sind zwar kein Deepfake, aber auch sie täuschen eine Realität vor, die nicht real ist – und schüren Ängste. Videos, die gezielt entwickelt werden, um Menschen zu verunsichern.

„Politische, KI-generierte Inhalte können nicht isoliert betrachtet werden. Man muss sie im Kontext einer zunehmend lauten, lärmenden, spaltenden Online-Informationswelt betrachten, in der es einfach so viele Inhalte gibt, dass es sehr schwierig wird, die echten von den falschen zu unterscheiden“, so Nina Schick.

Deepfakes – sie werden immer realistischer. Und damit immer manipulativer. In Zeiten gesteuerter Desinformationskampagnen eine echte Gefahr.


Autorin: Katja Deiß

Stand: 07.04.2025 15:29 Uhr

1 Bewertungen
Kommentare
Bewerten

Kommentare

Kommentar hinzufügen

Bitte beachten: Kommentare erscheinen nicht sofort, sondern werden innerhalb von 24 Stunden durch die Redaktion freigeschaltet. Es dürfen keine externen Links, Adressen oder Telefonnummern veröffentlicht werden. Bitte vermeiden Sie aus Datenschutzgründen, Ihre E-Mail-Adresse anzugeben. Fragen zu den Inhalten der Sendung, zur Mediathek oder Wiederholungsterminen richten Sie bitte direkt über das Kontaktformular an die ARD-Zuschauerredaktion: https://hilfe.ard.de/kontakt/. Vielen Dank!

*
*

* Pflichtfeld (bitte geben Sie aus Datenschutzgründen hier nicht Ihre Mailadresse oder Ähnliches ein)

Kommentar abschicken

Ihr Kommentar konnte aus technischen Gründen leider nicht entgegengenommen werden

Kommentar erfolgreich abgegeben. Dieser wird so bald wie möglich geprüft und danach veröffentlicht. Es gelten die Nutzungsbedingungen von DasErste.de.

Sendetermin

So., 06.04.25 | 23:05 Uhr
Das Erste

Produktion

Hessischer Rundfunk
für
DasErste