Deepfakes
Hinweise auf KI-generiertes Bildmaterial
Deepfakes fluten das Internet, besonders die sozialen Medien. Innerhalb von Sekunden lassen sich Bilder, Videos und Audiodateien von einer KI-Anwendung erstellen. Eingesetzt werden sie in allen möglichen Szenarien, von harmlosen Witze-Videos und grotesken Stunts bis hin zu Mobbing, Desinformationskampagnen, Betrugsmaschen.
Ein großes Problem sind KI-generierte Nacktbilder und -Videos, etwa als "Rachepornos" an Ex-Partnerinnen und -Partnern oder um Menschen auf Fotos "auszuziehen". Hier steht besonders der KI-Chatbot Grok der Social-Media-Plattform X in der Kritik. Der Fall der Schauspielerin und Moderatorin Collien Fernandes zeigt, was für drastische Auswirkungen digitale Gewalt in Form von künstlich generierten Deepfake-Pornos und gefälschten Nacktbildern haben kann.

Mit einem Klick wird aus einem normalen Business-Foto ein Strandbild.
Unser Media-Security-Wissenschaftler Prof. Martin Steinebach erklärt, was der Stand der Technik ist, was für technische Verfahren genutzt werden, um Deepfakes zu generieren und gibt Hinweise, wie man auch ohne technische Hilfsmittel und IT-forensische Werkzeuge in manchen Fällen Fehler in KI-generierten Bildern finden kann.
Es gibt grundsätzlich zwei Arten, Video-Deepfakes zu erstellen:
- Face Swap: Über das Original-Video eines Menschen wird ein anderes Gesicht gelegt, die Gesicher also ausgetauscht ("geswappt")
- Text-to-Video: Man gibt einen Text in eine videogenerierende KI-Anwendung ein, der beschreibt, was man für ein Video haben möchte. Die KI erstellt das Video innerhalb von Sekunden.
Wie kann man Deepfakes erkennen?
Vorab: Hochwertige Deepfakes wird man aber mit bloßem Auge nicht erkennen können. Möglicherweise findet man aber Fehler in Details. Diese zeigt Martin Steinebach hier anhand von Beispielen.

Fehler in der Bild-Logik kann man auch beim Überprüfen des Spiegelbilds feststellen: Anstelle eines gelben Karos auf der linken Schulter oben sieht man im Spiegel das Karo in rot. (Außerdem hat diese spezielle KI einen sehr wilden Geschmack, was Kleidung angeht!)

In diesem Beispiel sieht man deutlich einen unlogischen, inkonsistenten Schattenwurf.
Weiterführende Literatur und Presse
- Augsburger Allgemeine | Interview mit Martin Steinebach
„Nur noch schwer mit bloßem Auge zu erkennen“: Das sagt ein Experte über Deepfakes - SWR im Gespräch mit Martin Steinebach
Deepfake: "Der Mensch glaubt, was er sieht" - NDR-Info | Interview mit Martin Steinebach
IT-Experte Steinebach zu Deepfakes: "Täter nicht leicht zu identifizieren" - Echo Online | Gespräch mit Martin Steinebach (Paywall)
IT-Forensiker: „Jede Künstlerin muss mit Deepfakes rechnen“ - Märkische Oderzeitung | Gespräch mit Martin Steinebach (Paywall)
Sexualisierte Deepfakes im Netz : „Eine verlässliche Erkennung gibt es nicht“ - DuD 11/24
Umgang mit GenAI und Deepfakes - DuD 4/23
Deepfakes, Dall-E & Co.



