Deepfakes

Hinweise auf KI-generiertes Bildmaterial

Deepfakes fluten das Internet, besonders die sozialen Medien. Innerhalb von Sekunden lassen sich Bilder, Videos und Audiodateien von einer KI-Anwendung erstellen. Eingesetzt werden sie in allen möglichen Szenarien, von harmlosen Witze-Videos und grotesken Stunts bis hin zu Mobbing, Desinformationskampagnen, Betrugsmaschen.

Ein großes Problem sind KI-generierte Nacktbilder und -Videos, etwa als "Rachepornos" an Ex-Partnerinnen und -Partnern oder um Menschen auf Fotos "auszuziehen". Hier steht besonders der KI-Chatbot Grok der Social-Media-Plattform X in der Kritik. Der Fall der Schauspielerin und Moderatorin Collien Fernandes zeigt, was für drastische Auswirkungen digitale Gewalt in Form von künstlich generierten Deepfake-Pornos und gefälschten Nacktbildern haben kann.

Mit einem Klick wird aus einem normalen Business-Foto ein Strandbild. 

Unser Media-Security-Wissenschaftler Prof. Martin Steinebach erklärt, was der Stand der Technik ist, was für technische Verfahren genutzt werden, um Deepfakes zu generieren und gibt Hinweise, wie man auch ohne technische Hilfsmittel und IT-forensische Werkzeuge in manchen Fällen Fehler in KI-generierten Bildern finden kann.

Es gibt grundsätzlich zwei Arten, Video-Deepfakes zu erstellen:

  • Face Swap: Über das Original-Video eines Menschen wird ein anderes Gesicht gelegt, die Gesicher also ausgetauscht ("geswappt")
  • Text-to-Video: Man gibt einen Text in eine videogenerierende KI-Anwendung ein, der beschreibt, was man für ein Video haben möchte. Die KI erstellt das Video innerhalb von Sekunden.

Wie kann man Deepfakes erkennen?

Vorab: Hochwertige Deepfakes wird man aber mit bloßem Auge nicht erkennen können. Möglicherweise findet man aber Fehler in Details. Diese zeigt Martin Steinebach hier anhand von Beispielen.

Der Klassiker: zu viele Finger. Passiert aber immer weniger. 

Bei genauem Hinsehen erkennt man in der Pupille dieser komplett KI-generierten Person zackenartige Umrisse anstatt einer runden Pupille. 

Für eine KI ist es relativ schwierig, Schmuck oder Frisuren perfekt symmetrisch auszurichten. Hier im Bild erkennt man auch Asymmetrien in der Halskette, außerdem endet ein Kettenband in der Luft. 

Fehler in der Bild-Logik kann man auch beim Überprüfen des Spiegelbilds feststellen: Anstelle eines gelben Karos auf der linken Schulter oben sieht man im Spiegel das Karo in rot. (Außerdem hat diese spezielle KI einen sehr wilden Geschmack, was Kleidung angeht!) 

In diesem Beispiel sieht man deutlich einen unlogischen, inkonsistenten Schattenwurf.