[REQ_ERR: COULDNT_RESOLVE_HOST] [KTrafficClient] Something is wrong. Enable debug mode to see the reason. Nacktbilder im Netz: Taylor Swift beim Sex im Football-Stadion? So gehen Sie KI-Bildern nicht auf den Leim – Neuigkeiten für dich

Nacktbilder im Netz: Taylor Swift beim Sex im Football-Stadion? So gehen Sie KI-Bildern nicht auf den Leim

Vermeintliche Nacktbilder von US-Popstar Taylor Swift, teils millionenfach aufgerufen, standen stundenlang im Netz, ehe die Plattform „X“ sie löschte. Die Aufnahmen waren nicht echt, sondern KI-generiert. Wie lassen sich solche Inhalte entlarven?

Dass im Netz vermeintliche Nacktbilder oder -videos von Prominenten kursieren, ist kein neuer Trend. Es gibt Dutzende Anbieter, für die sich die Veröffentlichung derartiger Fälschungen zu einer lukrativen Einnahmequelle entwickelt hat. Was hingegen neu ist: Waren täuschend echt aussehende Fakes lange Zeit nur mit entsprechender Expertise im Bereich der Bild- oder Videobearbeitung möglich, befähigen Künstliche Intelligenzen heutzutage theoretisch jeden zum Erstellen solcher Inhalte.

Das musste jüngst auch US-Popstar Taylor Swift erfahren, von der am Mittwoch mehrere Bilder in sexuell eindeutigen, teils pornografischen Posen auf X verbreitet und dort millionenfach abgerufen worden waren, ehe die Plattform die Fakes löschen ließ.

Swift-Fakes kommen vermutlich aus Telegram-Gruppe

Ihren Ursprung hatten die Fälschungen laut einem Bericht des auf Internetthemen spezialisierten Portals „404 Media“ in einer Telegram-Gruppe, erst im Anschluss landeten sie bei X. Dessen Sicherheitsteam stellte am Freitagmorgen, also fast einen Tag später, klar, dass die Verbreitung „nicht einvernehmlicher Nacktheit“ strengstens untersagt sei und man diesbezüglich eine „Null-Toleranz-Richtlinie“ habe. 

Tatsächlich ist der Account des Hauptverbreiters der Bilder inzwischen gelöscht – der Schaden war da aber längst angerichtet. 

Quiz Bildpaare Ki-Bild oder Fot 20 uhr

KI-Bilder entlarven: ein Leitfaden

Während einige der Swift-Fakes mit gesundem Menschenverstand schnell als solche zu entlarven waren, fällt das bei anderen schon deutlich schwerer. Auf was sollte man also achten, wenn einem ein Bild oder Video verdächtig vorkommt?

In Bezug auf mögliche KI-Inhalte gilt es, sowohl die innere wie auch die äußere Logik der Aufnahme zu überprüfen. Was heißt das?

Unter „innere Logik“ fallen die folgenden Aspekte:

Sehen die Hände, Finger oder auch Zähne realistisch aus? Hat die abgebildete Person zu viele oder zu wenige Finger, womöglich gar mehrere Zahnreihen? (Anmerkung: KI wird in diesem Bereich immer besser, sodass es hier schon bald keine Auffälligkeiten mehr geben dürfte.)Stehen die Haare der Person eigenartig ab oder wirken sie komisch „fusselig“?Sind die Übergänge an Kragen, am Ohr oder auch bei Fingerschmuck stimmig?Gibt es Bildfehler, etwa unerklärliche Flecken im Haar oder Bart der Person?Wie sind Gebäude, Bäume oder auch andere Gesichter im Hintergrund dargestellt? Sind sie verzerrt, kann das ein Hinweis auf KI-Nutzung sein. Falls ein angeblicher Aufnahmeort genannt wird: Überprüfen Sie zum Beispiel bei Google Maps, ob es dort tatsächlich so aussieht.KI kann (noch) Probleme bei der Darstellung von Dreidimensionalität haben. Leerer Blick: Haben Personen, die nicht direkt in die „Kamera“ blicken, unfokussierte Augen? Dann ist hier vermutlich etwas faul.Passen Beleuchtung, Spiegelungen oder Schattenwürfe nicht zusammen, sollten Ihre Alarmglocken schrillen. Das gilt auch, wenn die genannten Aspekte zu perfekt sind – das ist in Alltagssituationen in der Regel nicht der Fall und damit verdächtig.Schauen Sie sich bei verdächtigen Videos vor allem Gesichts- und Kieferbewegungen genau an. Wirken diese puppenhaft, dürften Sie es mit einer Fälschung zu tun haben.Auch wenn Oberkörper und Gesicht nicht synchron agieren, der Kopf aufgesetzt oder maskenhaft wirkt, dürfte das Video mittels KI generiert worden sein.

Wie entsteht ein KI-Bild 16.25

In welchem Kontext soll die Aufnahme entstanden sein?

Während sich die „innere Logik“ einer Aufnahme vor allem um das im Bild oder Video Gezeigte dreht, soll die Überprüfung der „äußeren Logik“ Kontext herstellen.

Darunter fällt:

Wann und wo soll die Aufnahme entstanden sein? Sind die Angaben plausibel?Hat der/die Verbreiter:in die Aufnahme selbst gemacht bzw. kann er oder sie wirklich dabei gewesen sein?Soll das Gezeigte ein echtes Geschehen abbilden oder schreibt der/die Verbreiter:in, dass es ein fiktiver Inhalt ist? (Tipp: Versuchen Sie, verdächtige Inhalte mittels einer Rückwärtssuche zu finden – häufig werden Bilder von KI-Künstlern geklaut und in anderem Kontext hochgeladen.)Finden sich weitere Aufnahmen der Szene im Netz? In der heutigen Smartphone-Zeit ist es unwahrscheinlich, dass aufmerksamkeitswirksame Situationen nicht auch von anderen Menschen eingefangen wurden. Vorsicht ist auch dann geboten, wenn derartige Inhalte nicht in klassischen Medien aufgegriffen werden.Heutige Kameras produzieren sehr scharfe Bilder und Videos. Ist ein Inhalt hingegen sehr unscharf, kann das eine Verschleierungstaktik sein.

Weitere Tipps:

Beim KI-Anbieter „Midjourney“ lassen sich Fake-Bilder mittels Schlagwortsuche finden.Es gibt Anbieter (zum Beispiel „Hive Moderation“ oder „Huggingface“ ), die vermeintliche KI-Inhalte erkennen wollen, (noch) aber mal besser, mal schlechter funktionieren. Betrachten Sie die Ergebnisse derartiger Überprüfungstools daher als Hinweis, nicht jedoch als Beweis, dass ein Content KI-generiert ist. 

Quellen:  „404 Media“ / „X“