Microsoft fordert Reaktion

KI-Pornobilder von Taylor Swift könnten Welt verändern

Durch KI leiden viele Frauen unter gefälschten Nacktbildern. Weil jüngst der Pop-Superstar zum Opfer wurde, zwingt das die US-Regierung zum Handeln.

20 Minuten
KI-Pornobilder von Taylor Swift könnten Welt verändern
Nach der Festnahme ihres Stalkers folgt für Taylor Swift bereits der nächste Schock.
Jeffrey T. Barnes / AP / picturedesk.com

Die Plattform X (vormals Twitter) hat jetzt die Notbremse gezogen. Ab sofort ist es dort nicht mehr möglich, nach Taylor Swift (34) zu suchen. Der Grund: In der letzten Woche gingen mittels künstlicher Intelligenz erzeugte Nacktbilder des US-Megastars auf X viral.

Anfang vom Ende

Die Fans der 34-jährigen Sängerin jubeln. "Gut. Es ist ekelhaft, was ihr passiert ist. Ich bin froh, dass X das ernst nimmt", schreibt jemand. Ein anderer fragt sich jedoch: "Wieso bekommt sie eine Spezialbehandlung? In den letzten Jahren gab es viel schlimmere Deepfakes." Tatsächlich ist das Phänomen seit Längerem bekannt. Dass nun mit Taylor Swift der zurzeit größte Star der Welt davon betroffen ist, könnte das Ende der sexuellen Ausbeutung durch Technologie einläuten.

Swifties finden Verantwortlichen

Der 28-jährige X-User "Zvbear" hat sich mit der Falschen angelegt. In der letzten Woche hat er KI-generierte Nacktfotos von Taylor Swift verbreitet. Der Kanadier machte sich anschließend lustig über die Aufforderungen der Fans, die Bilder sofort zu löschen. "Mir ist egal, wie mächtig die Swifties sind, sie werden mich nie finden. Ich brauche für alles, was ich tue, falsche Adressen und Telefonnummern. Solange mein Account aktiviert ist, kann ich nicht verlieren", schrieb er auf X.

Kurz darauf veröffentlichten Fans von Taylor Swift jedoch seinen Namen und eine Adresse in Toronto. Mittlerweile hat der User seinen Account auf privat gestellt. Es ist allerdings unklar, ob er die Pornobilder selbst erstellt oder bloß verbreitet hat.

"Müssen etwas unternehmen"

Microsoft-CEO Satya Nadella zeigt sich besorgt darüber, dass Millionen die falschen Nacktbilder von Taylor Swift gesehen und weiterverbreitet haben, wie er in einem Interview mit "NBC News" erzählt. "Wir müssen etwas unternehmen. Ehrlich gesagt würden wir Techplattformen alle davon profitieren, wenn die Onlinewelt zu einem sichereren Ort werden würde", sagt Nadella weiter.

Es brauche nun rasche Reaktionen. "Wenn Gesetzgeber, Strafverfolgungsbehörden und Technologieplattformen zusammenarbeiten, können wir meiner Meinung nach viel bewirken", sagt der Microsoft-CEO. Während Satya Nadella das Wort "Verbot" umschifft, fordert genau das die US-Gewerkschaft SAG-AFTRA, der Swift angehört. "Die sexuell expliziten, von KI generierten Bilder, die Taylor Swift zeigen, sind verstörend, schädlich und zutiefst besorgniserregend. Die Entwicklung und Verbreitung gefälschter Bilder – insbesondere solcher obszöner Art – ohne die Zustimmung einer Person muss illegal gemacht werden", schreibt die Gewerkschaft in einer Stellungnahme.

US-Regierung ist "alarmiert"

Die Sprecherin des Weißen Hauses, Karine Jean-Pierre, sagt bei einer Pressekonferenz: "Wir sind alarmiert darüber, dass solche gefälschten Bilder zirkulieren. Wir glauben, dass die unabhängigen Social-Media-Plattformen eine wichtige Rolle einnehmen und ihre eigenen Regeln durchsetzen müssen, um die Verbreitung von Falschinformationen zu bekämpfen."

Dem Weißen Haus sei bewusst, dass besonders Frauen und Mädchen darunter leiden, dass die Plattformen bei ähnlichen Fällen dabei versagten, ihre Verantwortung wahrzunehmen. "Präsident Biden und Vizepräsidentin Harris haben bereits im Herbst eine Taskforce zum Thema gegründet. Das Justizdepartement hat eine 24-Stunden-Hotline für Opfer von bildbasiertem sexuellem Missbrauch aufgeschaltet." Die Pressesprecherin verspricht, dass weitere Schritte folgen werden, ohne dabei konkreter zu werden.

Das VIP-Bild des Tages:

1/223
Gehe zur Galerie
    Kim Kardashian modelt stolz ihren neuen "Fellbikni".
    Kim Kardashian modelt stolz ihren neuen "Fellbikni".
    Instagram/kimkardashian
    20 Minuten
    Akt.