Multimedia

Deepfake-Videos geraten völlig außer Kontrolle

Ob Tom Hanks oder Mr. Beast, betrügerische Deepfake-Videos machen sich auf Social Media breit. Doch nicht nur Promis können Opfer werden.

20 Minuten
Diese Frauen wurden von einer KI generiert – und können Nutzer so hinters Licht führen.
Diese Frauen wurden von einer KI generiert – und können Nutzer so hinters Licht führen.
Heart/Twitter

Ob Prominente, Politiker oder Influencer: Von wem auf Social Media oder im Internet Videos existieren, der kann Opfer von KI-Deepfakes werden. Die Technologie, um Deepfakes zu erstellen, hat sich mittlerweile so weit entwickelt, dass die Fälschungen oft kaum mehr als solche zu identifizieren sind. Nun sehen sich Plattformen wie TikTok und Instagram vermehrt mit solchen Videos konfrontiert. Oftmals stecken betrügerischen Absichten dahinter. So warnte Schauspieler Tom Hanks kürzlich, dass ein Deepfake von ihm die Runden mache, das für eine Zahnversicherung wirbt. Der bekannte Influencer MrBeast verteilte seinen Fans vermeintlich spottbillige iPhones auf TikTok – ohne etwas davon zu wissen.

Patric Raemy, Kommunikationswissenschaftler und Deepfake-Experte an der Universität Freiburg, erklärt im Interview die Gefahren, die von diesen gefälschten Videos ausgehen und wieso diese wieder präsenter werden.

Herr Raemy, haben sie das Video von MrBeast gesehen?

Ja, das Beispiel zeigt sowohl die Gefahr für die Person, deren Bild und Videomaterial missbraucht wurde, wie auch das Risiko für die Empfängerinnen und Empfänger der Nachricht, darauf hereinzufallen. Dass das Video effektiv als Werbeanzeige erschien, macht das Ganze noch kritischer. Es verleiht ihm mehr Authentizität. Deepfakes sind wie eine neue Art von Spam – quasi die Nachfolge von Betrugsmails. Mit dem Unterschied, dass Menschen für das Thema Deepfakes noch viel stärker sensibilisiert werden müssen.

Wieso gibt es vermehrt solche Videos?

Mit ChatGPT ist ein Hype um KI ausgebrochen, was auch das Thema Deepfake stärker in den Fokus gerückt hat. Künstliche Intelligenz hat in den letzten Monaten massive Fortschritte gemacht und die Technologie hinter den Deepfakes ebenfalls. Vor etwa fünf Jahren brauchte es für ein Deepfake von Ex-US-Präsident Obama ein ganzes Team einer Universität, heute können wir davon ausgehen, dass solche Videos viel einfacher erstellt werden.

Und sie sehen dazu auch noch viel realistischer aus.

Ja, Social Media wurde über Jahre mit Fotos und Videos in immer besserer Auflösung gefüttert. Dieses ganze Material macht Promis, Influencer und Politiker gleichermaßen anfällig für Deepfakes. Sie laufen auch am stärksten Gefahr, dass von ihnen realistische Deepfakes auftauchen. Für Privatpersonen ist die Gefahr noch weniger groß, doch mit dem Fortschritt der Technologie steigt das Risiko, selber betroffen zu sein.

Was sind Deepfakes?

Deepfakes sind realistisch wirkende Medieninhalte, seien es Fotos, Audioinhalte oder Videos, die durch künstliche Intelligenz auf realistische Weise verändert wurden. Diese Art von Medienmanipulation lässt Personen Dinge tun oder sagen, die nicht der Realität entsprechen. Der Begriff setzt sich aus dem englischen "Deep Learning", dem maschinellen Lernen, und dem Wort "Fake" zusammen. Ein Beispiel findest du im Video ganz oben im Artikel.

1/9
Gehe zur Galerie
    Facebook, Instagram, YouTube und selbst Elon Musks hauseigener X-Dienst werden momentan von...
    Facebook, Instagram, YouTube und selbst Elon Musks hauseigener X-Dienst werden momentan von...
    Screenshot YouTube
    Kann man sich überhaupt schützen?

    Eine alte Regel aus den Anfangszeiten von Social Media besagt: "Überlege es dir zweimal, bevor du ein Foto oder Video ins Netz stellst." Heute gilt diese Regel mehr denn je. Die Menschen müssen sich bewusst sein, dass ihre Fotos und Videos im Internet sind und ganz einfach missbraucht werden können. 

    Und wie vermeidet man, selber auf Deepfakes hereinzufallen?

    Gut erstellte Deepfakes sind schwierig als solche auszumachen. Es braucht eine nötige Portion an Medienkompetenz – nicht nur für junge Menschen. Es ist möglich, ein gutes Gespür für Fakes zu entwickeln. In den meisten Fällen helfen da einfache Denkschritte: Wer ist der Verfasser oder die Verfasserin der Nachricht? Wo erscheint die Nachricht? Wie vertrauenswürdig ist die Quelle? Berichten noch andere von dieser Nachricht? Mit gesundem und trainiertem Menschenverstand sowie kritischem Denken fällt schnell auf, dass etwas nicht stimmt.

    Das Risiko betrifft auch Politikerinnen und Politiker. Gibt es auf dieser Ebene schon Diskussionen?

    Politikerinnen und Politiker sind, wie bereits angesprochen, ebenfalls oft vor der Kamera und als exponierte Personen anfällig für Deepfakes. Im Hinblick auf den aktuellen Wahlkampf wurde KI bereits für Wahlplakate verwendet. Aus diesem Grund haben sich fast alle Parteien, mit FDP und SVP als große Abwesende, Ende September auf einen Kodex geeignet, der die Nutzung von KI auf Plakaten oder in Inseraten ab sofort verbietet.

    Wie steht es um die aktuelle Forschung zu Deepfakes?

    Wir sind an einer interdisziplinären Studie zu Deepfakes dran. Daran beteiligt sind unter anderem Forschende der Uni Zürich, Uni Freiburg und auch dem Frauenhofer-Institut in Deutschland. In der Studie wollen wir die Auswirkungen, Chancen und Gefahren der digitalen Manipulation von Ton-, Bild- und Videomaterial abschätzen. Auch analysieren wir, welche technischen Möglichkeiten existieren, um solche manipulierten Inhalte zu erkennen und zu kennzeichnen. Die Ergebnisse sollen im Juni 2024 veröffentlicht werden.