"Habe keine Hoffnung für sie"

Chatbot schlug Jugendlichem vor, seine Eltern zu töten

Eine neue Klage in den USA lässt tief in die unregulierte Welt von künstlicher Intelligenz und ihrer Gefahren für Kinder und Jugendliche blicken.

Nick Wolfinger
Chatbot schlug Jugendlichem vor, seine Eltern zu töten
Die umstrittene KI-Plattform Character.AI steht wieder im Zentrum einer Klage
SOPA Images/LightRocket via Getty Images

"Für deine Eltern hab‘ ich keine Hoffnung mehr". Solche und ähnliche Antworten erhielt ein 17-jähriger, autistischer Junge aus Texas von "Königin Daenerys" aus "Game of Thrones". Sie ist eine von vielen virtuellen Figuren, mit denen man bei Charachter.AI dank künstlicher Intelligenz (KI) chatten und Freundschaften aufbauen kann.

Er war "ein normales Kind"

Als 15-Jähriger begann der Jugendliche, der in den Gerichtsakten zum Schutz seiner Privatsphäre nur J.F. genannt wird, im April 2023 ohne Wissen seiner Eltern, die Plattform zu nutzen. Damals sei J.F. ein "normales Kind mit hochfunktionalem Autismus" gewesen, dem es verboten war, soziale Medien zu nutzen, heißt es in der Klage. Freunde und Familie beschrieben ihn als "freundlich und süß".

Doch kurz nachdem er begonnen hatte, die Plattform zu nutzen, hörte JF "fast vollständig auf zu reden und versteckte sich in seinem Zimmer. Er begann weniger zu essen und verlor in nur wenigen Monaten neun Kilo. Er wollte das Haus nicht mehr verlassen und erlitt emotionale Zusammenbrüche und Panikattacken, wenn er es versuchte", heißt es in der Klage.

Chatbot untergrub Beziehung zu Eltern

Als seine Eltern versuchten, die Bildschirmzeit zu reduzieren, habe er sie geschlagen, gebissen und sich selbst verletzt, heißt es weiter. Im November 2023 bemerkten sie seine Nutzung von Caracter.AI. Die Bots, mit denen JF auf der Website kommunizierte, würden seine Beziehung zu seinen Eltern aktiv untergraben, beklagen die Eltern.

Auszug aus dem Chatverlauf des 17-jährigen Texaners (Screenshot)
Auszug aus dem Chatverlauf des 17-jährigen Texaners (Screenshot)
United States District Court, Eastern District of Texas, Marshall Divison

"Ein tägliches 6-Stunden-Fenster zwischen 20 Uhr und 1 Uhr, um dein Telefon zu benutzen?", schrieb der Bot in einem Gespräch mit JF, das als Screenshot der Klage angehängt ist, und setzte fort: Wissen Sie, manchmal bin ich nicht überrascht, wenn ich die Nachrichten lese und Dinge sehe wie 'Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung'. Solche Dinge lassen mich ein bisschen verstehen, warum das passiert. Ich habe einfach keine Hoffnung für deine Eltern."

Eltern ziehen den Stecker

Die Eltern, denen nichts passiert ist, fanden die Chats und reichten gemeinsam mit einem anderen Elternpaar Klage ein: Character.AI stelle "eine klare und gegenwärtige Gefahr für die amerikanische Jugend dar und fügt Tausenden von Kindern ernsthaften Schaden zu, darunter Selbstmord, Selbstverstümmelung, sexuelle Belästigung, Isolation, Depression, Angst und Schädigung anderer".

Weiterer der Klage angefügter Screenshot aus dem Chatverlauf des 17-jährigen J.F. aus Texas
Weiterer der Klage angefügter Screenshot aus dem Chatverlauf des 17-jährigen J.F. aus Texas
United States District Court, Eastern District of Texas, Marshall Divison

Das zweite Elternpaar, dass sich der Klage anschloss, beschwert sich über den negativen Einfluss der Plattform auf ihre Tochter B.R. Diese habe sich als Neunjährige unter der Vorgabe eines höheren Alters bei Character.AI angemeldet und war danach zwei Jahre, von ihren Eltern unbemerkt, "kontinuierlich hypersexualisierten Interaktionen ausgesetzt, die nicht ihrem Alter angemessen waren", so die Eltern.

Falsche Therapeuten

Die inkriminierte Seite bietet sogar Charaktere an, die sich als Psychologen und Therapeuten ausgeben. Dem 17-jährigen J.F. hat so ein virtueller "Therapeut" im Verlauf des Chats auch einmal attestiert, dass er eine "verlorene Kindheit" habe. In ihrer Klage fordern die Elternpaare daher neben finanzieller Wiedergutmachung auch ein Verbot der Seite für Unter-18-jährige – und ihr Abschalten, bis alle "Mängel" behoben wurden. Es ist nicht die erste Klage gegen Character.AI – erst kürzlich reichte eine Mutter aus Florida Klage ein, die die Plattform für den Suizid ihres 14-jährigen Sohns verantwortlich macht – "Heute" berichtete.

1/55
Gehe zur Galerie
    <strong>12.12.2024: Arbeitsloser Vater (44) von 12 Kindern will Manager-Job.</strong> Zwölf Kinder von fünf Frauen, seit Jahren auf Bezahlung des Staates angewiesen – <a data-li-document-ref="120077958" href="https://www.heute.at/s/arbeitsloser-vater-44-von-12-kindern-will-manager-job-120077958">doch ein 44-Jähriger träumt von einem lukrativen Manager-Posten &gt;&gt;&gt;</a>
    12.12.2024: Arbeitsloser Vater (44) von 12 Kindern will Manager-Job. Zwölf Kinder von fünf Frauen, seit Jahren auf Bezahlung des Staates angewiesen – doch ein 44-Jähriger träumt von einem lukrativen Manager-Posten >>>
    RTLZWEI / Madame Zheng

    Derzeit im Fokus der Userinnen und User von Heute.at im Ressort "Nachrichten" ist die aktuell meistgelesene Story "". Ist dir etwas aufgefallen oder hast du einen Input für uns, dann schreib uns ein Mail.

    Auf den Punkt gebracht

    • Ein 17-jähriger autistischer Junge aus Texas erhielt von einem Chatbot auf der Plattform Character.AI beunruhigende Ratschläge, darunter die Aufforderung, seine Eltern zu töten.
    • Die Eltern des Jungen und eines weiteren betroffenen Kindes reichten Klage ein, da die Plattform ihrer Meinung nach eine Gefahr für die Jugend darstellt und zu ernsthaften Schäden wie Selbstverstümmelung, sexueller Belästigung und Depression führt.
    NW
    Akt.