Sucht und Vereinsamung
Experten schlagen jetzt wegen "KI-Puffs" Alarm
Kunden haben die Möglichkeit, KI-Sexpuppen im "Cybrothel" zu buchen und mit ihnen zu interagieren. Die Weltneuheit ist auch mit Bedenken verbunden.
Die Maschine urteilt nicht
"Viele Menschen fühlen sich wohler, wenn sie einer Maschine Privates mitteilen, weil diese nicht urteilt", sagte Philipp Fussenegger, Gründer und Inhaber von Cybrothel. Bereits früher habe es großes Interesse an Puppen-Synchronsprecherinnen gegeben, bei der die Nutzer nur die Stimme hörten und mit der Puppe interagieren konnten. "Jetzt gibt es eine noch größere Nachfrage nach der Interaktion mit künstlicher Intelligenz", so Fussenegger.
Generative KI hält aktuell Einzug in der Erwachsenenunterhaltung, und zwar im ganz großen Stil. Eine Analyse ergab jüngst, dass KI-Begleit-Apps 225 Millionen Downloads im Google Play Store erreicht haben. Für viele Entwickler sind die Apps lukrativ, auch weil sie personenbezogene Daten sammeln und diese oft an Dritte wie Werbetreibende weiterverkaufen.
Mit welchen Daten werden Sex-Chatbots trainiert?
Derweil häufen sich Bedenken bezüglich der Verschmelzung von KI und der Erotikbranche. So ist laut Experten entscheidend, mit welcher Art von Datensätzen Sex-Chatbots trainiert werden. "Andernfalls riskieren wir, Vorstellungen über Sex zu reproduzieren, die die weibliche Lust herabsetzen und Sex ignorieren, der außerhalb des Heterosexuellen existiert", so Dr. Kerry McInerney, Senior Research Fellow am Leverhulme Centre for the Future of Intelligence an der Universität Cambridge.
Auch könnten KI-Erotikinhalte süchtig machen. KI-Chatbots zielen auf einsame Menschen ab, besonders auf Männer. Misha Rykov, Datenschutzforscher bei Mozilla, sieht ein hohes Suchtpotenzial in den Bots sowie potenzielle Schäden, die diese bei den Kunden verursachen könnten – insbesondere bei Nutzern mit psychischen Problemen.
Zudem ist der Datenschutz ein großes Problem. Viele Chatbots sammeln persönliche Daten im großen Umfang. Gemäß Rykov können 90 Prozent der von Mozilla untersuchten Bots diese Daten weitergeben oder verkaufen. Über die Hälfte der analysierten Apps erlaubten es den Nutzern nicht, persönliche Daten zu löschen.
Schließlich könnten KI-Erfahrungen zu einem unerreichbaren Maßstab für die reale Welt werden und unerwünschte Verhaltensweisen antrainieren. Wer irgendwann davon ausgeht, dass auch echte Menschen so nachgiebig und ihren Wünschen entsprechend sein sollten, wie es die künstliche Intelligenz ist, könnte bald vor großen Problemen stehen.