"Halluzinationen"
Meta KI-Chatbot bestreitet Attentat auf Donald Trump
Ein KI-Chatbot soll das Attentat auf den Präsidentschaftskandidaten Donald Trump geleugnet haben. Bisher wurde keine ideale Lösung dafür gefunden.
Der Meta-Konzern steht aktuell wegen einer fehlerhaften KI-Funktion in der Kritik – vor allem von Seiten des politischen Lagers der Trump-Unterstützer. Ein Chatbot namens "Meta AI" soll das kürzlich vorgenommene Attentat auf den Ex-Präsidenten nicht anerkannt haben.
"Meta AI" soll sich zuerst geweigert haben, Fragen zu dem Mordanschlag auf den Präsidentschaftskandidaten Donald Trump (78) zu beantworten und bestritt teilweise, dass der Vorfall je stattfand. Eine passable Lösung ist derzeit in Arbeit.
Donald Trump bei Attentat angeschossen
Erklärungsversuch
Zunächst gab Meta in einem Blogeintrag bekannt, dass der Chatbot absichtlich nicht dazu in der Lage war, sich zu dem Attentat zu äußern. Das läge daran, dass bei derartig brisanten Themen teilweise widersprüchliche und falsche Informationen, sowie Verschwörungstheorien in Umlauf geraten.
Allerdings konnte "Meta AI", trotz neu eingespeister Informationen zu dem Vorfall, teilweise immer noch keine korrekten Angaben machen. Dies bezeichnete Meta zwar als "unglücklich", es soll aber keine Absicht gewesen sein.
"Halluzinationen" sind branchenweites Problem
Dass KI-Chatbots "halluzinieren" ist nicht nur ein Problem von Meta, sondern hat mit der Funktionsweise der Software zu tun. Die Programme werden mit riesigen Informationsmengen angefüttert. In ihren Antworten auf Nutzeranfragen wägen sie dann Wort für Wort ab, wie ein Satz wohl weitergehen soll.
Dadurch kann es passieren, dass die Software beliebige Aussagen zusammensetzt, obwohl die Informationen die diesen zugrunde liegen, eigentlich korrekt sind. Branchenintern versucht man gerade Funktionen zu implementieren, die solche Fehler zukünftig verhindern sollen.
Die Bilder des Tages
Auf den Punkt gebracht
- Der Meta-Konzern steht in der Kritik, da ihr KI-Chatbot "Meta AI" das Attentat auf Donald Trump geleugnet hat
- Trotz Bemühungen, das Problem zu lösen, konnte der Chatbot immer noch keine korrekten Angaben machen
- Dieses "halluzinieren" von KI-Chatbots ist ein branchenweites Problem, das derzeit angegangen wird