"Halluzinationen"

Meta KI-Chatbot bestreitet Attentat auf Donald Trump

Ein KI-Chatbot soll das Attentat auf den Präsidentschaftskandidaten Donald Trump geleugnet haben. Bisher wurde keine ideale Lösung dafür gefunden.

Newsdesk Heute
Meta KI-Chatbot bestreitet Attentat auf Donald Trump
Der Chatbot "Meta AI" soll das Attentat auf Donald Trump geleugnet haben. Aktuell wird an einer Lösung des Problems gearbeitet.
REUTERS/Brendan McDermid/File Photo

Der Meta-Konzern steht aktuell wegen einer fehlerhaften KI-Funktion in der Kritik – vor allem von Seiten des politischen Lagers der Trump-Unterstützer. Ein Chatbot namens "Meta AI" soll das kürzlich vorgenommene Attentat auf den Ex-Präsidenten nicht anerkannt haben.

"Meta AI" soll sich zuerst geweigert haben, Fragen zu dem Mordanschlag auf den Präsidentschaftskandidaten Donald Trump (78) zu beantworten und bestritt teilweise, dass der Vorfall je stattfand. Eine passable Lösung ist derzeit in Arbeit.

Donald Trump bei Attentat angeschossen

1/12
Gehe zur Galerie
    Ex-US-Präsident Donald Trump wurde bei einer Wahlkampfveranstaltung angeschossen.
    Ex-US-Präsident Donald Trump wurde bei einer Wahlkampfveranstaltung angeschossen.
    Reuters

    Erklärungsversuch

    Zunächst gab Meta in einem Blogeintrag bekannt, dass der Chatbot absichtlich nicht dazu in der Lage war, sich zu dem Attentat zu äußern. Das läge daran, dass bei derartig brisanten Themen teilweise widersprüchliche und falsche Informationen, sowie Verschwörungstheorien in Umlauf geraten.

    Allerdings konnte "Meta AI", trotz neu eingespeister Informationen zu dem Vorfall, teilweise immer noch keine korrekten Angaben machen. Dies bezeichnete Meta zwar als "unglücklich", es soll aber keine Absicht gewesen sein.

    "Halluzinationen" sind branchenweites Problem

    Dass KI-Chatbots "halluzinieren" ist nicht nur ein Problem von Meta, sondern hat mit der Funktionsweise der Software zu tun. Die Programme werden mit riesigen Informationsmengen angefüttert. In ihren Antworten auf Nutzeranfragen wägen sie dann Wort für Wort ab, wie ein Satz wohl weitergehen soll.

    Dadurch kann es passieren, dass die Software beliebige Aussagen zusammensetzt, obwohl die Informationen die diesen zugrunde liegen, eigentlich korrekt sind. Branchenintern versucht man gerade Funktionen zu implementieren, die solche Fehler zukünftig verhindern sollen.

    Die Bilder des Tages

    1/64
    Gehe zur Galerie
      <strong>21.12.2014: Magdeburg-Terrorist war bekannter Anti-Islam-Aktivist.</strong> Der mutmaßliche Täter des Anschlags von Magdeburg erhob schwere Vorwürfe gegen Deutschland und unterstützte Frauen, <a data-li-document-ref="120079782" href="https://www.heute.at/s/magdeburg-terrorist-war-bekannter-anti-islam-aktivist-120079782">die aus Saudi-Arabien flüchteten.</a>
      21.12.2014: Magdeburg-Terrorist war bekannter Anti-Islam-Aktivist. Der mutmaßliche Täter des Anschlags von Magdeburg erhob schwere Vorwürfe gegen Deutschland und unterstützte Frauen, die aus Saudi-Arabien flüchteten.
      REUTERS

      Auf den Punkt gebracht

      • Der Meta-Konzern steht in der Kritik, da ihr KI-Chatbot "Meta AI" das Attentat auf Donald Trump geleugnet hat
      • Trotz Bemühungen, das Problem zu lösen, konnte der Chatbot immer noch keine korrekten Angaben machen
      • Dieses "halluzinieren" von KI-Chatbots ist ein branchenweites Problem, das derzeit angegangen wird
      red
      Akt.