Nervengift im Glas
User kocht KI-Rezept, entkommt nur knapp dem Tod
Googles künstliche Intelligenz (KI) Gemini sorgt nach und nach für Schlagzeilen. Nun erzählt ein Reddit-User davon, wie die KI ihn fast vergiftet hat.
Gemini, die künstliche Intelligenz (KI) von Google, gab erneut Ernährungstipps der fragwürdigen Sorte. Es begann damit, dass die KI empfohlen hat täglich einen kleinen Stein zu verzehren "wegen der wertvollen Mineralien". Ein User erzählt auf der Plattform Reddit, wie Gemini ihn beinahe vergiftet hat.
Eine Rezept für Nervengift
Eigentlich hätte es ein simples Öl mit Knoblauchgeschmack werden sollen. Der Reddit-Nutzer fragte die KI nach einem Rezept, bei dem er nichts erhitzen bräuchte. Er befolgte das vorgeschlagene Rezept und bemerkte einige Tage später, dass etwas mit dem Öl nicht stimmt.
Es begannen sich einige Bläschen in seinem Rex-Glas zu bilden. Das bedeutet, dass sich Bakterien des Typs Clostridium botulinum in dem Glas gebildet haben. Diese Bakterien lösen Botulismus aus - eines der kräftigsten Nervengifte für den Menschen.
Das Technikportal Golem schreibt, dass es eigentlich viele Methoden gäbe die Bildung des Bakteriums zu verhindern. Unter anderem die Sterilisation der Gefäße, den Knoblauch nach einer Zeit wieder zu entnehmen oder ihn davor einfach anzubraten. Laut dem Reddit-User fehlte aber der Hinweis darauf, dass bei dem Rezept Vergiftungsgefahr besteht, komplett.
Koch-Ideen der Extraklasse
Bereits vor Wochen sorgte Googles KI für Schlagzeilen. Gemini riet den Usern, sie sollen täglich einen kleinen Stein essen, wegen der Mineralien. Als Quelle diente die Satireseite "The Onion". Eine weitere fragwürdige Empfehlung war, man solle doch den Käse auf einer Pizza mit Klebstoff anbringen.
Eine Sprecherin der KI meint, dass die Fehler auf "sehr ungewöhnlichen Nachfragen" basieren und "nicht dem entsprechen, was die meisten Leute erleben". Die "vereinzelten Beispiele" sollen jetzt verwendet werden, um Gemini zu verbessern.
Die Bilder des Tages
Auf den Punkt gebracht
- Googles KI Gemini sorgt erneut für Aufsehen, nachdem ein Reddit-User berichtet, dass die KI ihm beinahe eine Vergiftung zugefügt hat, indem sie ein fragwürdiges Rezept für ein Öl mit Knoblauchgeschmack vorschlug
- Die Empfehlungen von Gemini, wie täglich einen kleinen Stein zu essen oder Klebstoff für Pizza zu verwenden, sorgten bereits zuvor für Schlagzeilen
- Eine Sprecherin von Google betont, dass diese Fehler auf ungewöhnliche Anfragen basieren und zur Verbesserung der KI genutzt werden