Digital

"Unkontrollierbar" – Tech-Genies fordern Stopp von KI

Rund tausend Tech-Experten fordern, dass Künstliche Intelligenz nicht weiterentwickelt wird, solange es keine Sicherheitsprotokolle gibt.

20 Minuten
Die Forderung der Tech-Experten sind konkret: "Alle KI-Labore sollen sofort für mindestens sechs Monate das Training von KI-Systemen stoppen, die mächtiger sind als GPT-4."
Die Forderung der Tech-Experten sind konkret: "Alle KI-Labore sollen sofort für mindestens sechs Monate das Training von KI-Systemen stoppen, die mächtiger sind als GPT-4."
Reuters

"Es ist ein gefährlicher Wettlauf, den niemand vorhersagen oder kontrollieren kann, und ein tiefgreifendes Risiko für die Gesellschaft und die Menschheit", das "katastrophale" Auswirkungen haben könnte. So beschreiben Tesla-Chef Elon Musk, Apple-Mitbegründer Steve Wozniak sowie rund weitere tausend hochrangige Tech-Experten die rasante Entwicklung leistungsstarker neuer Tools der Künstlichen Intelligenz (KI).

In einem offenen Brief an die gemeinnützige Organisation Future of Life Institute, die sich für die Verringerung globaler Risiken für die Menschheit einsetzt, fordern die Unterzeichner "eine Pause bei der Entwicklung" von besonders fortgeschrittener KI.

Sicherheitsprotokolle nötig

"Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind", heißt es im Brief, der als Reaktion auf die Veröffentlichung der neuen Version des Chatbots ChatGPT, GPT-4, durch das kalifornische Unternehmen OpenAI Mitte März entstand.

Die Forderung der Tech-Experten sind konkret: "Alle KI-Labore sollen sofort für mindestens sechs Monate das Training von KI-Systemen stoppen, die mächtiger sind als GPT-4." Sollten die Unternehmen sich darauf nicht einigen, müssten Regierungen einschreiten und ein Moratorium auferlegen. Die sechs Monate sollen demnach genutzt werden, um Sicherheitsprotokolle zu entwickeln.

"Der Zeitpunkt ist jetzt."

Im Schreiben verweisen die Verfasser auf einen Satz von OpenAI-Gründer Sam Altman, demzufolge irgendwann eine "unabhängige" Überprüfung notwendig sei, bevor mit dem Training neuer Systeme begonnen werde. "Wir stimmen zu", schreiben die Verfasser des Briefes. "Der Zeitpunkt ist jetzt."

Die rasante Entwicklung von Künstlicher Intelligenz wird in vielen Bereichen – etwa in der Medizin – als große Chance gesehen. Doch Kritiker warnen unter anderem, dass KI zu Diskriminierung, Verbreitung von Falschinformationen und einem Verlust von Arbeitsplätzen führen könnte und letztlich durch Menschen nicht mehr kontrollierbar werde.

Schon Stephen Hawking warnte

Musk selbst war zu Beginn einer der Investoren bei OpenAI. Der von ihm geführte Elektroautobauer Tesla entwickelt KI-Systeme für autonomes Fahren. 2014 änderte der Milliardär seine Meinung und bezeichnete KI seither als "größte existenzielle Bedrohung der Menschheit", er verglich sie gar mit der "Beschwörung eines Dämons". Mit seiner Ansicht steht Musk nicht alleine – seine Sorgen teilte der verstorbene Stephen Hawking, der 2014 gegenüber der BBC erklärte, dass die Entwicklung einer vollständigen Künstlichen Intelligenz das Ende der menschlichen Rasse bedeuten könnte, da sie sich selbstständig machen würde.

1/52
Gehe zur Galerie
    <strong>17.11.2024: Heeres-Blamage: Unser Luftraum ist völlig ungeschützt.</strong> Österreich kann seinen eigenen Luftraum nicht mehr verteidigen. Die Eurofighter können nicht abheben, <a data-li-document-ref="120072835" href="https://www.heute.at/s/heeres-blamage-unser-luftraum-ist-voellig-ungeschuetzt-120072835">obwohl die Jets selbst einsatzbereit wären &gt;&gt;</a>
    17.11.2024: Heeres-Blamage: Unser Luftraum ist völlig ungeschützt. Österreich kann seinen eigenen Luftraum nicht mehr verteidigen. Die Eurofighter können nicht abheben, obwohl die Jets selbst einsatzbereit wären >>
    Bundesheer / OTS
    An der Unterhaltung teilnehmen