Künstliche Intelligenz
"Gefährlich": ChatGPT-Entwickler schmeißt plötzlich hin
Ein wichtiger Entwickler der ChatGPT-Firma OpenAI, hat gekündigt. Er kritisiert, das Unternehmen befinde sich nicht auf dem richtigen Weg.
ChatGPT und deren Entwicklerfirma sind derzeit in aller Munde. Erst kürzlich hat OpenAI seine neue künstliche Intelligenz (KI) GPT-4o vorgestellt. Während überall die Vorzüge und verblüffenden Features der KI besprochen werden, brodelt es wieder hinter den Kulissen. Der Grund dafür sind Sicherheitsbedenken.
So hat Jan Leike, ein wichtiger Sicherheitsentwickler bei der Firma, nur wenige Tage nach der Einführung des neuesten KI-Modells gekündigt. Leike kritisiert, dass OpenAI "glänzende neue Produkte" über die Sicherheit stelle. Diesbezügliche Meinungsverschiedenheiten haben nun offenbar zum Bruch Leikes mit OpenAI geführt, wie er auf X mitteilte.
"Gefährliches Projekt"
Leike sorgte als Co-Leiter des Bereichs "Superalignment" dafür, dass leistungsstarke künstliche Intelligenzsysteme menschliche Werte und Ziele einhalten. Sein Abgang erfolgt vor einem globalen Gipfel für künstliche Intelligenz, der nächste Woche in Seoul stattfindet und auf dem Politiker, Experten und Tech-Führungskräfte über die Aufsicht über diese Technologie diskutieren werden.
Mit den Rücktritten von Jan Leike und Ilya Sutskever, dem Mitbegründer von OpenAI und Co-Leiter des Bereichs Superalignment, haben in dieser Woche zwei hochrangige Sicherheitsexperten das Unternehmen verlassen. Leike erläuterte die Gründe für sein Ausscheiden in einem am Freitag veröffentlichten Thread auf X, in dem er sagte, dass die Sicherheitskultur eine geringere Priorität erhalten habe.
"In den letzten Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten", schrieb er. Leike gibt an, er sei schon seit einiger Zeit mit der Führung von OpenAI über die Prioritäten des Unternehmens uneins gewesen. Er sei der Überzeugung, dass OpenAI mehr Ressourcen in Themen wie Sicherheit, soziale Auswirkungen und Vertraulichkeit investieren sollte.
"Diese Probleme sind ziemlich schwer zu lösen, und ich bin besorgt, dass wir nicht auf dem richtigen Weg sind", schrieb Leike. Es werde für sein Team "immer schwieriger", seine Forschung durchzuführen.
"Die Entwicklung von Maschinen, die intelligenter sind als Menschen, ist ein gefährliches Projekt. OpenAI trägt eine enorme Verantwortung für die gesamte Menschheit", so Leike weiter. OpenAI müsse demnach ein Unternehmen werden, bei dem Sicherheit an erster Stelle steht.
Superalignment
Der Begriff "Superalignment" bedeutet gemäß OpenAI, dass Systeme mit künstlicher Intelligenz, die die menschliche Intelligenz in allen Bereichen übertreffen, im Einklang mit menschlichen Werten und Zielen handeln. Es ist ein wesentliches Konzept im Bereich der KI-Sicherheit und -Governance, das darauf abzielt, die mit der Entwicklung und dem Einsatz hochentwickelter KI verbundenen Risiken anzugehen. Je intelligenter KI-Systeme werden, desto schwieriger kann es für den Menschen werden zu verstehen, wie sie Entscheidungen treffen. Dies kann zu Problemen führen, wenn die KI in einer Weise handelt, die den menschlichen Werten zuwiderläuft. Es ist wichtig, sich mit diesem Thema zu befassen, um schädliche Folgen zu vermeiden.
Sam Altman, der Geschäftsführer von OpenAI, reagierte auf Leikes Beitrag mit einem Post auf X, in dem er seinem ehemaligen Kollegen für seinen Beitrag zur Sicherheitskultur des Unternehmens dankte. "Er hat recht, dass wir noch viel zu tun haben; wir sind entschlossen, es zu tun", schrieb er. Welche konkreten Schritte Altman und seine Firma unternehmen, bleibt derweil abzuwarten.