KI-Chaos
Experten warnten vor menschheitsbedrohendem Durchbruch
Führte eine Entwicklung bei OpenAI zu Sam Altmans Rauswurf? Laut Insidern warnte man vor einem "Durchbruch", der "die Menschheit bedrohen" könnte.
Vor dem viertägigen "Exil" von Sam Altman schrieben mehrere Forscher des Unternehmens einen Brief an den Vorstand. Darin warnten sie vor einer "mächtigen Entdeckung" im Bereich der künstlichen Intelligenz, die ihrer Meinung nach "die Menschheit bedrohen" könnte, so zwei mit der Angelegenheit vertraute Personen gegenüber Reuters.
Der bisher nicht veröffentlichte Brief und der KI-Algorithmus seien wichtige Faktoren dafür gewesen, dass der Vorstand Altman, das Aushängeschild der generativen KI, entlassen habe, sagten die beiden Quellen. Vor seiner triumphalen Rückkehr am späten Dienstag hatten mehr als 700 Mitarbeiter damit gedroht, zu kündigen und sich aus Solidarität mit ihrem entlassenen Chef dem Geldgeber Microsoft anzuschließen.
Die Quellen nannten den Brief als einen Faktor in einer längeren Liste von Beschwerden des Vorstands, die zu Altmans Entlassung führten, darunter auch Bedenken über die Kommerzialisierung von Fortschritten, bevor die Konsequenzen bekannt waren.
Mysteriöses Projekt Q*
Nachdem Open AI von Reuters kontaktiert worden war, lehnte das Unternehmen eine Stellungnahme ab und bestätigte in einer internen Nachricht an die Mitarbeiter ein Projekt namens Q* und einen Brief an den Vorstand vor den Ereignissen des Wochenendes, so eine der Personen. Ein Open-AI-Sprecher sagte, dass die Nachricht, die von der langjährigen Geschäftsführerin Mira Murati verschickt wurde, die Mitarbeiter auf bestimmte Medienberichte aufmerksam machte, ohne deren Richtigkeit zu kommentieren.
Einige bei Open AI glaubten, dass Q* (ausgesprochen Q-Star) ein Durchbruch in der Forschung des Start-ups zur künstlichen allgemeinen Intelligenz (AGI) sein könnte, so eine der Personen gegenüber Reuters. Open AI definiert AGI als autonome Systeme, die den Menschen bei den meisten wirtschaftlich wertvollen Aufgaben übertreffen. Angesichts der enormen Rechenressourcen sei das neue Modell in der Lage, bestimmte mathematische Probleme zu lösen, so der Insider.
In ihrem Schreiben an den Vorstand wiesen die Forscher auf die Fähigkeiten und die potenziellen Gefahren der KI hin, so die Quellen, ohne die genauen Sicherheitsbedenken zu nennen. Unter Computerwissenschaftlern wird seit langem über die Gefahr diskutiert, die von hochintelligenten Maschinen ausgeht – etwa dadurch, dass sie beschließen könnten, dass die Zerstörung der Menschheit in ihrem Interesse liegt.
Mathematik gilt für die AI als Knackpunkt
Forscher betrachten Mathematik als eine Grenze der Entwicklung generativer KI. Derzeit ist die generative KI gut im Schreiben und in der Sprachübersetzung, indem sie statistisch das nächste Wort vorhersagt, und die Antworten auf dieselbe Frage können stark variieren. Wenn die KI jedoch die Fähigkeit zur Mathematik erlangt – bei der es nur eine richtige Antwort gibt –, würde sie über größere logische Fähigkeiten verfügen, die der menschlichen Intelligenz ähneln.
Im Gegensatz zu einem normalen Rechner, der nur eine begrenzte Anzahl von Operationen lösen kann, kann AGI verallgemeinern, lernen und verstehen.