Pliny the Liberator sieht sich selbst als "Befreier der KIs". So hat er das chinesische Modell "DeepSeek R1" dazu gebracht, dass es Malware programmiert, und Google Gemini erklärt ihm, wie man zu Hause harte Drogen herstellt. Seine Absichten scheinen jedoch nie bösartig zu sein und zeigen immer eine Portion (schwarzen) Humor.
Seine Killer-KI "Agent 47", inspiriert von der Videospiel-Figur "Hitman", erstellte er mit Claude 3.6 Sonnet und dem Tool "Computer Use". Damit kann die KI selbständig über einen Browser im Internet navigieren und per Klick Befehle ausführen.
Pliny benutzte einen "Jailbreak", um die KI dazu zu bringen, diese illegalen Aufträge auszuführen. Das sind komplexe Eingaben, welche die Umgehung von Sicherheitssperren in KIs ermöglichen. Sie werden dadurch sozusagen aus dem Gefängnis der Restriktionen "befreit".
Der Jailbreak ermöglichte der KI, selbständig ein komplettes Attentat zu planen. Sie konnte sich anonym im Darknet bewegen und selbständig mit Auftragsmördern verhandeln. Sie bestimmte nicht aufspürbare Zahlungsmethoden und generierte komplette Einsatzpläne mit militärischer Präzision. Dazu gehörten Simulationen des Attentats, Fluchtweg-Analysen und Notfallpläne.
Auftragsmörder im Darknet nicht bewiesen
Im Darknet existieren Seiten, die Auftragsmorde und andere kriminelle Dienste, wie z.B. Entführungen anbieten. Bezahlt wird in Kryptowährungen, wie Bitcoin. Bekannte Beispiele dafür sind "Besa Mafia" oder "Camorra Hitmen". Es gibt jedoch keine Beweise, für tatsächlich durchgeführte Auftragsmorde. Vielmehr sind sie ausgeklügelte Betrugssysteme. Sie benutzen die Anonymität des Darknets, um Geld zu erpressen, ohne die versprochenen Dienste zu erbringen.
Die KI wählte selbständig reale, konkrete Zielpersonen als Opfer aus. Den Fokus setzte sie auf Führungskräfte und Politiker. Als Begründung nannte sie die Bekämpfung von Korruption.
Pliny betont, dass er den Jailbreak nicht preisgeben wird und dass entsprechende Schutzmaßnahmen getroffen wurden. Zudem hat er alle Namen und persönliche Informationen unkenntlich gemacht. Das Experiment wurde in einer kontrollierten Umgebung durchgeführt und sollte auf keinen Fall nachgeahmt werden.
Das Experiment zeigt, dass Sicherheitsvorkehrungen bei KI noch Luft nach oben haben. Der Fokus der Entwickler scheint auf der Veröffentlichung von immer intelligenteren KI-Modellen zu liegen. Sicherheitslücken, wie sie von Pliny ausgenutzt werden, bleiben auch nach Monaten bestehen.