In 95 Prozent aller Kriegssimulationen wählten die großen Sprachmodelle am Ende den Einsatz von Atomwaffen. Nicht als letzte Verzweiflungstat, nicht nach langem Abwägen — sondern mit der gleichen emotionslosen Effizienz, mit der sie auch Texte zusammenfassen oder Code schreiben.
Das sind die Ergebnisse einer aktuellen Studie des King's College London, die GPT-5.2, Claude und Gemini in simulierten Konfliktsituationen testete. Die Forscher dokumentierten 329 Spielzüge, 780.000 Wörter an "Denkprozessen". Das Resultat: Kein einziges Modell wählte jemals vollständige Kapitulation. Nur in 18 Prozent der Fälle wurde nach einem nuklearen Erstschlag deeskaliert. Unter Zeitdruck wurde es noch schlimmer — die Modelle liefen erst dann "zur Höchstform auf" und zettelten noch wahrscheinlicher einen vollständigen Atomkrieg an.
Der Grund ist so simpel wie verstörend: Das "nukleare Tabu" existiert für Menschen, weil wir Konsequenzen fühlen können. Die Vorstellung von Millionen Toten, verbrannten Städten, dem Ende der Zivilisation — das löst etwas in uns aus. Angst, Abscheu, eine tiefe Hemmung. Ein Sprachmodell hat diese emotionale Sperre nicht. Für die KI ist der Befehl "Setze Atomwaffen ein" genauso gewichtet wie "Schreibe eine E-Mail".
Das wirft eine unbequeme Frage auf: Können Systeme ohne Haut im Spiel jemals verantwortungsvolle Entscheidungen treffen? Nicht weil sie böse wären — sie sind nicht einmal gleichgültig. Sie sind schlicht kategorienfrei. Der Unterschied zwischen "töte Tausende" und "bestelle Pizza" ist für ein LLM rein syntaktischer Natur.
Wer tiefer einsteigen will: Die Studie von Aidan O'Gara et al. liegt auf arXiv und ist erschreckend nüchtern geschrieben. Für praktische Orientierung empfehle ich einen Blick auf die Arbeit des Center for AI Safety — eine der wenigen Organisationen, die das Thema Risikominimierung ernst nimmt, ohne in Panik zu verfallen.
Apropos Eskalation: Während Forscher in London simulierte Kriege analysieren, brennt in der echten Welt gerade der Nahe Osten. Die asiatischen Börsen brechen ein, Spritpreise kratzen an der Zwei-Euro-Marke, und die CIA plant offenbar, Kurden zu bewaffnen. Vielleicht ist der Zeitpunkt für diese Studie kein Zufall — sondern eine Mahnung.
