Bisher setzte das Pentagon für militärische Zwecke auf KI-Software der Firma Anthropic. Diese gilt in vielen Bereichen als Rivale von OpenAI, dem Unternehmen hinter ChatGPT, und wurde auch von einigen ehemaligen Mitarbeitern OpenAIs gegründet. Nun ist der Streit zwischen Anthropic und dem Pentagon bezüglich der Nutzung der Systeme eskaliert. Denn das Unternehmen möchte nicht, dass seine Software zur Massenüberwachung eingesetzt wird.
Daraufhin stufte das Pentagon Anthropic beim Einsatz von KI als Lieferketten-Risiko für die nationale Sicherheit ein. Das hat zur Folge, dass Partner und auch Auftragnehmer des US-Militärs nicht mit der Software arbeiten dürfen. Anschließend verkündete wiederum OpenAI-Chef Sam Altman via X (vormals Twitter), dass nun stattdessen das eigene Unternehmen diesbezüglich eine Einigung mit dem Verteidigungsministerium erzielt habe.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…— Sam Altman (@sama) February 28, 2026Anzeige
Im genauen Wortlaut heißt es: „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen.“ Der Beitrag wurde unter anderem von US-Kriegsminister Pete Hegseth aufgegriffen. Daraufhin gab es jedoch einigen Gegenwind.

Warum Nutzergegen den Deal zwischen OpenAI und dem Pentagon protestieren
Unter anderem berichten Medien übereinstimmend von einer Solidaritätswelle mit Anthropic. Grund für den Streit zwischen dem Unternehmen und dem Pentagon war offenbar, dass die Technologie des Unternehmens zum Einsatz gekommen war, um den venezolanischen Machthaber Nicolás Maduro gefangen zu nehmen, wobei der genaue Einsatzzweck nicht bekannt ist. Daraufhin hatte Anthropic offenbar zum einen darauf gepocht, inländische Massenüberwachung mit ihrer Software unmöglich zu machen und auch die Verantwortung für den Einsatz von Gewalt, etwa bei autonomen Waffensystemen, weiterhin in den Händen von Menschen zu belassen.
Das sind beides Punkte, die auch OpenAI-Chef Altman in seinem Post erwähnt. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen“, erklärt der CEO. Dennoch gibt es in den Sozialen Medien und darüber hinaus teils heftige Kritik an dem Deal.
Zudem überholte bereits kurz nach Bekanntgabe der künftigen Zusammenarbeit Anthropics Chatbot Claude AI im App Store ChatGPT. Zahlreiche Nutzerinnen und Nutzer kündigten außerdem an, ihr Abonnement zugunsten von Claude kündigen zu wollen. Dabei stößt vielen offenbar sauer auf, dass OpenAI bisher immer wieder seine Unabhängigkeit betont habe. Zudem fragen sich viele, warum das Pentagon das eine Unternehmen für Vorgaben fallenlässt, um dann mit einem anderen Unternehmen, das öffentlich angibt, dieselben roten Linien einhalten zu wollen, zu einer Einigung zu kommen.

Sam Altman äußert sich öffentlich zum Vorgehen
Die Kritik ist offenbar auch an Sam Altman nicht spurlos vorbeigegangen. Wie unter anderem „Tech Crunch“ berichtet, wurde der Vertrag von OpenAI mit dem Verteidigungsministerium „definitiv überhastet“ abgeschlossen, wie Altman ebenfalls auf X bekannt gab. Darüber hinaus hat OpenAI eine lange Erklärung veröffentlicht und sich zu den Vorwürfen geäußert.
Dort heißt es unter anderem: „Wir sind der Ansicht, dass unsere Vereinbarung mehr Schutzmechanismen enthält als alle bisherigen Vereinbarungen für den Einsatz geheimer KI-Systeme, einschließlich derjenigen von Anthropic.“ Dabei bezieht sich das Unternehmen auf drei zentrale Punkte: massenhafte Überwachung im Inland, Steuerung autonomer Waffensysteme und „automatisierte Entscheidungen mit hohem Einsatz“ (wie zum Beispiel Sozialkredite). Alle Punkte seien durch die Vereinbarung mit dem Pentagon ausgeschlossen.
Andere Unternehmen hätten hingegen ihre eigenen Sicherheitsvorkehrungen reduziert oder abgeschafft und sich „primär auf Nutzungsrichtlinien als wichtigste Schutzmechanismen verlassen“. In diesem Zusammenhang betont OpenAI, dass man die volle Kontrolle über die eigene Sicherheitsarchitektur behalten, auf Cloud-basierte Lösungen setzen und autorisiertes OpenAI-Personal an wichtigen Stellen einbinden würde. Altman schrieb dazu auf X: „Wenn wir Recht behalten und dies tatsächlich zu einer Deeskalation zwischen DoW [dem Department of War, Anm. d. Red.] und der Branche führt, werden wir als Genies dastehen (...). Wenn nicht, werden wir weiterhin als (...) überhastet und unvorsichtig gelten.“
