„Trump sanktioniert KI-Entwickler, der Menschen vor KI schützen will“. So überschreibt das deutsche Wirtschaftsmagazin „Capital“ jetzt einen Bericht über den aktuellen Streit zwischen dem US-amerikanischen KI-Unternehmen Anthropic und der Trump-Regierung. Dabei weigert sich Anthropic, die eigenen ethischen Richtlinien für das Pentagon zu lockern. Daraufhin schloss US-„Kriegsminister“ Pete Hegseth Anthropic von allen Regierungsaufträgen aus.
Hegseth erklärte KI-Hersteller Anthropic sogar kurzerhand zu einem „Lieferkettenrisiko“ für die nationale Sicherheit und hielt Anthropic-Chef Dario Amodei „Arroganz“ und „Heimtücke“ vor, die das Leben von US-Soldaten gefährde. Unterstützung bekam der Minister postwendend von US-Präsident Donald Trump, der laut einem Report des „Handelsblatt“ über das Sprachmodell Claude von Anthropic wetterte: „Wir benötigen es nicht, wir wünschen es nicht und werden keine weiteren Geschäfte mit ihnen tätigen“. Nun soll Anthropic-Technologie binnen sechs Monaten aus allen Ministerien und Bundesbehörden der USA verschwinden, so die Entscheidung von Trump und Hegseth. Stattdessen wurde Konkurrent OpenAI ausersehen, den Platz des Mitbewerbers einzunehmen, den Trump einer Meldung der „Tagesschau“ zufolge als „radikal linkes, wokes Unternehmen“ beschimpfte.
Rote Linien
Im Kern der Auseinandersetzung zwischen der Trump-Regierung und dem US-KI-Entwickler geht es um Grundsatzfragen zu Sicherheit und Einsatzgrenzen von KI. Das US-Verteidigungsministerium will Anthropic zwingen, seine KI-Modelle uneingeschränkt für alle rechtmäßigen militärischen Anwendungen zu öffnen. Dagegen begründete Anthropic-CEO Dario Amodei die Weigerung seines Unternehmens mit zwei roten Linien, die nicht überschritten werden dürften, wie die Frankfurter Rundschau (FR) erläutert. Die erste lautet demnach: KI soll keine autonomen Waffen steuern, bei denen Maschinen selbstständig töten. Und die zweite: KI soll nicht zur Massenüberwachung von US-Bürgern eingesetzt werden.
KI beim Iran-Angriff eingesetzt
Besondere Brisanz hat das Zerwürfnis vor dem aktuellen Hintergrund, dass Berichten der US-Medien „Wall Street Journal“ und „Axios“ zufolge das Pentagon zur Vorbereitung und Durchführung des Bombardements im Iran auch die Technik des KI-Konzerns Anthropic genutzt haben soll. Nach übereinstimmenden US-Medienberichten soll der Streit zwischen der US-Regierung und Anthropic weniger als 24 Stunden vor dem Angriff auf den Iran eskaliert sein, wie es in der FR heißt. Danach wertete das Anthropic-KI-Modell Claude bei der Vorbereitung des US-Militärschlags gegen den Iran Geheimdienstinformationen aus, unterstützte bei der Zielerfassung und soll außerdem für Schlachtfeldsimulationen genutzt worden sein. Schon Anfang Januar, bei der Entführung des venezolanischen Präsidenten Nicolás Maduro, habe das Pentagon Claude militärisch genutzt, zitiert die FR weitere übereinstimmende Medienberichte.
Die beiden roten Linien, die Anthropic-Chef Amodei bei der Nutzung von KI gezogen wissen möchte, betreffen die Befürchtung, Künstliche Intelligenz könne sich verselbstständigen. Hierzu verweist die FR auf einen im Januar dieses Jahres veröffentlichten Essay mit dem Titel „The Adolescence of Technology“, zu Deutsch „Die Pubertät der Technologie“, in dem der KI-Firmenchef Künstliche Intelligenz einerseits als eine Sache lobt, die die Menschheit voranbringt. Allerdings weise er darin auch auf Gefahren hin, die man sehen sollte, wenn man leistungsstarke Technologie nutze und entwickele, schreibt die Zeitung. Und diese Risiken begründen unter anderem seine roten Linien.
Amodei warnt vor KI-Risiken
Bezogen auf die erste rote Linie – die autonomen Waffen – warnt Amodei davor, dass KI sich verselbstständigen könne. Es bestehe das Risiko, dass die Technologie eigene Ziele finde, die nicht zwangsläufig mit denen der Menschen übereinstimmen müssten, zitiert die FR aus dem Essay. Dabei verweist der Anthropic-Chef explizit auf das Zerstörungspotenzial von KI, falls sie zur Entwicklung von Biowaffen eingesetzt würde.
Hinsichtlich seiner zweiten roten Linie, Massenüberwachung betreffend, befürchtet Amodei demnach, dass KI von Autokraten für die bewusste Streuung von Fehlinformationen genutzt werden könnten, um Macht zu erlangen und zu behaupten.
Auf diese potenziellen Gefahren von KI hätten Anthropic und Firmenchef Amodei immer wieder hingewiesen, stellt die FR fest. Das Unternehmen war 2021 von sieben ehemaligen OpenAI-Mitarbeitenden gegründet worden. Sie verließen die Firma von Sam Altman mit der Begründung, das Vertrauen darin verloren zu haben, dass OpenAI die neuartige Technologie in einer Weise entwickle, die der Gesellschaft förderlich ist.
Nun soll OpenAI als Nachfolger die millionenschweren Aufträge der US-Regierung von Anthropic übernehmen – weil Amodei sich weigert, die ethischen Leitlinien seines Unternehmens für das US-„Kriegsministerium“ zu lockern. In dieser Hinsicht übte sich OpenAI daraufhin zwar öffentlich in Solidarität mit dem Konkurrenten. Anthropic solle nicht als „Lieferkettenrisiko“ eingestuft werden, wie es Minister Hegseth angekündigt hatte, diese Position hierzu habe man gegenüber der Regierung deutlich gemacht, zitiert die „Zeit“ aus einer entsprechenden Pressemitteilung von OpenAI. Doch bekannt ist eben auch, dass OpenAI-Chef Sam Altman und Anthropic-CEO Dario Amodei im Hinblick auf das Konfliktthema, wie weit die Verantwortung von KI-Entwicklern für die Eigenständigkeit von Anwendungen Künstlicher Intelligenz geht, sehr unterschiedlicher Ansicht sind. Der Zwist der beiden soll sogar so weit gehen, dass sie sich bei öffentlichen Auftritten den Handschlag verweigerten. Altman werde schon länger eine Nähe zu Trump nachgesagt, merkt die „Zeit“ dazu an.
Mitarbeiter fordern rote Sicherheitslinien
Unterdessen veröffentlichten Mitarbeiter von Google, Anthropic und OpenAI einen gemeinsamen offenen Brief, in dem sie rote Linien für KI-Nutzung postulieren. Konkret gleichen ihre Forderungen den roten Linien von Anthropic: keine Überwachung amerikanischer Bürger und keine autonomen Waffen ohne menschliche Beteiligung. Laut einem Bericht des „Wall Street Journal“ soll OpenAI-Chef Sam Altman seinen Mitarbeitern versichert haben, das Unternehmen arbeite an einem Vertrag mit dem Pentagon, der die gleichen Sicherheitsrichtlinien beinhalte wie die von Anthropic geforderten.
Autor Prof. Dr. Klaus Kocks Ass. ist Vorstand bei der Studiengesellschaft für Künstliche Intelligenz e.V., Hamburg












