KI für Ihr Unternehmen – Jetzt Demo buchen

Konflikt zwischen Anthropic und OpenAI: Kritische Äußerungen und Anpassungen im Pentagon-Vertrag

Kategorien:
No items found.
Freigegeben:
March 6, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Anthropic-CEO Dario Amodei kritisiert das Pentagon-Geschäft von OpenAI als "Sicherheitstheater" und beschuldigt die Trump-Administration der Bestrafung seines Unternehmens.
    • Amodei behauptet, OpenAI-CEO Sam Altman untergrabe bewusst Anthropic's Position und deren ethische Richtlinien.
    • OpenAI hat seinen Vertrag mit dem Pentagon nach öffentlicher Kritik angepasst, um strengere Sicherheitsklauseln zu integrieren.
    • Investoren von Anthropic drängen auf eine Deeskalation des Konflikts und suchen nach Lösungen, auch über Kontakte in der Trump-Administration.
    • Anthropic versucht in letzter Minute, direkt mit dem Under Secretary of Defense for Research and Engineering zu verhandeln.
    • Mehrere US-Behörden haben begonnen, von Anthropic zu OpenAI zu wechseln, nachdem Trump die Entfernung von Anthropic-Technologie angeordnet hatte.

    Die Beziehungen zwischen führenden KI-Unternehmen und der US-Regierung sind in den Fokus gerückt, insbesondere nach jüngsten Entwicklungen, die eine scharfe Auseinandersetzung zwischen Anthropic und OpenAI offenbaren. Im Zentrum steht ein Vertrag zwischen OpenAI und dem Pentagon, den Anthropic-CEO Dario Amodei als "Sicherheitstheater" bezeichnete. Dieser Konflikt, der weitreichende Implikationen für die Entwicklung und den Einsatz von KI im militärischen Bereich haben könnte, wird von Investoren und der breiteren Tech-Branche genau beobachtet.

    Amodei wirft Altman systematische Täuschung vor

    In einem internen Memo, das an über 2.000 Mitarbeiter von Anthropic versandt und von "The Information" veröffentlicht wurde, übte Dario Amodei scharfe Kritik an dem Deal zwischen OpenAI und dem Pentagon. Er beschrieb OpenAIs Darstellung des Abkommens als "80% Sicherheitstheater" und warf Sam Altman vor, die Öffentlichkeit und seine eigenen Mitarbeiter über die wahren Implikationen des Vertrages zu täuschen. Amodei zufolge untergräbt Altman systematisch die ethischen "roten Linien", die Anthropic für den militärischen Einsatz von KI gezogen hat.

    Anthropic hatte zuvor Verhandlungen mit dem Pentagon abgebrochen, da das Unternehmen die Nutzung seiner KI für Massenüberwachung im Inland und autonome tödliche Waffensysteme nicht zulassen wollte. Kurz darauf gab OpenAI bekannt, einen Vertrag mit dem Pentagon abgeschlossen zu haben, der den Einsatz ihrer KI-Modelle in klassifizierten Systemen ermöglichte. Amodei deutet an, dass Altmans Handlungen darauf abzielten, Anthropic's Position in dieser Angelegenheit zu schwächen.

    Aus technischer Sicht argumentiert Amodei, dass KI-Modelle keine inhärente Fähigkeit besitzen, menschliche Beteiligung zu erkennen, die Herkunft von Daten zu identifizieren oder die Einhaltung ethischer Richtlinien zuverlässig zu gewährleisten. Er betonte, dass "Jailbreaks" – das Umgehen von Sicherheitsmechanismen – bei KI-Modellen weit verbreitet und oft einfach durchzuführen seien, indem das Modell über die zu analysierenden Daten fehlinformiert werde. Dies mache die von OpenAI angepriesenen Sicherheitsvorkehrungen in militärischen Anwendungen weitgehend ineffektiv.

    Die wahren Gründe für die Ablehnung Anthropic's durch das Pentagon

    Dario Amodei führte in seinem Memo auch die wahren Gründe an, die seiner Meinung nach zu den Spannungen zwischen Anthropic und der Trump-Administration führten. Er schrieb, dass die "Abteilung für Krieg" (DoW) und die Trump-Regierung Anthropic ablehnten, weil das Unternehmen keine Spenden an Trump geleistet habe – im Gegensatz zu OpenAI und dessen Präsident Greg Brockman, der Berichten zufolge zusammen mit seiner Frau 25 Millionen Dollar an ein Trump-Super-PAC spendete. Amodei kritisierte zudem, dass Anthropic "keine diktatorische Lobpreisung" an Trump gerichtet habe, sich für KI-Regulierung eingesetzt und die Wahrheit über KI-Politikthemen wie Arbeitsplatzverdrängung gesagt habe. Er betonte, dass Anthropic seine ethischen Prinzipien konsequent verteidigt habe.

    Amodei berichtete ferner, dass das Pentagon gegen Ende der Verhandlungen angeboten habe, Anthropic's Bedingungen zu akzeptieren, falls das Unternehmen eine spezifische Formulierung bezüglich der "Analyse von massenhaft erworbenen Daten" aus dem Vertrag streichen würde. Diese Klausel entsprach genau dem Szenario, das Anthropic am meisten beunruhigte, und das Unternehmen lehnte ab, da es dies als sehr verdächtig empfand.

    OpenAI versucht, seinen Vertrag zu konsolidieren

    Die öffentliche Reaktion auf den Pentagon-Deal von OpenAI war kritisch. Sam Altman räumte laut der Financial Times ein, dass das übereilt geschlossene Abkommen "opportunistisch und schlampig" wirkte. Als Reaktion auf den öffentlichen und internen Druck hat OpenAI den Vertrag am Montag mit präziseren Formulierungen aktualisiert. Die neuen Klauseln sollen nun "die absichtliche Verfolgung, Überwachung oder Beobachtung von US-Personen oder Staatsangehörigen, einschließlich durch die Beschaffung oder Nutzung kommerziell erworbener persönlicher oder identifizierbarer Informationen", verbieten. Auch Geheimdienste wie die NSA sollen von diesem Abkommen ausgeschlossen sein.

    Trotz dieser Anpassungen bleiben Anwälte und Mitarbeiter skeptisch. Die Formulierungen "absichtlich", "vorsätzlich" oder "gezielt" könnten Raum für "zufällige" oder "unbeabsichtigte" Überwachung von Amerikanern durch moderne KI-Tools lassen. Connie LaRossa, OpenAIs Leiterin für nationale Sicherheitspolitik in den USA, bestätigte, dass die Bedingungen der Schutzmaßnahmen noch verhandelt werden und eine dreimonatige Implementierungsphase vorgesehen ist, um offene Fragen zu klären.

    Amodei wies in seinem Memo auf eine weitere rechtliche Lücke hin: Die Pentagon-Richtlinie, die einen "Human-in-the-Loop" für Waffensysteme vorschreibt, sei unter der Biden-Administration eingeführt worden und könne von Pete Hegseth, dem Under Secretary of Defense for Research and Engineering, einseitig geändert werden. Dies stelle keine echte Beschränkung dar.

    Investoren drängen auf Deeskalation und Branchensolidarität

    Der zunehmend schärfere Ton hinter den Kulissen veranlasst Investoren von Anthropic, auf eine Lösung zu drängen. Reuters zufolge hat Amodei in den letzten Tagen Gespräche mit Amazon-CEO Andy Jassy und anderen wichtigen Partnern geführt. Risikokapitalfirmen wie Lightspeed und Iconiq stehen ebenfalls in Kontakt mit Anthropic-Führungskräften und suchen nach potenziellen Lösungen, auch über ihre Verbindungen zur Trump-Administration.

    Einige Investoren äußerten sich frustriert über Amodei's Verhandlungsstrategie, die als "Ego- und Diplomatieproblem" beschrieben wurde. Gleichzeitig kann Amodei nicht einfach nachgeben, ohne eine Kernzielgruppe von Mitarbeitern und Kunden zu entfremden, die Anthropic gerade wegen seiner Haltung unterstützen. Der Chatbot Claude von Anthropic erlebte einen vorübergehenden Anstieg auf Platz 1 der kostenlosen Downloads im Apple App Store.

    Auch die breitere Tech-Branche solidarisierte sich. Der Information Technology Industry Council, dem unter anderem Amazon, Nvidia, Apple und OpenAI angehören, äußerte in einem Schreiben an das Pentagon Bedenken hinsichtlich der Einstufung Anthropic's als "Supply Chain Risk". Connie LaRossa von OpenAI erklärte auf einer Konferenz: "Wir arbeiten tatsächlich daran, die Sicherheitsrisikobestimmung für Anthropic aufheben zu lassen... Das sollte nicht auf ein amerikanisches Branchenunternehmen mit einem so wichtigen Werkzeug angewendet werden."

    Anthropic's letzter Versuch zur Einigung

    Die Financial Times berichtet, dass Dario Amodei nun in einem letzten Versuch direkt mit Emil Michael, dem Under Secretary of Defense for Research and Engineering, verhandelt, um eine Einigung zu erzielen. Michael hatte Amodei Tage zuvor öffentlich als "Lügner" mit einem "Gottkomplex" bezeichnet. Bei einer Veranstaltung von Morgan Stanley am Dienstagabend zeigte sich Amodei jedoch versöhnlicher: "Ich würde damit beginnen zu sagen, dass Anthropic und das Department of War viel mehr Gemeinsamkeiten als Unterschiede haben." Er fügte hinzu, dass sie "ihr Bestes geben werden", um den Konflikt zu lösen.

    Für Anthropic stehen erhebliche wirtschaftliche Interessen auf dem Spiel. Das Unternehmen hat einen jährlichen Umsatz von rund 19 Milliarden Dollar, der noch vor wenigen Wochen bei 14 Milliarden Dollar lag. Etwa 80 % des Umsatzes stammen von Unternehmenskunden. Mehrere US-Regierungsbehörden, darunter das Außenministerium, haben bereits begonnen, die Nutzung von Anthropic's Technologie einzustellen und zu OpenAI zu wechseln. Präsident Trump hatte die Bundesbehörden angewiesen, die Anthropic-Technologie innerhalb von sechs Monaten zu entfernen. Anthropic kündigte an, jede offizielle Einstufung als "Supply Chain Risk" gerichtlich anzufechten. Gleichzeitig wird Claude vom US-Militär im Palantir-Maven-System im Iran-Krieg ausgiebig genutzt.

    Amodei schloss sein Memo mit einer prägnanten Einschätzung der Lage: Der "versuchte Spin/Gaslighting funktioniert in der breiten Öffentlichkeit oder bei den Medien nicht sehr gut", schrieb er und fügte hinzu, dass Anthropic als "die Helden" wahrgenommen werde. Seine Hauptsorge sei, "wie man sicherstellen kann, dass es bei den OpenAI-Mitarbeitern nicht funktioniert." Sein Urteil: "Aufgrund von Auswahlprozessen sind sie eine Art leichtgläubige Gruppe, aber es scheint wichtig, diesen Narrativen entgegenzuwirken, die Sam seinen Mitarbeitern vermittelt."

    Bibliographie

    - The Information. (2026). Anthropic CEO Told Employees OpenAI Pentagon Deal 'Safety Theater'. - The Information. (2026). Read Anthropic CEO's Memo Attacking OpenAI's 'Mendacious' Pentagon Announcement. - The Decoder. (2026). Anthropic Nears $20 Billion Revenue Run Rate Despite Pentagon Feud. - The Decoder. (2026). Federal AI Shakeup: State Department Swaps Claude for Aging GPT-4.1. - The Decoder. (2026). OpenAI Co-Founder Greg Brockman Donates $25 Million to Trump's MAGA Inc. Super PAC. - The Decoder. (2026). US Military Uses Anthropic's Claude for AI-Driven Strike Planning in Iran War. - The Decoder. (2026). After Leaks and Massive Criticism, OpenAI Adds Safeguard Clauses to Pentagon Contract. - Financial Times. (2026). OpenAI to add more safeguards after criticism of Pentagon deal. - Financial Times. (2026). Anthropic in last-ditch attempt to secure Pentagon deal. - Reuters. (2026). Anthropic investors push to de-escalate Pentagon clash over AI safeguards, sources say. - Reuters. (2026). Big Tech group tells Pentagon's Hegseth they are 'concerned' about declaring Anthropic a supply-chain risk. - TechCrunch. (2026). Anthropic CEO Dario Amodei calls OpenAI's messaging around military deal 'straight up lies,' report says. - CNBC TV18. (2026). Anthropic CEO Amodei blasts OpenAI for 'mendacious' Pentagon deal. - CBS News. (2026). Anthropic CEO: We're trying to "deescalate" Pentagon AI standoff to reach "some agreement that works for us and works for them".

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen