Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Beziehungen zwischen führenden KI-Unternehmen und der US-Regierung sind in den Fokus gerückt, insbesondere nach jüngsten Entwicklungen, die eine scharfe Auseinandersetzung zwischen Anthropic und OpenAI offenbaren. Im Zentrum steht ein Vertrag zwischen OpenAI und dem Pentagon, den Anthropic-CEO Dario Amodei als "Sicherheitstheater" bezeichnete. Dieser Konflikt, der weitreichende Implikationen für die Entwicklung und den Einsatz von KI im militärischen Bereich haben könnte, wird von Investoren und der breiteren Tech-Branche genau beobachtet.
In einem internen Memo, das an über 2.000 Mitarbeiter von Anthropic versandt und von "The Information" veröffentlicht wurde, übte Dario Amodei scharfe Kritik an dem Deal zwischen OpenAI und dem Pentagon. Er beschrieb OpenAIs Darstellung des Abkommens als "80% Sicherheitstheater" und warf Sam Altman vor, die Öffentlichkeit und seine eigenen Mitarbeiter über die wahren Implikationen des Vertrages zu täuschen. Amodei zufolge untergräbt Altman systematisch die ethischen "roten Linien", die Anthropic für den militärischen Einsatz von KI gezogen hat.
Anthropic hatte zuvor Verhandlungen mit dem Pentagon abgebrochen, da das Unternehmen die Nutzung seiner KI für Massenüberwachung im Inland und autonome tödliche Waffensysteme nicht zulassen wollte. Kurz darauf gab OpenAI bekannt, einen Vertrag mit dem Pentagon abgeschlossen zu haben, der den Einsatz ihrer KI-Modelle in klassifizierten Systemen ermöglichte. Amodei deutet an, dass Altmans Handlungen darauf abzielten, Anthropic's Position in dieser Angelegenheit zu schwächen.
Aus technischer Sicht argumentiert Amodei, dass KI-Modelle keine inhärente Fähigkeit besitzen, menschliche Beteiligung zu erkennen, die Herkunft von Daten zu identifizieren oder die Einhaltung ethischer Richtlinien zuverlässig zu gewährleisten. Er betonte, dass "Jailbreaks" – das Umgehen von Sicherheitsmechanismen – bei KI-Modellen weit verbreitet und oft einfach durchzuführen seien, indem das Modell über die zu analysierenden Daten fehlinformiert werde. Dies mache die von OpenAI angepriesenen Sicherheitsvorkehrungen in militärischen Anwendungen weitgehend ineffektiv.
Dario Amodei führte in seinem Memo auch die wahren Gründe an, die seiner Meinung nach zu den Spannungen zwischen Anthropic und der Trump-Administration führten. Er schrieb, dass die "Abteilung für Krieg" (DoW) und die Trump-Regierung Anthropic ablehnten, weil das Unternehmen keine Spenden an Trump geleistet habe – im Gegensatz zu OpenAI und dessen Präsident Greg Brockman, der Berichten zufolge zusammen mit seiner Frau 25 Millionen Dollar an ein Trump-Super-PAC spendete. Amodei kritisierte zudem, dass Anthropic "keine diktatorische Lobpreisung" an Trump gerichtet habe, sich für KI-Regulierung eingesetzt und die Wahrheit über KI-Politikthemen wie Arbeitsplatzverdrängung gesagt habe. Er betonte, dass Anthropic seine ethischen Prinzipien konsequent verteidigt habe.
Amodei berichtete ferner, dass das Pentagon gegen Ende der Verhandlungen angeboten habe, Anthropic's Bedingungen zu akzeptieren, falls das Unternehmen eine spezifische Formulierung bezüglich der "Analyse von massenhaft erworbenen Daten" aus dem Vertrag streichen würde. Diese Klausel entsprach genau dem Szenario, das Anthropic am meisten beunruhigte, und das Unternehmen lehnte ab, da es dies als sehr verdächtig empfand.
Die öffentliche Reaktion auf den Pentagon-Deal von OpenAI war kritisch. Sam Altman räumte laut der Financial Times ein, dass das übereilt geschlossene Abkommen "opportunistisch und schlampig" wirkte. Als Reaktion auf den öffentlichen und internen Druck hat OpenAI den Vertrag am Montag mit präziseren Formulierungen aktualisiert. Die neuen Klauseln sollen nun "die absichtliche Verfolgung, Überwachung oder Beobachtung von US-Personen oder Staatsangehörigen, einschließlich durch die Beschaffung oder Nutzung kommerziell erworbener persönlicher oder identifizierbarer Informationen", verbieten. Auch Geheimdienste wie die NSA sollen von diesem Abkommen ausgeschlossen sein.
Trotz dieser Anpassungen bleiben Anwälte und Mitarbeiter skeptisch. Die Formulierungen "absichtlich", "vorsätzlich" oder "gezielt" könnten Raum für "zufällige" oder "unbeabsichtigte" Überwachung von Amerikanern durch moderne KI-Tools lassen. Connie LaRossa, OpenAIs Leiterin für nationale Sicherheitspolitik in den USA, bestätigte, dass die Bedingungen der Schutzmaßnahmen noch verhandelt werden und eine dreimonatige Implementierungsphase vorgesehen ist, um offene Fragen zu klären.
Amodei wies in seinem Memo auf eine weitere rechtliche Lücke hin: Die Pentagon-Richtlinie, die einen "Human-in-the-Loop" für Waffensysteme vorschreibt, sei unter der Biden-Administration eingeführt worden und könne von Pete Hegseth, dem Under Secretary of Defense for Research and Engineering, einseitig geändert werden. Dies stelle keine echte Beschränkung dar.
Der zunehmend schärfere Ton hinter den Kulissen veranlasst Investoren von Anthropic, auf eine Lösung zu drängen. Reuters zufolge hat Amodei in den letzten Tagen Gespräche mit Amazon-CEO Andy Jassy und anderen wichtigen Partnern geführt. Risikokapitalfirmen wie Lightspeed und Iconiq stehen ebenfalls in Kontakt mit Anthropic-Führungskräften und suchen nach potenziellen Lösungen, auch über ihre Verbindungen zur Trump-Administration.
Einige Investoren äußerten sich frustriert über Amodei's Verhandlungsstrategie, die als "Ego- und Diplomatieproblem" beschrieben wurde. Gleichzeitig kann Amodei nicht einfach nachgeben, ohne eine Kernzielgruppe von Mitarbeitern und Kunden zu entfremden, die Anthropic gerade wegen seiner Haltung unterstützen. Der Chatbot Claude von Anthropic erlebte einen vorübergehenden Anstieg auf Platz 1 der kostenlosen Downloads im Apple App Store.
Auch die breitere Tech-Branche solidarisierte sich. Der Information Technology Industry Council, dem unter anderem Amazon, Nvidia, Apple und OpenAI angehören, äußerte in einem Schreiben an das Pentagon Bedenken hinsichtlich der Einstufung Anthropic's als "Supply Chain Risk". Connie LaRossa von OpenAI erklärte auf einer Konferenz: "Wir arbeiten tatsächlich daran, die Sicherheitsrisikobestimmung für Anthropic aufheben zu lassen... Das sollte nicht auf ein amerikanisches Branchenunternehmen mit einem so wichtigen Werkzeug angewendet werden."
Die Financial Times berichtet, dass Dario Amodei nun in einem letzten Versuch direkt mit Emil Michael, dem Under Secretary of Defense for Research and Engineering, verhandelt, um eine Einigung zu erzielen. Michael hatte Amodei Tage zuvor öffentlich als "Lügner" mit einem "Gottkomplex" bezeichnet. Bei einer Veranstaltung von Morgan Stanley am Dienstagabend zeigte sich Amodei jedoch versöhnlicher: "Ich würde damit beginnen zu sagen, dass Anthropic und das Department of War viel mehr Gemeinsamkeiten als Unterschiede haben." Er fügte hinzu, dass sie "ihr Bestes geben werden", um den Konflikt zu lösen.
Für Anthropic stehen erhebliche wirtschaftliche Interessen auf dem Spiel. Das Unternehmen hat einen jährlichen Umsatz von rund 19 Milliarden Dollar, der noch vor wenigen Wochen bei 14 Milliarden Dollar lag. Etwa 80 % des Umsatzes stammen von Unternehmenskunden. Mehrere US-Regierungsbehörden, darunter das Außenministerium, haben bereits begonnen, die Nutzung von Anthropic's Technologie einzustellen und zu OpenAI zu wechseln. Präsident Trump hatte die Bundesbehörden angewiesen, die Anthropic-Technologie innerhalb von sechs Monaten zu entfernen. Anthropic kündigte an, jede offizielle Einstufung als "Supply Chain Risk" gerichtlich anzufechten. Gleichzeitig wird Claude vom US-Militär im Palantir-Maven-System im Iran-Krieg ausgiebig genutzt.
Amodei schloss sein Memo mit einer prägnanten Einschätzung der Lage: Der "versuchte Spin/Gaslighting funktioniert in der breiten Öffentlichkeit oder bei den Medien nicht sehr gut", schrieb er und fügte hinzu, dass Anthropic als "die Helden" wahrgenommen werde. Seine Hauptsorge sei, "wie man sicherstellen kann, dass es bei den OpenAI-Mitarbeitern nicht funktioniert." Sein Urteil: "Aufgrund von Auswahlprozessen sind sie eine Art leichtgläubige Gruppe, aber es scheint wichtig, diesen Narrativen entgegenzuwirken, die Sam seinen Mitarbeitern vermittelt."
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen