Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Im Mai dieses Jahres unterzeichneten fast 200 Mitarbeiter von Google DeepMind, der KI-Abteilung des Technologieriesen, einen Brief, der das Unternehmen aufforderte, seine Verträge mit militärischen Organisationen zu beenden. Der Brief, der TIME vorliegt und von fünf Personen mit Kenntnis der Angelegenheit bestätigt wurde, zirkulierte angesichts wachsender Bedenken innerhalb des KI-Labors, dass seine Technologie an Militärs verkauft wird, die an Konflikten beteiligt sind, was möglicherweise gegen Googles eigene KI-Richtlinien verstößt.
Der Brief ist ein Zeichen für einen wachsenden Streit innerhalb von Google zwischen mindestens einigen Mitarbeitern seiner KI-Abteilung, die sich verpflichtet hat, niemals an militärischer Technologie zu arbeiten, und seiner Cloud-Sparte, die Verträge hat, um Google-Dienste, einschließlich KI, die innerhalb von DeepMind entwickelt wurde, an mehrere Regierungen und Militärs, einschließlich der USA und Israels, zu verkaufen. Die Unterschriften repräsentieren etwa 5 % der gesamten Belegschaft von DeepMind - ein kleiner Anteil, aber ein bedeutendes Maß an Mitarbeiterunruhe in einer Branche, in der Spitzenkräfte im Bereich maschinelles Lernen stark nachgefragt sind.
Der Brief vom 16. Mai dieses Jahres beginnt mit der Feststellung, dass die Mitarbeiter „besorgt über jüngste Berichte über Googles Verträge mit militärischen Organisationen“ sind. Es wird kein spezifisches Militär namentlich erwähnt, aber der Brief verweist auf einen Bericht in TIME vom April, der enthüllte, dass Google einen direkten Vertrag zur Bereitstellung von Cloud-Computing- und KI-Diensten an das israelische Militärverteidigungsministerium im Rahmen eines umfassenderen Vertrags mit Israel namens Project Nimbus hat. Der Brief verweist auch auf andere Berichte, die behaupten, dass das israelische Militär KI zur Durchführung von Massenüberwachung und Zielauswahl für seine Bombenkampagne im Gaza-Streifen einsetzt, und dass israelische Waffenfirmen gesetzlich verpflichtet sind, Cloud-Dienste von Google und Amazon zu kaufen.
Der Brief fordert die DeepMind-Führung auf, die Vorwürfe zu untersuchen, dass Militärs und Waffenhersteller Google Cloud-Nutzer sind; den Zugang zu DeepMind-Technologie für Militärnutzer zu beenden; und eine neue Regierungsbehörde einzurichten, die dafür verantwortlich ist, zu verhindern, dass DeepMind-Technologie in Zukunft von militärischen Kunden genutzt wird. Drei Monate nach der Zirkulation des Briefes hat Google keine dieser Maßnahmen ergriffen, so vier Personen mit Kenntnis der Angelegenheit. „Wir haben keine sinnvolle Antwort von der Führung erhalten“, sagte eine Person, „und wir werden zunehmend frustriert.“
Ein Google-Sprecher sagte gegenüber TIME: „Bei der Entwicklung von KI-Technologien und ihrer Bereitstellung für Kunden halten wir uns an unsere KI-Prinzipien, die unser Engagement für die verantwortungsvolle Entwicklung von Technologie umreißen. Wir haben sehr deutlich gemacht, dass der Nimbus-Vertrag für Workloads auf unserer kommerziellen Cloud durch israelische Regierungsministerien ist, die sich verpflichten, unseren Nutzungsbedingungen und der akzeptablen Nutzungsrichtlinie zu entsprechen. Diese Arbeit ist nicht auf hochsensible, klassifizierte oder militärische Workloads relevant für Waffen oder Geheimdienste ausgerichtet.“
Als DeepMind 2014 von Google übernommen wurde, sicherten sich die Führungskräfte des Labors ein großes Versprechen vom Suchriesen: dass ihre KI-Technologie niemals für militärische oder Überwachungszwecke verwendet werden würde. Viele Jahre lang operierte das in London ansässige Labor mit einem hohen Maß an Unabhängigkeit von Googles kalifornischem Hauptsitz. Doch als das KI-Rennen intensiver wurde, wurde DeepMind enger in Google integriert. Ein Versuch der Laborsführung im Jahr 2021, mehr Autonomie zu erlangen, scheiterte, und 2023 fusionierte es mit Googles anderem KI-Team - Google Brain - und rückte damit näher an das Herz des Technologieriesen.
Ein unabhängiger Ethikausschuss, den die DeepMind-Führung gehofft hatte, würde die Nutzung der Technologie des KI-Labors regeln, traf sich letztlich nur einmal und wurde bald durch eine übergeordnete Google-Ethikrichtlinie ersetzt: die KI-Prinzipien. Obwohl diese Prinzipien versprechen, dass Google keine KI entwickeln wird, die voraussichtlich „insgesamt Schaden verursacht“, erlauben sie dem Unternehmen ausdrücklich, Technologien zu entwickeln, die Schaden verursachen könnten, wenn es zu dem Schluss kommt, „dass die Vorteile die Risiken erheblich überwiegen“. Und sie schließen nicht aus, Googles KI an militärische Kunden zu verkaufen.
Infolgedessen wurde DeepMind-Technologie in Googles Cloud-Software integriert und an Militärs und Regierungen, einschließlich Israel und seinem Verteidigungsministerium, verkauft. „Während DeepMind in der Vergangenheit möglicherweise unglücklich war, an militärischer KI oder Verteidigungsverträgen zu arbeiten, denke ich, dass dies wirklich nicht mehr unsere Entscheidung ist“, sagte ein DeepMind-Mitarbeiter im April gegenüber TIME und bat um Anonymität, da er nicht befugt war, öffentlich zu sprechen. Mehrere Google-Mitarbeiter sagten im April gegenüber TIME, dass das Unternehmen aus Datenschutzgründen nur begrenzte Einblicke in die Nutzung seiner Infrastruktur durch Regierungskunden hat, was bedeutet, dass es möglicherweise schwierig, wenn nicht unmöglich ist, für Google zu überprüfen, ob seine akzeptable Nutzungsrichtlinie - die Nutzern verbietet, seine Produkte für „Gewalt, die Tod, schweren Schaden oder Verletzungen verursachen kann“ zu verwenden - verletzt wird.
Google sagt, dass Project Nimbus, sein Vertrag mit Israel, nicht „auf hochsensible, klassifizierte oder militärische Workloads relevant für Waffen oder Geheimdienste ausgerichtet“ ist. Aber diese Antwort „leugnet nicht die Vorwürfe, dass seine Technologie jede Form von Gewalt ermöglicht oder Überwachung ermöglicht, die international akzeptierte Normen verletzt“, so der Brief, der im Mai innerhalb von DeepMind zirkulierte. Googles Aussage zu Project Nimbus „ist so spezifisch unspezifisch, dass wir alle nicht weiser sind, was es tatsächlich bedeutet“, sagte einer der Unterzeichner des Briefes gegenüber TIME.
Auf einer DeepMind-Townhall-Veranstaltung im Juni wurden Führungskräfte gebeten, auf den Brief zu antworten, so drei Personen mit Kenntnis der Angelegenheit. DeepMinds Chief Operating Officer Lila Ibrahim beantwortete die Frage. Sie sagte den Mitarbeitern, dass DeepMind keine KI-Anwendungen für Waffen oder Massenüberwachung entwerfen oder einsetzen werde und dass Google Cloud-Kunden rechtlich an die Nutzungsbedingungen und die akzeptable Nutzungsrichtlinie des Unternehmens gebunden seien, so eine Reihe von Notizen, die während des Treffens gemacht wurden und von TIME überprüft wurden. Ibrahim fügte hinzu, dass sie stolz auf Googles Erfolgsbilanz bei der Förderung sicherer und verantwortungsvoller KI sei und dass dies der Grund sei, warum sie sich entschied, dem Unternehmen beizutreten und zu bleiben.
Der Streit um die ethische Verwendung von KI bei Google DeepMind zeigt die Herausforderungen und Spannungen auf, die entstehen, wenn Technologieunternehmen militärische Verträge eingehen. Es bleibt abzuwarten, wie Google und DeepMind auf die anhaltenden Bedenken ihrer Mitarbeiter reagieren und ob sie Maßnahmen ergreifen werden, um sicherzustellen, dass ihre KI-Technologie im Einklang mit ihren erklärten ethischen Prinzipien verwendet wird.
Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen