Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Ein Bericht, der die Stimmen besorgter ehemaliger Mitarbeiter zusammenfasst, behauptet, dass OpenAI, eines der weltweit führenden KI-Labore, Sicherheitsaspekte zugunsten des Profits vernachlässigt. Was als edles Unterfangen begann, um sicherzustellen, dass KI der gesamten Menschheit dient, droht nun, zu einem weiteren profitorientierten Unternehmen zu werden, das immense Gewinne anstrebt und dabei Sicherheit und Ethik vernachlässigt.
Im Zentrum der Kritik steht die geplante Änderung der ursprünglichen Vereinbarung zur Gewinnbeteiligung. Zu Beginn seiner Tätigkeit hatte OpenAI ein wichtiges Versprechen abgegeben: Es wurde eine Obergrenze für die Gewinne der Investoren festgelegt. Dies war eine rechtliche Garantie dafür, dass die enormen Vorteile, die sich aus der Entwicklung einer weltverändernden KI ergeben würden, der gesamten Menschheit und nicht nur einer Handvoll Milliardären zugutekommen würden. Nun steht dieses Versprechen offenbar kurz davor, gebrochen zu werden, um Investoren zufriedenzustellen, die unbegrenzte Renditen erwarten.
Für die Menschen, die OpenAI aufgebaut haben, fühlt sich diese Abkehr von der KI-Sicherheit wie ein tiefgreifender Vertrauensbruch an. "Die gemeinnützige Mission war ein Versprechen, das Richtige zu tun, wenn es darauf ankommt", sagt ein ehemaliger Mitarbeiter. "Jetzt, da es darauf ankommt, wird die gemeinnützige Struktur aufgegeben, was bedeutet, dass das Versprechen letztendlich leer war."
Viele der besorgten Stimmen richten sich gegen CEO Sam Altman. Die Bedenken sind nicht neu. Berichte deuten darauf hin, dass bereits in seinen früheren Unternehmen leitende Kollegen versucht haben, ihn wegen seines angeblich "täuschenden und chaotischen" Verhaltens zu entlassen.
Dieses Misstrauen begleitete ihn auch zu OpenAI. Der Mitbegründer des Unternehmens, Ilya Sutskever, der jahrelang mit Altman zusammengearbeitet hat, kam zu dem Schluss: "Ich glaube nicht, dass Sam derjenige sein sollte, der den Finger am Knopf für AGI hat." Er empfand Altman als unehrlich und chaostiftend – eine beängstigende Kombination für jemanden, der potenziell für unsere kollektive Zukunft verantwortlich ist.
Auch Mira Murati, die ehemalige CTO, äußerte sich besorgt. Sie beschrieb ein toxisches Muster, bei dem Altman den Leuten sagte, was sie hören wollten, und sie dann untergrub, wenn sie ihm im Weg standen. Ehemalige Vorstandsmitglieder bezeichnen dieses Verhalten als inakzeptabel, insbesondere angesichts der hohen Sicherheitsrisiken im Bereich KI.
Diese Vertrauenskrise hat reale Konsequenzen. Insider berichten, dass sich die Kultur bei OpenAI verändert hat und die wichtige Arbeit an der KI-Sicherheit hinter der Veröffentlichung von "glänzenden Produkten" zurücktritt. Jan Leike, der das Team für langfristige Sicherheit leitete, sagte, sie würden "gegen den Wind segeln" und hätten Mühe, die notwendigen Ressourcen für ihre wichtige Forschung zu erhalten.
Ein weiterer ehemaliger Mitarbeiter sagte sogar vor dem US-Senat aus und enthüllte, dass die Sicherheitsvorkehrungen über lange Zeiträume so schwach waren, dass Hunderte von Ingenieuren die fortschrittlichste KI des Unternehmens, einschließlich GPT-4, hätten stehlen können.
Die ehemaligen Mitarbeiter haben einen Maßnahmenkatalog vorgelegt, um OpenAI wieder auf den richtigen Weg zu bringen und die ursprüngliche Mission zu retten. Sie fordern:
- Stärkung der gemeinnützigen Struktur mit Vetorecht bei Sicherheitsentscheidungen - Eine transparente und ehrliche Führung, einschließlich einer Untersuchung des Verhaltens von Sam Altman - Eine unabhängige Aufsicht - Schutz für Whistleblower - Einhaltung der ursprünglichen finanziellen Zusagen und Beibehaltung der GewinnbegrenzungenEs geht hier nicht nur um interne Dramen in einem Silicon-Valley-Unternehmen. OpenAI entwickelt eine Technologie, die unsere Welt auf eine Weise verändern könnte, die wir uns kaum vorstellen können. Die Frage, die die ehemaligen Mitarbeiter uns allen stellen, ist einfach, aber tiefgreifend: Wem vertrauen wir den Aufbau unserer Zukunft an?
Bibliographie: https://www.artificialintelligence-news.com/news/the-openai-files-ex-staff-claim-profit-greed-ai-safety/ https://www.reddit.com/r/technology/comments/1lfeik0/the_openai_files_exstaff_claim_profit_greed/ https://x.com/Gadget_Ry/status/1935657272060924178 https://www.youtube.com/watch?v=V_lvynLhXTA https://www.artificialintelligence-news.com/news/tag/comparison/ https://techresearchonline.com/news/ex-openai-staff-challenge-for-profit-conversion/ https://www.pixelstech.net/ https://www.techrepublic.com/article/news-openai-for-profit-model-pushback/ https://www.computerworld.com/article/3968527/former-openai-employees-urge-regulators-to-halt-companys-for-profit-shift.html https://www.facebook.com/AITechNews/Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen