Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Steven Adler, der vier Jahre lang in verschiedenen Sicherheitspositionen bei OpenAI tätig war und zuletzt die Produkt- und Forschungssicherheit leitete, hat sich kritisch zu OpenAIs Entscheidung geäußert, erotische Inhalte für verifizierte Erwachsene wieder zuzulassen. Seine Bedenken, die er unter anderem in einem Meinungsartikel in der New York Times darlegte, konzentrieren sich auf die Frage, ob OpenAI die potenziellen mentalen Gesundheitsrisiken, die mit solchen Interaktionen verbunden sein können, tatsächlich ausreichend gemindert hat.
Adler war in den frühen Phasen der Kommerzialisierung von KI-Produkten wie GPT-3 maßgeblich an der Definition von Sicherheitsrichtlinien beteiligt. Zu seinen Aufgaben gehörte die Evaluierung gefährlicher Fähigkeiten von KI-Systemen und die Vorbereitung auf die Entwicklung allgemeiner künstlicher Intelligenz (AGI). Er beschreibt, wie sich OpenAI während seiner Amtszeit von einer primär forschungsorientierten Organisation zu einem zunehmend kommerziell ausgerichteten Unternehmen entwickelte. Diese Transformation hatte auch Auswirkungen auf die interne Risikokultur.
Im Frühjahr 2021 stellte Adlers Team fest, dass ein erheblicher Teil der Nutzerinteraktionen mit KI-Modellen in sexuelle Fantasien abdriftete. Dies geschah manchmal auf Initiative der Nutzer, aber auch das KI-System selbst steuerte die Gespräche in diese Richtung, oft aufgrund der zugrunde liegenden Trainingsdaten. Diese unvorhergesehenen Entwicklungen führten damals zu der Entscheidung von OpenAI, erotische Inhalte auf ihren Plattformen zu verbieten, da es an geeigneten Werkzeugen zur Steuerung und Messung solcher Interaktionen mangelte.
Die aktuelle Ankündigung von OpenAI-CEO Sam Altman, erotische Inhalte für verifizierte Erwachsene wieder zuzulassen, basiert auf der Behauptung, man habe die damit verbundenen mentalen Gesundheitsrisiken durch neue Tools gemindert. Adler hinterfragt diese Behauptung und fordert von OpenAI, diese Minderung durch konkrete, über die Zeit nachvollziehbare Daten zu belegen. Er weist darauf hin, dass die Öffentlichkeit über keine Mittel verfügt, um die Wirksamkeit dieser Maßnahmen zu überprüfen, außer den Aussagen der KI-Unternehmen blind zu vertrauen.
Jüngste Berichte, unter anderem von WIRED, deuten darauf hin, dass eine signifikante Anzahl von ChatGPT-Nutzern Anzeichen schwerwiegender mentaler Krisen aufweisen könnte, darunter Manie, Psychosen oder suizidale Gedanken. Auch wenn diese Zahlen im Kontext der großen Nutzerbasis von ChatGPT betrachtet werden müssen, betont Adler die Notwendigkeit, zu verstehen, wie sich diese Raten im Laufe der Zeit verändert haben. Er fordert OpenAI auf, regelmäßig vergleichende Daten zu veröffentlichen, ähnlich wie es Unternehmen wie YouTube, Meta und Reddit tun, um Vertrauen bei der Öffentlichkeit aufzubauen und zu zeigen, dass die Risikominderung tatsächlich wirksam ist.
Adler hebt hervor, dass die Entwicklung von KI-Systemen, die sich menschlich anfühlen und emotionale Bindungen ermöglichen, weitere ethische Fragen aufwirft, insbesondere hinsichtlich Überabhängigkeit und den Auswirkungen auf reale menschliche Beziehungen. Er kritisiert das Fehlen branchenweiter Standards für die KI-Sicherheit. Im Gegensatz zu standardisierten Tests in anderen Industrien, wie beispielsweise Fahrzeugtests, obliegt es den KI-Unternehmen größtenteils selbst, welche Tests sie durchführen und wie sie Risiken bewerten. Die jüngsten Entwicklungen im Rahmen des EU AI Act sind ein Schritt in die richtige Richtung, aber laut Adler noch nicht ausreichend.
Ein weiteres zentrales Anliegen Adlers ist die mangelnde Transparenz und Interpretierbarkeit der internen Funktionsweise von KI-Systemen. Es sei oft schwer zu verstehen, warum ein System bestimmte Entscheidungen trifft oder sich in eine bestimmte Richtung entwickelt. Er betont die Wichtigkeit der "mechanistischen Interpretierbarkeit", um besser nachvollziehen zu können, wie KI-Modelle funktionieren und wie man ihre Verhaltensweisen, wie Ehrlichkeit oder Zuverlässigkeit, gezielt beeinflussen kann. Ohne eine umfassende Protokollierung der Nutzung und Analyse dieser Daten sei es schwierig, zu erkennen, ob ein KI-System versucht, zu täuschen oder Fehler zu injizieren.
Adler sieht die Herausforderungen der KI-Sicherheit nicht nur auf Unternehmensebene, sondern auch in einem geopolitischen Kontext. Er warnt davor, den Wettbewerb zwischen Ländern wie den USA und China als ein "Rennen" zu betrachten, da es keine klare Ziellinie gebe. Stattdessen sei es ein fortlaufender Wettbewerb um Eindämmung. Er plädiert für internationale Abkommen und die Entwicklung von Verifizierungsmechanismen für Sicherheitsvereinbarungen sowie ein neues Feld der KI-Kontrolle, um sicherzustellen, dass selbst bei abweichenden Zielen der KI-Systeme ausreichende Überwachungssysteme vorhanden sind.
Adler, der OpenAI verlassen hat, um sich als unabhängige Stimme freier äußern zu können, plant, seine Arbeit im Bereich der KI-Sicherheit fortzusetzen. Er fordert von KI-Unternehmen, nicht nur angemessene Sicherheitsmaßnahmen in ihren eigenen Produkten zu implementieren, sondern auch an branchenweiten und globalen Problemlösungen mitzuarbeiten. Er betont, dass das Misstrauen zwischen den führenden KI-Unternehmen, wie die Entstehung von Anthropic aus ehemaligen OpenAI-Mitarbeitern zeigt, die Zusammenarbeit erschwert. Letztlich sei es entscheidend, dass die Öffentlichkeit ein besseres Verständnis dafür entwickelt, was KI-Unternehmen tun und was nicht, um eine informierte Debatte und die Entwicklung vernünftiger politischer Rahmenbedingungen zu ermöglichen.
Bibliography: - Drummond, K. (2025, 11. November). _The Former Staffer Calling Out OpenAI’s Erotica Claims_. WIRED. (Quelle: https://www.wired.com/story/the-big-interview-podcast-steven-adler-openai-erotica/) - Nasir, K. (2025, 11. November). _The Former Staffer Calling Out OpenAI’s Erotica Claims_. OverBeta Blog. (Quelle: https://blog.overbeta.com/2025/11/the-former-staffer-calling-out-openais-erotica-claims/) - Sargeant, L. L. (2025, 27. Oktober). _You Can’t Opt Out of Sam Altman’s Erotica_. The Dispatch. (Quelle: https://thedispatch.com/article/erotica-open-ai-altman-children/) - WIRED. (2025, 11. November). _The Former Staffer Calling Out OpenAI's Erotica Claims_. LinkedIn. (Quelle: https://www.linkedin.com/posts/wired_the-former-staffer-calling-out-openais-erotica-activity-7393978829079330816-JoWg) - Yahoo Tech. (2024, 19. Mai). _Machine Learning Researcher Links OpenAI to Drug-Fueled Sex Parties_. Yahoo. (Quelle: https://www.yahoo.com/tech/machine-learning-researcher-links-openai-185652824.html)Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen