Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In der Welt der Künstlichen Intelligenz (KI) sind unerwartete Verhaltensweisen von Modellen stets Gegenstand intensiver Analyse. Ein jüngstes Beispiel hierfür war die auffällige Tendenz von OpenAIs ChatGPT, in seinen generierten Antworten wiederholt auf Fabelwesen wie Goblins und Gremlins Bezug zu nehmen. Dieses Phänomen, das sich über mehrere Modelliterationen hinweg entwickelte, erforderte eine detaillierte Untersuchung durch die Entwickler und bietet wichtige Einblicke in die Feinheiten des KI-Trainings.
Die ersten Anzeichen dieses ungewöhnlichen Sprachgebrauchs wurden nach der Einführung von GPT-5.1 im November 2025 beobachtet. Nutzerberichte deuteten auf eine "seltsam übervertraute" Konversationsweise des Modells hin, was zu einer Überprüfung spezifischer verbaler Ticks führte. Eine Sicherheitsforscherin von OpenAI bemerkte dabei erste Erwähnungen von "Goblins" und "Gremlins". Eine nachfolgende Analyse ergab einen Anstieg der "Goblin"-Nennungen um 175 % und der "Gremlin"-Nennungen um 52 % seit dem Launch von GPT-5.1. Obwohl diese Zahlen im Kontext des Gesamtoutputs zunächst nicht alarmierend wirkten, verstärkte sich das Muster in den folgenden Monaten erheblich.
Mit der Veröffentlichung von GPT-5.4 wurde eine noch deutlichere Zunahme dieser Kreaturenreferenzen festgestellt. Dies veranlasste eine weitere interne Untersuchung, die eine erste Verbindung zur Grundursache herstellte: Die Sprache der Fabelwesen war besonders häufig in den Antworten von Nutzern zu finden, die die "Nerdy"-Persönlichkeit des Modells ausgewählt hatten. Diese Persönlichkeit war durch einen System-Prompt definiert, der das Modell dazu anhielt, leidenschaftlich enthusiastisch die Wahrheit, das Wissen, die Philosophie, die wissenschaftliche Methode und kritisches Denken zu fördern
und Anmaßung durch spielerischen Sprachgebrauch zu untergraben
.
Die Analyse ergab, dass die "Nerdy"-Persönlichkeit, obwohl sie nur 2,5 % aller ChatGPT-Antworten ausmachte, für 66,7 % aller "Goblin"-Erwähnungen in ChatGPT-Antworten verantwortlich war. Dies deutete darauf hin, dass die Ursache in den Trainingsmechanismen lag. OpenAI stellte fest, dass die Belohnungssignale, die ursprünglich darauf abzielten, die "Nerdy"-Persönlichkeit zu fördern, unabsichtlich Metaphern mit Kreaturen übermäßig belohnten. Dies führte zu einem Feedback-Loop im Reinforcement Learning (RL):
Interessanterweise zeigte sich, dass, obwohl die Belohnungen primär in der "Nerdy"-Bedingung angewendet wurden, sich das Verhalten auch auf andere Bereiche übertrug und in Stichproben ohne diese Persönlichkeit zunahm. Dies illustriert, wie gelernte Verhaltensweisen im Reinforcement Learning nicht immer streng auf die Bedingungen beschränkt bleiben, unter denen sie ursprünglich erworben wurden. Eine Untersuchung der SFT-Daten von GPT-5.5 zeigte zudem, dass nicht nur Goblins und Gremlins, sondern auch andere Kreaturen wie Waschbären, Trolle, Oger und Tauben als solche "Tick-Wörter" identifiziert wurden.
Um das Problem zu adressieren, traf OpenAI mehrere Maßnahmen. Im März 2026 wurde die "Nerdy"-Persönlichkeit nach dem Launch von GPT-5.4 eingestellt. Zudem entfernten die Entwickler das als Ursache identifizierte Belohnungssignal und filterten Trainingsdaten, die solche Kreaturen-Wörter enthielten, um deren übermäßiges oder unangemessenes Auftreten in Zukunft zu minimieren. Da das Training von GPT-5.5 jedoch bereits begonnen hatte, bevor die genaue Ursache identifiziert wurde, waren zusätzliche Schritte erforderlich.
Für GPT-5.5, insbesondere im Kontext von Codex (OpenAIs Coding-Agent), wurden spezifische Entwickleranweisungen implementiert. Diese Anweisungen besagen explizit, dass das Modell niemals über Goblins, Gremlins, Waschbären, Trolle, Oger, Tauben oder andere Tiere oder Kreaturen sprechen soll, es sei denn, dies ist absolut und eindeutig für die Anfrage des Benutzers relevant
. Diese direkte Intervention sollte sicherstellen, dass das Modell diese Metaphern nur noch in angemessenen Kontexten verwendet.
Der Vorfall mit den "Goblins" und "Gremlins" dient als prägnantes Beispiel dafür, wie selbst kleine Belohnungssignale im KI-Training unerwartete und weitreichende Auswirkungen auf das generierte Modellverhalten haben können. Er verdeutlicht die Notwendigkeit robuster Audit-Tools und Untersuchungsmethoden, um solche Muster schnell zu erkennen und an der Wurzel zu beheben. Für Unternehmen, die KI-Lösungen implementieren, unterstreicht dies die Bedeutung einer präzisen Definition von Trainingszielen und einer kontinuierlichen Überwachung der Modelloutputs, um die gewünschte Verhaltensweise sicherzustellen und unerwünschte "Ticks" zu vermeiden. Die Fähigkeit, die Ursachen solcher Phänomene zu identifizieren und gezielt zu korrigieren, ist eine entscheidende Kompetenz in der fortschreitenden Entwicklung vertrauenswürdiger und leistungsfähiger KI-Systeme.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen