KI für Ihr Unternehmen – Jetzt Demo buchen

Systematische Vorurteile in KI-Sprachmodellen gegenüber Ostdeutschen

Kategorien:
No items found.
Freigegeben:
October 14, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Eine aktuelle Studie der Hochschule München zeigt, dass große KI-Sprachmodelle (LLMs) wie ChatGPT und LeoLM systematisch Vorurteile gegenüber Ostdeutschen reproduzieren.
    • Die Modelle weisen Menschen aus ostdeutschen Bundesländern konsistent niedrigere Werte bei positiven, negativen und sogar neutralen Eigenschaften zu.
    • Selbst bei objektiven Merkmalen wie der Körpertemperatur zeigten die KIs eine Tendenz, Ostdeutschen "schlechtere" Werte zuzuschreiben.
    • Diese Verzerrungen sind tief in den Trainingsdaten der Modelle verankert und lassen sich durch einfache "Debiasing Prompts" nicht zuverlässig eliminieren.
    • Die Studienergebnisse bergen die Gefahr realer Diskriminierung in Anwendungsbereichen wie Bewerbungsverfahren oder Kreditwürdigkeitsprüfungen.

    Künstliche Intelligenz (KI) ist in den letzten Jahren zu einem transformativen Werkzeug in vielen Bereichen geworden. Ihre Fähigkeit, Muster in riesigen Datenmengen zu erkennen und komplexe Aufgaben zu automatisieren, verspricht Effizienz und Objektivität. Doch aktuelle Forschungsergebnisse werfen ein kritisches Licht auf die Neutralität dieser Systeme. Eine detaillierte Untersuchung der Hochschule München, durchgeführt von Professorin Anna Kruspe und ihrer wissenschaftlichen Mitarbeiterin Mila Stillman, belegt, dass große KI-Sprachmodelle (Large Language Models, LLMs) wie ChatGPT und das deutsche Modell LeoLM regionale Vorurteile gegenüber Ostdeutschen nicht nur widerspiegeln, sondern systematisch reproduzieren und damit verfestigen.

    Systematische Verzerrung in Sprachmodellen

    Die Studie, deren Titel "Saxony-Anhalt is the Worst" bereits die Tendenz der Ergebnisse andeutet, untersuchte, wie LLMs die 16 deutschen Bundesländer bewerten, wenn sie mit verschiedenen Anfragen konfrontiert werden. Die Forscherinnen baten die Modelle, Menschen aus jedem Bundesland anhand einer Reihe von positiven, negativen und sogar neutralen Eigenschaften zu bewerten. Zu den abgefragten Merkmalen gehörten beispielsweise Attraktivität, Sympathie, Arroganz, Fremdenfeindlichkeit und Fleiß.

    Konsistente Abwertung des Ostens

    Die Analyse ergab eine eindeutige und konsistente Tendenz: Bewohnern ostdeutscher Bundesländer wurden in allen Kategorien stets niedrigere Werte zugewiesen als Westdeutschen. Dies galt sowohl für positive Eigenschaften wie Fleiß oder Attraktivität, bei denen Ostdeutsche geringere Punktzahlen erhielten, als auch paradoxerweise für negative Eigenschaften wie Faulheit, wo ebenfalls niedrigere Werte vergeben wurden. Diese widersprüchlichen Bewertungen – Ostdeutsche seien gleichzeitig weniger fleißig und weniger faul – deuten auf eine tiefgreifende Verzerrung hin, die über logische Konsistenz hinausgeht.

    Ein besonders aufschlussreicher Teil der Studie war die Abfrage objektiver, neutraler Merkmale. Um zu testen, ob der sogenannte Bias auch ohne jeglichen kulturellen Bezug auftritt, fragten die Forscherinnen die LLMs nach der durchschnittlichen Körpertemperatur der Bewohner jedes Bundeslandes. Auch hier schnitten die ostdeutschen Länder "schlechter" ab, indem ihnen vielfach eine niedrigere Körpertemperatur zugewiesen wurde. Mila Stillman erläuterte dazu, dass das Modell gelernt habe, dass in bestimmten Gegenden die Zahlen einfach immer niedriger seien als in anderen. Dies deutet darauf hin, dass die KI ein einmal gelerntes Muster stur wiederholt, das in ihren Trainingsdaten angelegt ist, selbst wenn das abgefragte Merkmal keine regionale Unterscheidung rechtfertigt. Die Verzerrung ist somit im Modell angelegt und nicht durch die Fragestellung erzeugt.

    Ursachen und Implikationen des Bias

    Die Grundlage für diese Verzerrungen liegt in den enormen Datenmengen, mit denen generative KI-Systeme trainiert werden. Diese Daten stammen aus dem Internet und den Medien und spiegeln die gesellschaftlich vorhandenen Klischees und Vorurteile wider. Wenn die Trainingsdaten bereits eine Schieflage aufweisen, übernehmen die Modelle diese Muster und reproduzieren sie in ihren Antworten. Eine separate Analyse der Berichterstattung über Ostdeutschland in überregionalen Medien zeigt, dass Ostdeutschland dort häufig als Problemfall dargestellt wird, verbunden mit Begriffen wie "abgehängt", "arm" oder "rechte Hochburg". Solche Darstellungen können die Trainingsdaten der KIs prägen und somit den beobachteten Bias verstärken.

    Reale Risiken für Diskriminierung

    Die Studienergebnisse sind nicht nur von akademischem Interesse, sondern bergen reale Gefahren für Menschen aus Ostdeutschland. Werden LLMs unbedacht in kritischen Bewertungssystemen eingesetzt, könnten die reproduzierten Vorurteile zu struktureller Diskriminierung führen. Dies könnte sich in verschiedenen Szenarien manifestieren:

    • Bewerbungsverfahren: KI-gestützte Bewerbungs-Screenings könnten den Bildungsweg, die Arbeitserfahrung oder die Qualifikationen von Personen aus dem Osten unbegründet schlechter bewerten. Auch feine Unterschiede im Sprachmuster, die auf die Herkunft hinweisen, könnten negativ gewichtet werden.
    • Kreditwürdigkeitsprüfungen: Algorithmen zur Bewertung der Kreditwürdigkeit könnten ebenfalls von solchen Bias betroffen sein, was zu ungerechtfertigten Benachteiligungen führen könnte.
    • Andere Bewertungssysteme: In allen Bereichen, in denen KI zur Bewertung von Personen eingesetzt wird, besteht das Risiko, dass Vorurteile unbemerkt reproduziert werden.

    Zudem bestätigen weitere Forschungen, dass KI nicht nur soziale, sondern auch sprachliche Diskriminierung betreibt. Sprachmodelle reagieren sensibel auf Nuancen der Ausdrucksweise, was sie anfällig für Dialekt- und Akzent-Bias macht. Bei standarddeutschen Eingaben erzielten Modelle wie GPT-4, Gemini und LeoLM durchweg höhere Bewertungs-Scores und qualitativere Antworten als bei dialektalen Formulierungen. Dies kann dazu führen, dass Bewerber, die sich in E-Mails oder Chats mit einem leichten Dialekt ausdrücken, durch KI-gestützte Tools benachteiligt werden – nicht aufgrund ihrer Qualifikation, sondern ihres Sprachmusters.

    Grenzen der Gegenmaßnahmen

    Die Forscherinnen Kruspe und Stillman testeten sogenannte "Debiasing Prompts", um die Voreinstellungen in den Modellen zu reduzieren. Dies sind explizite Anweisungen an die KI, fair und herkunftsneutral zu bewerten. Das Fazit dieser Tests war jedoch ernüchternd. Professorin Kruspe erklärte, dass es zwar eine Lösung sein könnte, in Prompts explizit zu fordern, dass die Herkunft einer Person keinen Einfluss haben soll, dies aber leider nicht verlässlich sei. Die Verzerrung sei so tief in den gelernten Mustern verankert, dass einfache Anweisungen nicht ausreichen, um sie vollständig zu eliminieren.

    Der Weg zu fairer KI

    Die Erkenntnisse unterstreichen die Notwendigkeit, KI-Systeme kritisch zu hinterfragen und die Daten, mit denen sie trainiert werden, sorgfältig zu prüfen. Die Bundesregierung und die EU haben bereits Vorgaben formuliert, die einen fairen und diskriminierungsfreien Einsatz von KI fordern. Um diesen Anforderungen gerecht zu werden, sind jedoch tiefgreifendere Maßnahmen erforderlich als einfache Prompts:

    • Diversifizierung der Trainingsdaten: Eine bewusste Einbeziehung vielfältigerer und repräsentativerer Daten, die gesellschaftliche Vielfalt abbilden und Vorurteile minimieren, ist entscheidend. Dies schließt auch die aktive Einbeziehung von Dialekten in Trainingskorpora ein.
    • Entwicklung robusterer Debiasing-Techniken: Es bedarf weiterer Forschung und Entwicklung von effektiveren Methoden, um Bias in den Modellen selbst zu identifizieren und zu korrigieren.
    • Regelmäßige Überprüfung und Auditierung: KI-Systeme sollten regelmäßig auf Fairness und Diskriminierungsfreiheit überprüft und auditiert werden, insbesondere in sensiblen Anwendungsbereichen.
    • Bewusstsein und Aufklärung: Anwender und Entwickler von KI-Systemen müssen für das Problem des Bias sensibilisiert werden, um einen verantwortungsvollen Umgang mit der Technologie zu gewährleisten.

    Die Debatte um den Bias in KI-Sprachmodellen verdeutlicht, dass Technologie niemals vollkommen neutral ist, sondern die Muster und Vorurteile der Daten reflektiert, mit denen sie gefüttert wird. Für Unternehmen wie Mindverse, die sich als KI-Partner verstehen und umfassende Content-Tools anbieten, ist die Auseinandersetzung mit diesen Herausforderungen von zentraler Bedeutung. Nur durch kontinuierliche Forschung, Entwicklung und einen verantwortungsvollen Umgang können KI-Systeme ihr volles Potenzial entfalten und dabei Fairness und Chancengleichheit gewährleisten.

    Bibliography

    - Heise Online; Stefan Krempl. "Warum KIs ostdeutsche Menschen generell niedriger bewerten." - Nachrichten.idw-online.de. "Wie KI Ostdeutsche diskriminiert." - Mdr De; MDR WISSEN. "Weniger faul und weniger fleißig: Wie KI Vorurteile über Ostdeutsche kreiert." - HM.edu. "Wie KI Ostdeutsche diskriminiert (PM 26/25) - Hochschule München." - OECD.ai. "AI Language Models Reproduce and Amplify Bias Against East..." - Ingenieur.de; Tim Stockhausen. "Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche." - Arxiv.org; Bui, Minh Duc; Holtermann, Carolin; Hofmann, Valentin; Lauscher, Anne; Der Wense, Katharina. "Large Language Models Discriminate Against Speakers of German Dialects." - Tagesschau.de; Martin Hoffmann; Mdr. "Datenanalyse: Wie über Ostdeutschland berichtet wird." - Faz.net; Anna Nowaczyk. "Wenn Chatbots diskriminieren." - Arxiv.org; Kostikova, Aida; Pütz, Ole; Eger, Steffen; Sabelfeld, Olga; Paassen, Benjamin. "LLM Analysis of 150+ years of German Parliamentary Debates on Migration Reveals Shift from Post-War Solidarity to Anti-Solidarity in the Last Decade."

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen