Der Einsatz von Künstlicher Intelligenz (KI) im Alltag nimmt stetig zu. Anwendungen wie ChatGPT von OpenAI bieten vielfältige Möglichkeiten, von der Texterstellung bis hin zur Recherche. Doch die Technologie ist nicht ohne Tücken. Ein aktueller Fall aus Norwegen zeigt, dass KI-generierte Inhalte nicht immer der Realität entsprechen und schwerwiegende Folgen für Betroffene haben können.
Der norwegische Bürger Arve Hjalmar Holmen sieht sich mit einer von ChatGPT erfundenen Anschuldigung konfrontiert. Der Chatbot bezeichnete ihn fälschlicherweise als verurteilten Mörder seiner Kinder. Die Datenschutzorganisation NOYB unterstützt Holmen und hat Beschwerde bei der norwegischen Datenschutzbehörde eingereicht. Der Vorwurf: Verstoß gegen die Datenschutzgrundverordnung (DSGVO). Die DSGVO schreibt vor, dass personenbezogene Daten korrekt sein müssen und Betroffene ein Recht auf Berichtigung haben. OpenAI bietet zwar die Möglichkeit, bestimmte Anfragen zu blockieren, jedoch keine Korrektur fehlerhafter Angaben über Personen.
Ein Verstoß gegen die DSGVO kann hohe Strafen nach sich ziehen. Bis zu vier Prozent des weltweiten Jahresumsatzes können fällig werden. Schätzungen zufolge lag der Umsatz von OpenAI im Jahr 2025 bei etwa 11,6 Milliarden Dollar. Im Falle eines bestätigten Verstoßes könnte die Strafe somit rund 464 Millionen Dollar betragen.
Besonders beunruhigend ist die Tatsache, dass die Herkunft der falschen Informationen unklar ist. ChatGPT generierte zu Arve Hjalmar Holmen eine erfundene Geschichte über einen Doppelmord und eine Haftstrafe. Gleichzeitig enthielt die Antwort korrekte Details wie die Anzahl und das Geschlecht seiner Kinder sowie seine Heimatstadt. Nachforschungen von NOYB und Techcrunch ergaben keine Hinweise auf entsprechende Zeitungsartikel. Wiederholte Tests mit ChatGPT lieferten unterschiedliche Ergebnisse, von vagen Aussagen bis hin zur Bezeichnung Holmens als norwegischer Musiker.
Der Fall Holmen ist nicht der erste, der OpenAI in Konflikt mit europäischen Datenschutzbehörden bringt. Bereits 2023 sperrte Italien ChatGPT vorübergehend, um mehr Transparenz über die Datenverarbeitung zu erzwingen. Später verhängte die italienische Datenschutzbehörde eine Geldstrafe von 15 Millionen Euro. Weitere Beschwerden, unter anderem aus Polen und Österreich, sind noch offen. Dies deutet darauf hin, dass viele Datenschutzbehörden mit Bedacht vorgehen, um langfristige Lösungen für den Umgang mit KI-Technologien zu finden.
Der Fall Arve Hjalmar Holmen verdeutlicht die Herausforderungen, die mit dem Einsatz von KI-Systemen wie ChatGPT einhergehen. Die Frage nach der Genauigkeit und der Herkunft der generierten Informationen ist zentral. Es bleibt abzuwarten, wie die norwegische Datenschutzbehörde im Fall Holmen entscheiden wird und welche Konsequenzen sich daraus für die Entwicklung und den Einsatz von KI-Technologien ergeben.
Mindverse, als deutscher Anbieter von KI-Lösungen, beobachtet die Entwicklungen im Bereich Datenschutz und KI genau. Das Unternehmen setzt sich für einen verantwortungsvollen Umgang mit KI-Technologien ein und entwickelt maßgeschneiderte Lösungen, die den Datenschutzbestimmungen entsprechen. Dazu gehören Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme.
Bibliographie: - https://t3n.de/news/chatgpt-erfindet-verbrechen-noyb-reicht-datenschutzbeschwerde-gegen-openai-ein-1679105/ - https://x.com/t3n/status/1902725596993429929 - https://www.threads.net/@t3n_magazin/post/DHbKbEUqtwv - https://t3n.de/ - https://www.facebook.com/100064654845221/posts/1078533017645183/ - https://x.com/t3n?lang=de - https://www.euractiv.de/innovation/non-sponsored/news/editorial/datenschutzgruppe-noyb-reicht-beschwerde-gegen-openai-ein/932046/ - https://www.threads.net/@askinkenai/post/DHbXKzpxeKk