Ein neuer Trend in der Welt der Künstlichen Intelligenz lässt Nutzer:innen von ChatGPT Bilder von sich selbst als Actionfiguren erstellen. Was auf den ersten Blick wie eine harmlose Spielerei erscheint, wirft bei Datenschutzexperten Fragen und Bedenken auf.
In den sozialen Medien, insbesondere auf Plattformen wie X oder Reddit, kursieren immer häufiger Bilder von personalisierten Actionfiguren, die mithilfe von ChatGPT generiert wurden. Neben der Figur selbst kreiert die KI auch eine passende Verpackung mit Namen und individuellem Zubehör, das zum Leben der jeweiligen Person passen soll. Anleitungen zur Erstellung der eigenen ChatGPT-Actionfigur werden von Nutzer:innen untereinander geteilt und tragen zur Verbreitung des Trends bei.
Die Erstellung der digitalen Avatare ist auch für Nutzer:innen der kostenlosen Version von ChatGPT möglich. Benötigt wird lediglich ein Foto des Gesichts und einige zusätzliche Informationen. Genau hier sehen Datenschutzexperten die potenziellen Risiken.
Expert:innen warnen vor der unbedachten Weitergabe von Metadaten an OpenAI. So werden mit dem hochgeladenen Foto unter anderem Exif-Daten übertragen, die Informationen wie Datum, Uhrzeit, Kameratyp und sogar Standortkoordinaten enthalten können. Darüber hinaus analysiert ChatGPT nicht nur das Gesicht, sondern auch alle weiteren Objekte und Personen im Bild. Selbst Dokumente können gescannt und potenziell in die Trainingsdaten der KI aufgenommen werden.
Zusätzlich erhält OpenAI Informationen über das verwendete Endgerät, inklusive Betriebssystem und Browser. Auch das Verhalten der Nutzer:innen während der Interaktion mit ChatGPT, wie die eingegebenen Texte, die angefragten Bilder und die Häufigkeit der Aktionen, werden erfasst.
Durch solche Trends generiert OpenAI eine große Menge an Bilddaten von Menschen weltweit. Selbst in Regionen mit strengeren Datenschutzbestimmungen, wie der EU, wirft die Nutzung dieser Daten Fragen auf. Während die biometrische Nutzung von Bildern in der EU der Zustimmung der Nutzer:innen bedarf, fällt die Umwandlung eines Fotos in eine Actionfigur nach derzeitiger Auslegung nicht unter diese Definition. Daher kann OpenAI die Bilder ohne explizite Zustimmung für das Training seiner KI verwenden.
OpenAI betont, die Datensammlung von Privatpersonen auf ein Minimum zu beschränken. Nutzer:innen haben die Möglichkeit, der Verwendung ihrer Daten für das KI-Training zu widersprechen. Dies kann in den Einstellungen unter "Datenkontrollen" und "Das Modell für alle verbessern" deaktiviert werden.
Der Trend zur ChatGPT-Actionfigur verdeutlicht die Faszination für personalisierte, KI-generierte Inhalte. Gleichzeitig unterstreicht er die Bedeutung eines bewussten Umgangs mit persönlichen Daten im digitalen Raum. Nutzer:innen sollten sich der potenziellen Risiken bewusst sein und die von OpenAI angebotenen Kontrollmöglichkeiten nutzen, um ihre Daten zu schützen.
Bibliographie: - https://www.finanznachrichten.de/nachrichten-2025-05/65299866-chatgpt-user-erstellen-bilder-von-sich-als-action-figur-warum-experten-vor-diesem-trend-warnen-397.htm - https://www.facebook.com/t3nMagazin/posts/durch-einen-neuen-trend-erstellen-chatgpt-userinnen-bilder-von-sich-als-action-f/1116462973852187/ - https://www.threads.com/@t3n_magazin/post/DJQ5PCcNqfY/durch-einen-neuen-trend-erstellen-chatgpt-userinnen-bilder-von-sich-als-action-f - https://t3n.de/news/erstelle-das-kontroverseste-bild-das-passiert-wenn-chatgpt-provozieren-soll-1685202/ - https://t3n.de/tag/chat-gpt/ - https://www.facebook.com/t3nMagazin/posts/jeden-montagmorgen-berichten-wir-%C3%BCber-f%C3%BCnf-dinge-die-zum-wochenstart-wichtig-sin/1116410553857429/ - https://t3n.de/news/umfrage-ki-ergebnisse-blindes-vertrauen-1685403/ - https://newstral.com/de/article/de/1266308499/chatgpt-user-erstellen-bilder-von-sich-als-action-figur-warum-experten-vor-diesem-trend-warnen