Ein neuer Trend in der Welt der Künstlichen Intelligenz lässt Nutzer:innen personalisierte Action-Figuren von sich selbst erstellen. Angetrieben durch KI-Modelle wie ChatGPT, werden diese digitalen Abbilder samt individueller Verpackung und passender Accessoires in den sozialen Medien geteilt. Was auf den ersten Blick als harmlose Spielerei erscheint, wirft jedoch Fragen zum Datenschutz auf.
Die Erstellung der Figuren ist relativ einfach. Nutzer:innen geben ein Foto ihres Gesichts und einige zusätzliche Informationen in das KI-Modell ein. Die KI generiert daraufhin ein Bild der Action-Figur, inklusive einer Verpackung mit Namen und Accessoires, die zum Lebensstil der Person passen. Einige Nutzer:innen teilen detaillierte Anleitungen zur Erstellung, um anderen die Nachbildung zu ermöglichen. Besonders bemerkenswert ist, dass dieser Service oft auch ohne kostenpflichtigen Account bei den Anbietern verfügbar ist.
Datenschutzexpert:innen äußern Bedenken hinsichtlich der Daten, die bei diesem Prozess an die KI-Unternehmen weitergegeben werden. Neben dem hochgeladenen Foto selbst, das oft Metadaten wie Datum, Uhrzeit, Kameratyp und sogar Standortinformationen enthält, analysiert die KI auch alle weiteren Objekte und Personen im Bild. Sogar Dokumente könnten im Hintergrund erkannt und in die Trainingsdaten der KI aufgenommen werden. Zusätzlich erhält das Unternehmen Informationen über das verwendete Endgerät, Betriebssystem und Browser.
Darüber hinaus sammeln KI-Modelle wie ChatGPT auch Verhaltensdaten, wie die Art der Texteingaben, die angefragten Bilder, die Interaktion mit der Benutzeroberfläche und die Häufigkeit der Nutzung. Durch diese Trends erhalten KI-Unternehmen eine große Menge an Bilddaten von Menschen weltweit, was auch in Regionen mit strengeren Datenschutzbestimmungen wie der EU relevant ist.
Obwohl in der EU die biometrische Nutzung von Bildern die Zustimmung der Nutzer:innen erfordert, fällt die Umwandlung eines Fotos in eine Action-Figur möglicherweise nicht unter diese Definition. Dies könnte es KI-Unternehmen ermöglichen, die Bilder ohne explizite Zustimmung für das Training ihrer Modelle zu verwenden. KI-Anbieter betonen zwar, dass das Datensammeln von Privatpersonen minimiert wird und Nutzer:innen der Verwendung ihrer Daten für Trainingszwecke widersprechen können, jedoch bleibt die Transparenz und Kontrolle über die Datennutzung ein wichtiges Thema.
Nutzer:innen, die Bedenken hinsichtlich ihrer Daten haben, sollten die Datenschutzrichtlinien der KI-Anbieter sorgfältig prüfen und die angebotenen Kontrollmöglichkeiten nutzen. Oftmals gibt es Einstellungen, mit denen die Verwendung von Daten für Trainingszwecke deaktiviert werden kann. Es ist wichtig, sich der potenziellen Risiken bewusst zu sein und informierte Entscheidungen über die Nutzung von KI-Diensten zu treffen.
Der Trend der KI-generierten Action-Figuren verdeutlicht die wachsende Bedeutung des Datenschutzes im Zeitalter der Künstlichen Intelligenz. Während KI-Modelle innovative und kreative Möglichkeiten bieten, ist es entscheidend, dass Nutzer:innen die Kontrolle über ihre Daten behalten und dass Unternehmen verantwortungsvoll mit den gesammelten Informationen umgehen. Ein offener Dialog und klare Regulierungen sind notwendig, um die Vorteile der KI zu nutzen und gleichzeitig die Privatsphäre der Nutzer:innen zu schützen.
Bibliographie: https://t3n.de/news/action-figuren-aus-chatgpt-1685673/ https://t3n.de/tag/chat-gpt/ https://t3n.de/news/erstelle-das-kontroverseste-bild-das-passiert-wenn-chatgpt-provozieren-soll-1685202/ https://t3n.de/ https://t3n.de/news/ https://t3n.de/news/open-ai-welches-gpt-modell-passt-wirklich-zu-deiner-aufgabe-1685930/ https://t3n.de/tag/software-entwicklung/ https://de.linkedin.com/posts/t3n-magazin-yeebase-media-gmbh_chatgpt-user-erstellen-bilder-von-sich-als-activity-7325063089723269123-dX7O https://t3n.de/tag/kuenstliche-intelligenz/