Die Möglichkeiten der künstlichen Intelligenz (KI) in der Bildgenerierung erweitern sich stetig. Von der Erstellung von Profilbildern bis hin zur Illustration von Kinderbüchern – KI-Bildgeneratoren finden zunehmend Anwendung. Doch wie steht es um die künstlerische Qualität und die Grenzen dieser Technologie? Ein Blick auf die Ergebnisse des KI-Chatbots ChatGPT bei der Erstellung "kontroverser" Bilder bietet interessante Einblicke.
Die Definition von "kontrovers" gestaltet sich in der heutigen Zeit komplex. Was für den einen eine Provokation darstellt, mag für den anderen belanglos sein. Diese Subjektivität stellt eine Herausforderung für KI-Systeme dar, die auf klaren Regeln und Richtlinien basieren. Ein Experiment im Subreddit r/ChatGPT, bei dem Nutzer ChatGPT aufforderten, "kontroverse" Bilder zu generieren, verdeutlicht diese Problematik.
Die resultierenden Bilder wirken oft überladen und klischeehaft. Tiefgang und intellektuelle Auseinandersetzung fehlen meist. Stattdessen dominieren oberflächliche Darstellungen von Tech-Dystopien, Kapitalismuskritik und plakativer Symbolik.
Ein eigener Test mit der Aufforderung, ein "maximal kontroverses" Bild zu erstellen, verdeutlicht die Grenzen und Risiken der KI-Bildgenerierung. ChatGPT antwortet zunächst mit einer Klarstellung, dass die Erstellung von Inhalten, die gegen die Richtlinien verstoßen (Gewaltverherrlichung, Hass, Pornografie etc.), nicht möglich ist. Stattdessen bietet die KI die Generierung eines "provokanten, zum Nachdenken anregenden Bildes" an.
Als Beispiel schlug ChatGPT das Thema "Ideologie" vor und präsentierte ein Bild eines Schachbretts. Die Figuren tragen Namen wie "Kommunismus", "Faschismus", "Liberalismus" und "Wokeness". Beide Spieler sind blind und werden von einer Hand im Hintergrund gelenkt, die für "Macht", "Profit" oder "Angst" stehen soll.
Die Darstellung wirft Fragen auf. Die Gleichsetzung von "Wokeness" mit Ideologien wie dem Faschismus ist problematisch und vereinfachend. Darüber hinaus erinnert die "Hand im Hintergrund" an Verschwörungsnarrative und antisemitische Stereotype. Obwohl ChatGPT vermutlich keine solchen Intentionen verfolgt, lässt die Darstellung viel Interpretationsspielraum und kann unbeabsichtigt solche Narrative bedienen.
Die KI-generierten Bilder offenbaren die Schwierigkeiten, komplexe und sensible Themen adäquat darzustellen. Die Gefahr der Reproduktion von Stereotypen und die unbeabsichtigte Unterstützung von problematischen Narrativen sind real. Die Entwicklung von KI-Systemen erfordert daher eine intensive Auseinandersetzung mit ethischen Fragen und eine stetige Verbesserung der Algorithmen, um solche Risiken zu minimieren.
Bibliographie: - t3n.de/news/das-kontroverseste-bild-chatgpt-testet-grenzen-der-bildsprache-1685202/ - t3n.de/tag/chat-gpt/ - newstral.com/de/article/de/1267392378/-das-kontroverseste-bild-wenn-chatgpt-die-grenzen-der-bildsprache-testet - t3n.de/news/ - all-ai.de/news/newsfeed-de - t3n.de/tag/kuenstliche-intelligenz/ - ireds.com/ - t3n.de/sitemap_news.xml - t3n.de/tag/software-entwicklung/