Der Social-Media-Gigant Meta plant, Künstliche Intelligenz (KI) verstärkt in seinen Prozessen zur Risikobewertung einzusetzen. Dies betrifft insbesondere die Überprüfung neuer Funktionen und Updates für die Plattformen Facebook, Instagram und WhatsApp auf potenzielle negative Auswirkungen. Bisher wurden diese Prüfungen hauptsächlich von menschlichen Mitarbeitern durchgeführt. Der Wechsel zu KI-basierten Systemen soll laut internen Dokumenten, die News Public Radio (NPR) einsehen konnte, die Effizienz steigern und den Entwicklungsprozess beschleunigen.
Konkret soll die KI in Zukunft in etwa 90 Prozent der Fälle entscheiden, ob eine neue Funktion Risiken birgt. Beispiele für solche Risiken sind Datenschutzverletzungen, die Gefährdung von Minderjährigen oder die Verbreitung von Fehlinformationen. Nur noch "neuartige und komplexe Themen" sollen weiterhin von menschlichen Experten beurteilt werden. Dies bedeutet eine drastische Reduzierung der Mitarbeiter, die aktuell mit diesen Prüfungen betraut sind.
Meta argumentiert, dass die KI-Systeme nur Entscheidungen mit geringem Risiko treffen werden. Kritiker, darunter ehemalige und aktuelle Mitarbeiter von Meta, äußern jedoch Bedenken. Sie bezweifeln, dass die KI die komplexen Auswirkungen neuer Funktionen in der realen Welt ausreichend abschätzen kann. Besonders besorgniserregend ist für sie, dass auch sensible Bereiche wie Jugendschutz und der Umgang mit Gewalt und Falschinformationen an die KI delegiert werden sollen.
Die verstärkte Nutzung von KI zur Risikobewertung wirft auch im Hinblick auf die europäischen Datenschutzbestimmungen Fragen auf. In der EU gelten strengere Regeln zum Schutz der Nutzer als in den USA, dem Heimatmarkt von Meta. Die EU-Kommission hat bereits ein Verfahren gegen Meta eingeleitet, in dem unter anderem geprüft wird, ob das Unternehmen EU-Regeln im Umgang mit politischer Werbung und Nutzerbeschwerden einhält und ob es unabhängigen Forschern Zugang zu relevanten Daten gewährt.
Der zunehmende Einsatz von KI zur Risikobewertung bei Meta wirft somit grundlegende Fragen auf: Kann KI die komplexen gesellschaftlichen Auswirkungen neuer Technologien ausreichend beurteilen? Wie kann sichergestellt werden, dass die KI-Systeme die europäischen Datenschutzbestimmungen einhalten? Und welche Rolle spielen menschliche Experten in Zukunft bei der Risikobewertung? Die Entwicklungen bei Meta werden zeigen, wie diese Fragen in der Praxis beantwortet werden und welche Auswirkungen der verstärkte Einsatz von KI auf die Sicherheit und den Datenschutz der Nutzer hat.
Mindverse, als deutscher Anbieter von KI-Lösungen, beobachtet diese Entwicklungen mit großem Interesse. Die Expertise des Unternehmens in den Bereichen Chatbots, Voicebots, KI-Suchmaschinen und Wissensmanagement-Systeme ermöglicht es, die Potenziale und Herausforderungen von KI im Kontext der Risikobewertung umfassend zu analysieren. Mindverse entwickelt maßgeschneiderte KI-Lösungen für Unternehmen und bietet damit die Möglichkeit, die Vorteile von KI sicher und effektiv zu nutzen.
Bibliographie: t3n.de. "Meta: Künftig soll vor allem KI die Risikobewertung übernehmen." t3n.de. Künstliche Intelligenz. X.com/t3n. t3n.de. "Nach WhatsApp: Nächste iPad-App von Meta." Facebook.com/Meta. t3n.de. golem.de. "Social Media: Meta will Risikobewertungen mit KI automatisieren." Threads.com/@t3n_magazin. LinkedIn.com/company/t3n-magazin-yeebase-media-gmbh/.