Der Social-Media-Konzern Meta plant, einen Großteil seiner internen Risiko- und Datenschutzprüfungen mithilfe von Künstlicher Intelligenz (KI) zu automatisieren. Internen Dokumenten zufolge, über die unter anderem der US-amerikanische Radiosender NPR berichtete, soll der Anteil der automatisierten Prüfungen auf bis zu 90 Prozent steigen. Dieses Vorhaben wirft Fragen nach der Effektivität und den Auswirkungen auf den Datenschutz auf.
Die KI-gestützte Risikobewertung basiert auf Fragebögen, die von den Produktentwicklungsteams ausgefüllt werden. Die Antworten werden von der KI analysiert, um potenzielle Risiken im Zusammenhang mit Datenschutz, Sicherheit und gesellschaftlichen Auswirkungen zu identifizieren. Dieser Prozess soll die bisherigen manuellen Prüfungen weitgehend ersetzen. Meta betont, dass menschliche Experten weiterhin in komplexen Fällen und bei der Überwachung des Systems involviert sein werden. Die Automatisierung soll vor allem bei der Bewertung von "niedrigen Risiken" zum Einsatz kommen.
Meta erhofft sich durch die Automatisierung eine schnellere und effizientere Risikobewertung. Die KI kann große Datenmengen in kurzer Zeit analysieren und potenzielle Probleme frühzeitig erkennen. Dies ermöglicht es dem Unternehmen, schneller auf neue Herausforderungen zu reagieren und die Entwicklung neuer Produkte zu beschleunigen. Zudem argumentiert Meta, dass die KI-basierte Bewertung objektiver und konsistenter sei als die manuelle Prüfung durch menschliche Experten.
Der zunehmende Einsatz von KI in sensiblen Bereichen wie dem Datenschutz wirft berechtigte Bedenken auf. Kritiker befürchten, dass die KI-Systeme nicht in der Lage sind, die Komplexität menschlicher Interaktionen und die Nuancen von Datenschutzverletzungen vollständig zu erfassen. Es besteht die Sorge, dass potenzielle Risiken übersehen oder unterschätzt werden könnten. Auch die Frage der Transparenz und Nachvollziehbarkeit der KI-Entscheidungen spielt eine wichtige Rolle. Es ist entscheidend, dass die Funktionsweise der KI-Systeme nachvollziehbar ist und die Ergebnisse von menschlichen Experten überprüft werden können.
Meta betont, dass Produkte, die in der Europäischen Union angeboten werden, weiterhin einem separaten Überprüfungsprozess unterliegen. Dieser Prozess berücksichtigt die strengen Datenschutzbestimmungen der DSGVO. Ob und inwieweit die KI-gestützte Risikobewertung auch in diesem Kontext zum Einsatz kommt, ist bisher nicht bekannt.
Die Automatisierung von Risikobewertungen mithilfe von KI ist ein Trend, der sich in vielen Branchen beobachten lässt. Meta ist eines der ersten großen Technologieunternehmen, das diesen Ansatz in einem so umfassenden Maßstab umsetzt. Die Entwicklungen in diesem Bereich werden mit Spannung verfolgt werden, insbesondere im Hinblick auf die Auswirkungen auf den Datenschutz und die Sicherheit der Nutzer.
Bibliographie: - https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-risks - https://techcrunch.com/2025/05/31/meta-plans-to-automate-many-of-its-product-risk-assessments/ - https://the-decoder.com/meta-plans-to-automate-90-of-its-internal-risk-and-data-protection-checks-using-ai/ - https://m.economictimes.com/tech/artificial-intelligence/meta-to-use-ai-for-90-of-privacy-and-safety-checks-report/articleshow/121546421.cms - https://ground.news/article/meta-plans-to-replace-humans-with-ai-to-assess-privacy-and-societal-risks - https://www.linkedin.com/news/story/meta-to-automate-risk-assessment-7377314/ - https://theoutpost.ai/news-story/meta-shifts-to-ai-driven-product-risk-assessments-raising-concerns-16047/ - https://mlq.ai/news/meta-to-automate-up-to-90-of-product-risk-assessments-with-ai-raising-concerns-over-user-safety/ - https://www.engadget.com/social-media/meta-will-reportedly-soon-use-ai-for-most-product-risk-assessments-instead-of-human-reviewers-205416849.html