Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die rasante Entwicklung generativer Künstlicher Intelligenz (KI) eröffnet neue Möglichkeiten in der Content-Erstellung, birgt jedoch gleichzeitig erhebliche Risiken. Insbesondere die Erstellung täuschend echter digitaler Abbilder von Personen, sogenannte Deepfakes, und der unautorisierte Einsatz von Stimmen oder Gesichtern stellen eine wachsende Herausforderung dar. Große Technologieunternehmen wie YouTube und Meta reagieren auf diese Entwicklungen mit der Einführung neuer Tools und Richtlinien, um den Missbrauch von KI einzudämmen und die Integrität ihrer Plattformen zu schützen.
YouTube hat ein neues System namens "Likeness-Detection-Tool" eingeführt, das darauf abzielt, KI-generierte Darstellungen von Gesichtern automatisch zu identifizieren. Dieses Tool soll Content-Ersteller vor dem unautorisierten Gebrauch ihres Abbilds in Deepfakes schützen. Neal Mohan, der CEO von YouTube, betonte in diesem Zusammenhang die Bedeutung, die menschliche Kreativität durch KI zu fördern, gleichzeitig aber auch die Urheber vor Missbrauch zu bewahren.
Das Tool wird zunächst für Teilnehmer des YouTube-Partnerprogramms verfügbar sein. Um das System zu nutzen, müssen Nutzer einen Identitätsnachweis und ein kurzes Video-Selfie einreichen. Anschließend werden hochgeladene Videos gescannt, um potenzielle Verstöße zu erkennen. Es ist jedoch zu beachten, dass das Tool primär auf die Erkennung von Gesichtern ausgelegt ist und die Manipulation von Stimmen mittels KI möglicherweise nicht zuverlässig erfasst.
Auch Meta, der Mutterkonzern von Facebook, Instagram und Threads, hat weitreichende Maßnahmen angekündigt, um dem Missbrauch von KI entgegenzuwirken. Im Gegensatz zu einer reinen Löschung von Inhalten setzt Meta verstärkt auf Transparenz durch Kennzeichnung. Das Unternehmen plant, KI-generierte oder -manipulierte Fotos, Audios und Videos auf seinen Plattformen mit Warnhinweisen zu versehen.
Die Kennzeichnung von KI-Inhalten soll auf verschiedenen Wegen erfolgen:
Die neuen Kennzeichnungen sollen ab Mai eingeführt werden und für alle unterstützten Sprachen gelten. Für besonders irreführende Inhalte behält sich Meta vor, deutlichere Warnhinweise anzubringen. Monika Bickert, Metas Vizepräsidentin für Inhaltsrichtlinien, unterstrich, dass Transparenz und die Bereitstellung zusätzlicher Informationen der bevorzugte Weg seien, mit dieser Art von Inhalten umzugehen. Inhalte, die gegen Richtlinien bezüglich Wählerbeeinflussung, Mobbing, Hassrede oder Gewalt verstoßen, werden weiterhin unabhängig von ihrer Herkunft gelöscht.
Meta testet zudem Gesichtserkennungstechnologien, um Betrugsversuche mit Deepfakes von Prominenten zu unterbinden. Diese Funktion soll betrügerische Anzeigen, die KI-generierte Abbilder bekannter Persönlichkeiten nutzen, mit deren Profilbildern abgleichen, um die Echtheit zu überprüfen. Eine weitere Anwendung ist die Identitätsverifizierung für Nutzer, die ihren Facebook- oder Instagram-Account wiederherstellen möchten, indem sie Selfie-Videos hochladen und diese mit ihren Profilbildern abgleichen lassen.
Es ist jedoch zu beachten, dass diese Gesichtserkennungstechnologie in der Europäischen Union und dem Vereinigten Königreich aufgrund lokaler Datenschutzbestimmungen nicht eingesetzt werden soll.
Die Nutzung von Nutzerdaten für das Training von KI-Modellen, wie sie Meta für seine "Meta AI" plant, stößt auf Kritik von Verbraucherschützern. Die Verbraucherzentrale Nordrhein-Westfalen mahnte Meta ab, da der Konzern sich auf ein "berechtigtes Interesse" berufe, anstatt eine explizite Einwilligung ("Opt-in") der Nutzer einzuholen. Nutzer haben zwar die Möglichkeit, der Verwendung ihrer Daten für das KI-Training zu widersprechen ("Opt-out"), jedoch bleibt unklar, inwieweit bereits verarbeitete Daten wieder entfernt werden können.
Meta zufolge sollen für das KI-Training öffentlich zugängliche Inhalte wie Namen, Benutzernamen, Profilbilder, Aktivitäten in öffentlichen Gruppen und Kommentare verwendet werden. Persönliche Chats auf WhatsApp sollen grundsätzlich Ende-zu-Ende-verschlüsselt bleiben. Interaktionen mit "Meta AI" in Chats sind jedoch nicht Ende-zu-Ende-verschlüsselt und können für das Training der KI genutzt werden. Nutzern wird daher geraten, keine sensiblen Daten in diesen Interaktionen preiszugeben.
Die Maßnahmen von YouTube und Meta sind auch im Kontext des europäischen "AI Act" zu sehen, der Transparenzpflichten für Künstliche Intelligenz vorsieht. Experten wie Professor Nikolaus Forgó von der Universität Wien weisen darauf hin, dass die proaktiven Schritte der US-Unternehmen die Bestrebungen der EU vorwegnehmen könnten, rechtliche Rahmenbedingungen für KI zu schaffen. Der AI Act verbietet unter anderem KI-Systeme, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet erstellen oder erweitern. Verstöße können mit hohen Geldstrafen geahndet werden.
Die Durchsetzung dieser Regelungen, insbesondere bei Anbietern außerhalb der EU, stellt jedoch eine Herausforderung dar. Deutsche Datenschutzbehörden, wie die in Baden-Württemberg, haben Verfahren gegen Gesichter-Suchmaschinen wie PimEyes eingeleitet, sehen sich aber mit Verzögerungen konfrontiert, da die nationale KI-Aufsicht in Deutschland noch nicht vollständig etabliert ist. Die Bundesnetzagentur (BNetzA) bereitet sich auf diese Rolle vor, doch die Koordination mit anderen EU-Behörden und dem neuen AI Office der EU-Kommission bleibt eine komplexe Aufgabe.
Die Initiativen von YouTube und Meta zur Bekämpfung von KI-Missbrauch und zur Kennzeichnung von KI-generierten Inhalten sind wichtige Schritte, um den Herausforderungen der generativen KI zu begegnen. Sie zeigen ein wachsendes Bewusstsein für die Notwendigkeit von Transparenz und Schutz der Nutzer. Gleichzeitig verdeutlichen die Diskussionen um Metas Datenverarbeitungspraktiken und die Schwierigkeiten bei der Durchsetzung regulatorischer Maßnahmen die Komplexität des Themas. Die weitere Entwicklung der KI-Technologien und der dazugehörigen rechtlichen und ethischen Rahmenbedingungen wird entscheidend sein, um ein Gleichgewicht zwischen Innovation und Schutz der individuellen Rechte zu finden.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen