Der AI Act: Wie die EU Künstliche Intelligenz reguliert
Einführung des AI Act
Der AI Act (Artificial Intelligence Act) der Europäischen Union ist das erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz (KI) weltweit. Am 1. August 2024 trat der AI Act in Kraft, nachdem die EU-Mitgliedstaaten und das EU-Parlament mit großer Mehrheit zugestimmt hatten. Ziel des Gesetzes ist es, den Einsatz von KI innerhalb der EU sicherer und transparenter zu gestalten sowie Grundrechte, Demokratie und Rechtsstaatlichkeit zu schützen.
Was ist Künstliche Intelligenz?
Künstliche Intelligenz bezeichnet Anwendungen, die auf maschinellem Lernen basieren. Dabei analysiert eine Software große Datenmengen, um Muster zu erkennen und daraus Schlussfolgerungen zu ziehen. KI-Systeme können menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität nachahmen. Sie werden bereits in vielen Bereichen eingesetzt, zum Beispiel bei der Auswertung von medizinischen Bilddaten, in selbstfahrenden Autos und in Chatbots.
Warum der AI Act notwendig ist
Mit dem AI Act soll gewährleistet werden, dass KI-Systeme in der EU transparenter, nachvollziehbarer und nicht diskriminierend sind. Ein weiterer wichtiger Aspekt ist die menschliche Überwachung der KI-Systeme, um Missbrauch und Fehlentscheidungen zu verhindern. Das Gesetz zielt darauf ab, die Nutzung von KI sicherer zu machen und den Verbraucherschutz zu verbessern.
Risikoklassifizierung von KI-Systemen
Der AI Act sieht die Einteilung von KI-Systemen in verschiedene Risikogruppen vor:
- Systeme mit inakzeptablem Risiko: Diese sind komplett verboten. Dazu gehört beispielsweise das „Social Scoring“, wie es in China angewendet wird.
- Hochrisiko-KI-Systeme: Diese Systeme unterliegen strengen Anforderungen und müssen behördlich genehmigt werden. Beispiele sind KI-Systeme in der Personalverwaltung oder in der Justiz.
- Systeme mit spezifischem Risiko: Diese müssen klar gekennzeichnet sein, zum Beispiel wenn sie künstliche Inhalte erstellen oder manipulieren.
- Systeme ohne Risiko: Diese unterliegen keinen besonderen Auflagen.
Strenge Anforderungen für Hochrisiko-KI
Für Hochrisiko-KI-Systeme gelten umfassende Dokumentations- und Qualitätsanforderungen. Diese Systeme müssen regelmäßig überprüft werden, und es müssen Maßnahmen zur Risikoeindämmung implementiert werden. Betreiber solcher Systeme müssen zudem eine Grundrechte-Folgenabschätzung durchführen.
Was sich für Verbraucher ändert
Verbraucher sollen durch den AI Act besser vor riskanten KI-Anwendungen geschützt werden. So wird die Gesichtserkennung im öffentlichen Raum grundsätzlich verboten, ebenso wie die Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen. KI-Anwendungen müssen zudem transparenter gekennzeichnet werden, damit Verbraucher erkennen können, wann KI eingesetzt wird.
Strafen bei Verstößen
Bei Verstößen gegen den AI Act drohen empfindliche Strafen:
- Bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes für den Einsatz verbotener Technologien.
- Bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes bei anderen Verstößen gegen das Gesetz.
Kritik und Herausforderungen
Es gibt unterschiedliche Meinungen darüber, ob der AI Act die Entwicklung von KI fördert oder behindert. Einige Experten warnen, dass die strengen Vorgaben Innovationen ausbremsen könnten. Andere sehen das Gesetz als notwendigen Schritt, um die Risiken der KI-Nutzung zu minimieren. Kritisiert wird auch, dass viele Vorgaben angesichts der schnellen technischen Entwicklung bald veraltet sein könnten. Die EU-Kommission hat angekündigt, die Liste der hochriskanten Anwendungen jährlich zu überprüfen und gegebenenfalls anzupassen.
Schrittweise Umsetzung
Der AI Act wird schrittweise umgesetzt. Einige Regelungen, wie das Verbot von inakzeptablen Risiken, müssen bereits innerhalb von sechs Monaten umgesetzt werden. Bis April 2025 soll ein Verhaltenskodex für Anbieter von KI-Modellen entwickelt werden. Die vollständige Umsetzung aller Bestimmungen muss innerhalb von zwei Jahren erfolgen, während Hochrisiko-Systeme bis zu drei Jahre Zeit haben.
Fazit
Der AI Act markiert einen wichtigen Schritt in der Regulierung von Künstlicher Intelligenz in der Europäischen Union. Das Gesetz soll sicherstellen, dass KI-Systeme sicher, transparent und menschenzentriert sind. Obwohl es einige Herausforderungen und Kritikpunkte gibt, bietet der AI Act einen umfassenden Rahmen für den verantwortungsvollen Einsatz von KI.
Bibliography
https://www.faz.net/aktuell/wirtschaft/mehr-wirtschaft/ai-act-der-eu-was-aendert-sich-durch-das-neue-ki-gesetz-19892632.html
https://industriemagazin.at/news/kuenstliche-intelligenz-in-der-eu-alles-was-sie-ueber-das-neue-gesetz-wissen-muessen/
https://www.absatzwirtschaft.de/neues-ki-gesetz-der-eu-tritt-in-kraft-was-aendert-sich-260157/
https://www.tagesschau.de/wirtschaft/digitales/ai-act-kuenstliche-intelligenz-regulierung-100.html
https://frontwing.law/unkategorisiert/generative-ai-vs-urheberrecht-was-aendert-sich-durch-den-ai-act/
https://www.ihk-muenchen.de/de/Service/Recht-und-Steuern/Datenschutz/ki/
https://www.br.de/nachrichten/netzwelt/ki-gesetz-der-eu-nimmt-letzte-huerde-was-aendert-sich-nun,UDOsddt
https://www.industry-of-things.de/eu-ki-gesetz-bedeutung-strafen-2024-a-0be5919c630e8085a9e7f2fb8a4c71b9/
https://www.cio.de/a/das-muessen-cios-beachten,3738381