Die Europäische Union hat am 21. Mai 2024 den AI Act beschlossen, das weltweit erste umfassende Regelwerk für den Einsatz von Künstlicher Intelligenz. Der Rat der 27 Mitgliedstaaten stimmte dem Gesetz zu, um einheitliche Standards für die Technologie in der EU zu schaffen.
Wachsende Bedeutung von Künstlicher Intelligenz
Künstliche Intelligenz findet zunehmend Anwendung im Arbeitsalltag und im privaten Umfeld. Angesichts dieser Verbreitung betont die EU die Notwendigkeit klarer Regeln, um das Vertrauen der Nutzer zu stärken und die Akzeptanz zu fördern.
Risikobasierter Ansatz
Der AI Act verfolgt einen risikobasierten Ansatz: Je höher das eingeschätzte Risiko einer Anwendung, desto strengere Vorgaben gelten. So sollen potenzielle Gefahren frühzeitig erkannt und adressiert werden.
Verbot von missbräuchlichen Anwendungen
Der Gesetzestext untersagt KI‑Systeme, die das Verhalten von Personen gezielt manipulieren können, sowie KI‑basiertes „Social Scoring“, bei dem Menschen nach gewünschtem Verhalten bewertet werden.
Transparenzpflicht für KI‑Inhalte
Eine zentrale Vorgabe ist die Kennzeichnungspflicht für künstlich erzeugte oder bearbeitete Inhalte wie Audios, Bilder und Videos. Diese müssen eindeutig als KI‑generiert gekennzeichnet werden, um Missverständnisse zu vermeiden.
Anforderungen für Hochrisiko‑Systeme
KI‑Anwendungen in kritischen Bereichen – etwa kritische Infrastruktur, Beschäftigung, Gesundheits‑ oder Bankenwesen – müssen strenge Auflagen erfüllen, um auf dem EU‑Markt zugelassen zu werden. Anwendungen mit geringem Risiko unterliegen lediglich eingeschränkten Transparenz‑ und Informationspflichten.
Umsetzung in Deutschland
Das Bundeskabinett hat am 11. Februar 2024 den Gesetzentwurf zur Durchführung der europäischen KI‑Verordnung in Deutschland beschlossen, wodurch die nationalen Rahmenbedingungen an den AI Act angepasst werden.
Dieser Bericht basiert auf Informationen von Bundesregierung, lizenziert unter Amtliches Werk gem. § 5 UrhG (Deutschland).
