Ein rechtlicher Rahmen für KI: Was ist der AI Act der EU und was ändert sich 2025?
30.01.2025 / Philipp Rüßmann
Künstliche Intelligenz (KI) ist eines der heißen Themen der letzten Jahre. Zuletzt führten zum Beispiel die Durchbrüche bei sogenannten Large Language Models (LLMs), zu denen ChatGPT von OpenAI, Claude von Anthropic, Gemini von Google oder die Open-Source-LLaMA-Modelle von Meta gehören, zu einem regelrechten KI-Boom. Das Aufkommen von KI-Anwendungen bringt allerdings nicht nur immense Entwicklungsmöglichkeiten mit sich, sondern birgt auch Gefahren. Hier soll der AI Act der Europäischen Union[1] Abhilfe schaffen.
Seit August 2024 gibt es mit dem EU AI Act den weltweit ersten umfassenden Rechtsrahmen für das spannende Themenfeld der KI. Die Grundidee des AI Act ist ein risikobasierter Ansatz; je größer das potenzielle Risiko einer KI-Anwendung, desto strenger die Vorgaben. Ein nicht zu tolerierendes Risiko besteht z. B. bei KI-Systemen, die das Ziel haben, Personen gezielt zu beeinflussen und sie so zu manipulieren. Zudem ist sogenanntes Social Scoring, d. h. die Anwendung eines Punktesystems für erwünschtes Sozialverhalten oder auch die Vorhersage, ob eine Person straffällig wird – Tom Cruise und Steven Spielberg lassen grüßen [1] – zukünftig verboten. Weitere hochriskante KI-Systeme, die der AI Act identifiziert, gehören in den Bereich der kritischen Infrastruktur oder des Gesundheits- und Bankwesens. Generell gibt es nun auch eine Transparenzpflicht, die es erfordert, KI-generierte Inhalte eindeutig als solche zu kennzeichnen.

Abbildung 1: Der EU AI Act Compliance Checker; Quelle: https://artificialintelligenceact.eu/de/
Für Anwender soll das digitale Leben also transparenter und sicherer werden. Für Entwickler von KI-Systemen in der EU gelten ab dem zweiten Februar 2025 neue Spielregeln. So müssen Unternehmen, die KI-Systeme entwickeln und einsetzen, sicherstellen, dass ihre Mitarbeiter über „ausreichende KI-Kompetenz“ verfügen [2]. Zudem sind die oben erwähnten nicht tolerierbaren Anwendungen (Social Scoring etc.) ab diesem Zeitpunkt verboten [3]. Im Sommer 2025 kommen weitere Regeln bezüglich GPAI (general purpose AI, z. B. LLMs), Governance oder Vertraulichkeit verarbeiteter Daten hinzu [4]. Dann wird dieser Papiertiger auch nicht mehr zahnlos sein – Geldbußen von bis zu 35 Millionen EUR (bzw. 7 % des Jahresumsatzes) drohen bei Nichteinhaltung.
Für Entwickler gibt es online einen Compliance Checker, mit dem man innerhalb weniger Minuten prüfen kann, ob ein bestimmter Anwendungsfall unter den EU AI Act fällt oder nicht [5]. Für Anwendungen mit geringem Risiko gelten nur Transparenz- und Informationspflichten [6].
Ob die teilweise schwammige Formulierung des AI Act ausreichen wird, um seine volle Kraft zu entfalten, sei mal dahingestellt. Der Ansatz für mehr Verantwortungsbewusstsein ist sicher erstrebenswert. Es bleibt spannend zu sehen, wie sich der AI Act auf die technologische Entwicklung bezüglich KI-Anwendungen auswirken wird. Interessanterweise gibt es auch eine KI, mit der man (zumindest auf Englisch) chatten kann, um sich über den AI Act zu informieren [7].
Quellen und Verweise
[1] Science-Fiction-Thriller Minority Report (2002)
[2] https://artificialintelligenceact.eu/de/article/4/
[3] https://artificialintelligenceact.eu/de/article/5/
[4] https://artificialintelligenceact.eu/de/implementation-timeline/
[5] https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
[6] https://www.bundesregierung.de/breg-de/aktuelles/ai-act-2285944