Am 1. August 2024 trat der lange diskutierte AI Act offiziell in Kraft und markiert den Beginn einer neuen Ära der KI-Regulierung in Deutschland und Europa. Bereits nach einem halben Jahr müssen betroffene Unternehmen erste Regeln einhalten, was zahlreiche Herausforderungen und Chancen mit sich bringt.
Gemischte Reaktionen in der Branche
Die Reaktionen auf die neuen Regelungen sind geteilt. Während einige die Einführung von Leitplanken für den korrekten Einsatz von KI-Tools begrüßen, warnen andere vor einem möglichen Bürokratiemonster, das Innovationen ausbremsen könnte.
Ralf Wintergerst, Präsident des Branchenverbands Bitkom, hebt die Dringlichkeit klarer Regelungen hervor: „Die Umsetzung des AI Acts darf nicht zur Hängepartie für Unternehmen werden. Unklare Zuständigkeiten und langwierige bürokratische Prozesse könnten die europäische KI-Innovation erheblich behindern. Es ist entscheidend, dass die Umsetzung bürokratiearm und praxisnah erfolgt.“
Bitkom fordert klaren Fahrplan
Bitkom fordert die Bundesregierung auf, zügig ein nationales Durchführungsgesetz vorzulegen. Wintergerst betont die Notwendigkeit einer zentralen nationalen Behörde sowie klar geregelter Zuständigkeiten unter den Marktüberwachungs- und Konformitätsbewertungsstellen. Er fordert außerdem, dass KMUs und Startups durch praxisnahe Hilfestellungen unterstützt werden.
TÜV-Verband sieht Chancen für „KI Made in Europe“
Joachim Bühler, Geschäftsführer des TÜV-Verbands, betrachtet den AI Act als Gelegenheit, einen weltweiten Vorreiter für sichere „KI Made in Europe“ zu schaffen. Bühler betont die Wichtigkeit einer effizienten und unbürokratischen Umsetzung, die unabhängige Stellen in die Pflicht nimmt, nicht nur verbindliche Anforderungen zu erfüllen, sondern auch den freiwilligen KI-Prüfmarkt zu stärken.
Gesellschaft für Informatik betont moralische Dimension
Die Gesellschaft für Informatik e.V. (GI) begrüßt grundsätzlich die Regulierung im Bereich der künstlichen Intelligenz, sieht aber die Notwendigkeit, die moralischen und sozialen Herausforderungen, die durch KI-Systeme entstehen, in den Fokus zu rücken. Christine Regitz, Präsidentin der GI, betont, dass Informatik eine gesellschaftliche Verantwortung trägt und die Technikfolgenabschätzung zentral ist.
Der weitere Fahrplan des AI Acts
Die Umsetzung des AI Acts erfolgt in gestaffelten Übergangsfristen. Ab Anfang 2025 sollen manipulative oder täuschende Techniken verboten werden. Ab August 2025 treten Verhaltenskodizes für bestimmte Allzweck-KI-Modelle in Kraft, gefolgt von verpflichtenden Prüfungen für Hochrisiko-KI in Bereichen wie Kreditvergabe und Strafverfolgung ab August 2026. Ab 2027 werden Anforderungen an drittprüfpflichtige Produkte in Kraft treten.
Das Regelwerk teilt KI-Anwendungen in verschiedene Risikoklassen ein: Systeme mit hohem Risiko unterliegen strengen Auflagen, während Systeme mit begrenztem oder minimalem Risiko weniger reguliert werden.Verstöße können mit Bußgeldern von bis zu 15 Millionen Euro oder bis zu drei Prozent des weltweiten Jahresumsatzes geahndet werden.