EU AI Act: Chance oder Risiko?

Wir sprachen mit Dr. Andreas Liebl vom appliedAI Institute, über den geplanten EU AI Act. Stellt dieser das nächste bürokratische Monster dar?
Die Befürchtungen der Branche sind unübersehbar.
Herr Liebl, könnten Sie uns einmal den EU AI Act aus Ihrer Sicht vorstellen? Was ist geplant und bis wann?
Der EU AI Act stellt die weltweit erste und bisher einzige horizontale Regulierung von KI dar. Das bedeutet, dass die Regelung nicht branchenspezifisch, sondern über alle Branchen hinweg einheitlich gilt. Diese basiert auf einer Risikobewertung, d.h. je höher das Risiko der eingesetzten KI ist, desto mehr Pflichten müssen von den Entwicklern beachtet werden. Das Gesetz ordnet die KI-Anwendungsfälle in drei Risikogruppen ein: Anwendungen und Systeme, die ein inakzeptables Risiko darstellen (1); Anwendungen, die einem hohen Risiko unterliegen und mit besonders rechtlichen Anforderungen bedingt sind (2) und zuletzt Anwendungen, die weitgehend unreguliert bleiben (3).
Der Plan sieht vor, dass im Frühjahr 2023 eine gemeinsame Richtlinie vom Parlament verabschiedet wird und daraufhin ein Trialog zwischen Kommission, Parlament und Rat stattfindet. Bis Ende 2023 könnte es dann eine Regulierung geben, die für jegliche eingesetzte KI in Europa gilt, also auch für ansässige außereuropäische Unternehmen.
Was sind in diesem Zusammenhang die Befürchtungen der Branche?
Insgesamt ist das höchste Risiko, dass wir einen systematischen Nachteil für europäische Unternehmen schaffen, da der primäre Markt zusätzlichen Anforderungen mit hohem Aufwand unterliegt, während dies in anderen Regionen der Welt nicht der Fall ist. Auch befürchten wir, dass zu viele Fälle in der höchsten Risikokategorie eingestuft werden würden. Die EU plant mit einem Anteil von 5-15 %, wir gehen allerdings von 25-45 % Fällen aus. Außerdem zeichnet sich eine entstehende Unsicherheit und unklare rechtliche Situation ab. Laut der von uns durchgeführten AI Act Impact Survey befürchten 50 % der KI-Startups, dass der AI Act die Innovation in Europa verlangsamen wird. 16% der Befragten erwägen sogar die KI-Entwicklung einzustellen oder ihren Standort außerhalb der EU zu verlagern.
Da eine horizontale Regulierung jegliche Branche umfasst, gibt es in Einzelfällen unklare Bereiche, die individuell betrachtet werden müssen. Dies ist beispielsweise der Fall, wenn sich die europaweite KI-Regulierung mit der branchenspezifischen Regulierung überschneidet.
Des Weiteren sind die Anforderungen in der höchsten Risikokategorie für die meisten Unternehmen kaum zu erfüllen, da keine Standards, Werkzeuge oder Ähnliches existieren. Zum Beispiel sind Anforderungen zu Data Governance oder Erklärbarkeit aktuell nicht geregelt. Beschrieben wird beispielsweise nur dass die Daten möglichst fehlerfrei und vollständig sein müssen, aber es ist nicht klar, wie dies überhaupt sichergestellt sein kann.
Wie weit voraus sind denn die amerikanischen und die chinesischen Modelle überhaupt?
Hier muss man zwischen den großen Modellen und dem industriellen Kontext unterscheiden. Die großen Modelle sind uns im internationalen Vergleich voraus, wobei wir im industriellen Kontext gut mithalten. Allerdings erhöht der AI Act die Hürde für den breiten Einsatz von KI in Europa. Diese Barriere existiert außerhalb Europas nicht, sodass wir dort eine schnellere und stärkere Verbreitung von KI auf dem Markt sehen werden. Wir müssen im globalen Rennen Schritt halten. KI wird bereits als strategisches Kapital von anderen Nationen eingesetzt. Es ist wichtig, die digitale Souveränität zu fördern, indem wir relevant und wettbewerbsfähig bleiben.
Liegt nicht vielleicht in einer Art “Europäischer KI-Philosophie” mit größtmöglicher Transparenz auch eine Chance im Sinne der Akzeptanz von KI-Tools und deren breiten Einsatz?
In einer „Europäischen KI-Philosophie“ liegt in der Tat eine große Chance. Dies kann aber nur gelingen, wenn rechtliche Sicherheit darüber herrscht, welche Maßnahmen der AI Act genau impliziert. Dafür müssen die Werkzeuge (beispielsweise Tools zur Erklärbarkeit oder Benchmarks zur Genauigkeit) und Standards zur Erfüllung vorliegen und – die wahrscheinlich wichtigste Voraussetzung – die Unternehmen müssen überhaupt die Mitarbeitenden haben, die in der Lage sind, anforderungsgerechte Anwendungen zu bauen. Solange diese Punkte nicht erfüllt sind, ist der AI Act ein riesiger Nachteil für europäische Unternehmen. Erst wenn wir die entsprechenden Voraussetzungen schaffen, kann sich der AI Act zu einem Vorteil entwickeln. Daher ist es umso wichtiger, dass wir schnellstens an diesen drei Punkten arbeiten.
Wie müsste denn ein EU AI Act sein, welche konkreten Maßnahmen müsste er bieten, damit Unternehmen aus dem hiesigen Raum bestmöglich aufgestellt sein können?
Wie bereits erwähnt, müssen die Anforderungen rechtlich festgelegt und Mitarbeitende, sowie die Werkzeuge und Standards zur Erfüllung vorhanden sein. Wir brauchen dringend ein Beschleunigungsprogramm “Made in Europe”, um uns auch auf dem Weltmarkt stark positionieren zu können. Eine große Hilfe dabei können Weiterbildungen, “Beschleunigerprogramme” oder gegebenenfalls auch eine längere Übergangsphase sein, um Europas Innovationskraft im Bereich KI weiterzubringen. Die europäische Wettbewerbsfähigkeit sollte im Mittelpunkt der Diskussion bleiben. Eine Anpassung der Hochrisikokriterien kann die Anzahl der Risikofälle reduzieren, um näher an die erwarteten 5-15 % zu kommen. Besonders in Bereichen, die sehr schwierig und kostspielig sind, müssen die Bedürfnisse der Europäischen KI-Startups und Unternehmen berücksichtigt werden. Nur so können wir die Innovationskraft von der europäischen Industrie in der KI stärken und weiter vorantreiben.