Für den Alltag der meisten Unternehmen sind voraussichtlich nur die folgenden drei der im AI Act aufgeführten Risikokategorien relevant:
KI-Systeme mit hohem Risiko sind solche, die Risiken für Gesundheit, Sicherheit oder Grundrechte von Menschen darstellen. Welche Einsatzgebiete und konkreten Anwendungszwecke dies genau umfasst, wird im Anhang des Gesetzes aufgelistet und nach Inkrafttreten laufend aktualisiert werden. Momentan umfasst diese Liste unter anderem Beschäftigung, Personalmanagement und Zugang zu selbstständiger Tätigkeit (zum Beispiel zur Auswahl von Bewerber:innen, zur Entscheidung hinsichtlich Beförderungen oder zur Kontrolle von Leistung und Verhalten von Arbeitnehmer:innen), Management und Betrieb kritischer Infrastruktur (zum Beispiel zur Steuerung von Stromnetzen oder des Schienenverkehrs) sowie Strafverfolgung, Rechtspflege, Migration und Asyl (zum Beispiel zur Vereinfachung von Entscheidungen). Auch die biometrische Überwachung von Personen fällt in diese Kategorie. Weiterhin ist ein hohes Risiko gegeben, wenn ein KI-System unter eine harmonisierte europäische Norm fällt, für die eine Konformitätsbewertung (d. h. eine Bewertung und Bestätigung/Zertifizierung) vorgesehen ist. Aufgeführt werden hier unter anderem Normen für Maschinen, Medizinprodukte, Spielzeug oder Aufzüge.
Die im AI Act formulierten Anforderungen an die genannten Hochrisikosysteme sind umfangreich:
1. Risikomanagement
Es muss ein Risikomanagement zum Zweck der Identifikation, Bewertung und Reduzierung von Risiken aufgebaut und auf die KI-Systeme angewendet werden.
2. Datenqualität
Es werden bestimmte Anforderungen an die für Training, Testen und Validierung eingesetzten Daten gestellt. Beispielsweise müssen diese Daten relevant, repräsentativ, frei von Fehlern und vollständig sein.
3. Dokumentation
Es müssen eine automatisierte Protokollierung des Betriebs und eine umfassende technische Dokumentation gegeben sein.
4. Transparenz- und Informationsanforderungen
Gegenüber den Nutzer:innen gelten bestimmte Anforderungen zur Transparenz und Information. Diese sind im Anhang zum AI Act näher definiert. Außerdem müssen eine menschliche Aufsicht und der Eingriff in das KI-System möglich sein.
5. Technische Anforderungen
Bestimmte Anforderungen bezüglich der Informationssicherheit müssen gegeben sein. Genauigkeit und Robustheit müssen einem angemessenen Maß entsprechen. Auch hier werden die genauen Anforderungen im Anhang des AI Act näher definiert.
Die Einhaltung der Anforderungen muss vor allem durch diejenigen gewährleistet werden, die die KI-Lösung betreiben. Sie sind dafür verantwortlich, die Einhaltung der Anforderungen zu bewerten und die KI durch einen Menschen zu überwachen. Weiterhin müssen KI-Systeme mit hohem Risiko in eine EU-Datenbank eingetragen werden. Auch nach der Inbetriebnahme bleibt es die Aufgabe des Betreibers, die KI-Systeme zu überwachen und Vorfälle an die zuständigen Stellen zu melden.
KI-Systeme mit Transparenzanforderungen sind solche, die mit Menschen interagieren, Emotionserkennung oder biometrische Kategorisierung betreiben oder künstliche Inhalte generieren, die realen Personen, Orten oder Gegenständen ähneln (sogenannte Deep Fakes). Diese Inhalte müssen auf eine bestimmte Weise gekennzeichnet sein, sodass die Nutzung der KI klar ersichtlich ist und die Erzeugung illegaler Inhalte verhindert wird.
KI-Systeme mit niedrigem Risiko sind solche, die voraussichtlich kein Risiko für die Nutzer:innen oder deren Daten bedeuten, beispielsweise zu Testzwecken in sogenannten Sandboxes eingesetzte KI-Lösungen. Für sie gelten Anforderungen im Bereich der allgemeinen Produktsicherheit. Es wird auch die freiwillige Erstellung von Verhaltenskodizes empfohlen, die sich an den Vorgaben für KI-Systeme mit hohem Risiko orientieren, jedoch auch weiter gehen können.
Anhand dieser Auswahl wird deutlich, dass eine Klassifizierung in die einzelnen Risikokategorien nur systematisch möglich ist. Besonders für Hochrisikosysteme gelten strikte Anforderungen und Dokumentationspflichten, die eine strukturierte Erhebung und Dokumentierung erfordern.
Neben diesen Systemen gelten besondere Anforderungen für sogenannte General Purpuse AI (GPAI). Die finale Definition solcher Systeme ist noch nicht bekannt, generell fallen darunter jedoch KI-Modelle, die anhand großer Datenmengen durch „self-supervised learning“ nicht nur für einen speziellen Zweck trainiert wurden, sondern für eine Vielzahl verschiedener Zwecke eingesetzt werden können. Hierzu gehören beispielsweise sogenannte „large language models“ wie GPT-3 und GPT-4 von OpenAI, die unter anderem in ChatGPT zum Einsatz kommen, oder das ebenfalls von OpenAI entwickelte DALL-E, aber auch das von Google entwickelte Bard.
Für solche Modelle gelten zusätzliche Anforderungen hinsichtlich der Transparenz, der Einhaltung von Copyright-Anforderungen und der Veröffentlichung einer „detaillierten Zusammenfassung“ der zum Training dieser Modelle genutzten Daten. Was genau unter dieser detaillierten Zusammenfassung zu verstehen ist, bleibt abzuwarten.
Sofern solche GPAI-Systeme mit einer hohen Rechenleistung erstellt wurden (die EU nennt hier eine Grenze von 1025 FLOPs (Floating Point Operations Per Second)), gelten weitere Anforderungen hinsichtlich der Evaluierung der Modelle, das Erfordernis von Analysen in Bezug auf systematische Risiken, die mit den Modellen verbunden sind, sowie Offenlegungs- und Berichtspflichten zu Vorfällen im Zusammenhang mit solchen GPAIs gegenüber der Europäischen Kommission.
Schritt 3: Klare Zeitpläne schaffen
Auch wenn nicht klar ist, ob der zeitliche Rahmen zum Inkrafttreten des AI Act eingehalten werden kann, bietet es sich an, eine erste Risikoeinschätzung der im Unternehmen vorhandenen Systeme bereits jetzt vorzunehmen, um auf ein Inkrafttreten vorbereitet zu sein, und ggf. schon jetzt entsprechende Maßnahmen zu implementieren, um den Anforderungen des AI Act gerecht zu werden. Das empfiehlt sich besonders für komplexe Unternehmensorganisationen oder solche mit einer Vielzahl von KI-Anwendungen. Wer sich frühzeitig vorbereitet, kann sich einigen Ärger ersparen und ggf. frühzeitig Regelungen erlassen, die bei der Neuentwicklung oder dem Einkauf von KI-Anwendungen im Unternehmen berücksichtigt werden müssen. Besonders die Umsetzung von Änderungen, die einen nachträglichen Eingriff in bereits implementierte und verwendete Anwendungen erfordert, bedeutet einen hohen Arbeitsaufwand und eine intensive Absprache mit den jeweiligen Betriebseinheiten. Umfangreiche Arbeitsaufträge kurz vor der Deadline führen schnell zu Unmut. Klare Zeitpläne und Arbeitsanweisungen erleichtern die Vorbereitung.
Schon jetzt arbeiten verschiedene Gremien wie beispielsweise die europäischen Normungsorganisationen CEN und CENELEC, aber auch ISO und IEC sowie verschiedene Industriegruppen an „Best practice“-Ansätzen und Normierungen rund um den AI Act. Außerdem gibt es mit dem EU AI Pact einen Aufruf der Europäischen Kommission an Unternehmen, die Anforderungen bereits jetzt umzusetzen, die „best practice“ mitzugestalten und sich mit anderen betroffenen Unternehmen zum AI Act auszutauschen.