De EU AI Act stelt een model voor met drie niveaus van risicoklassificatie om de impact van AI-systemen op fundamentele rechten en de veiligheid van gebruikers te overwegen en te verhelpen:
- Onacceptabel risico: Systemen met een onacceptabel risicoprofiel die door de Europese Commissie zijn verboden.
- Hoog risico: Systemen met een hoog risicoprofiel die aan meerdere eisen moeten voldoen en een conformiteitsbeoordeling moeten ondergaan.
- Laag risico: Bepaalde AI-systemen die niet aan de criteria voor de andere twee niveaus voldoen en nog steeds beperkt risico met zich meebrengen, wordt aangeraden om dezelfde praktijken toe te passen als bij hoog-risico AI-systemen en zijn onderhevig aan transparantie-eisen.
In de eerste stap moeten bedrijven alle gebruikte AI-toepassingen identificeren en de bijbehorende risico's beoordelen. Afhankelijk van de risicoklassificatie zijn er verschillende wettelijke vereisten voor het AI-systeem. Aangezien de eerste klasse (onacceptabel risico) verboden is en de laatste (laag risico) alleen aan lichte eisen hoeft te voldoen, moet een AI-kader gericht zijn op de hoog-risico AI-systemen die momenteel in gebruik zijn of in de toekomst gepland zijn.
EY heeft de AI Act Maturity Assessment ontwikkeld om:
- Organisaties te helpen navigeren door de vereisten van de regelgeving.
- Het gebruik van AI-systemen te beoordelen en in hoeverre de regelgeving van toepassing is.
- Organisaties te ondersteunen bij het begrijpen van hun positie ten opzichte van de vereisten van de regelgeving en te bepalen in hoeverre ze klaar zijn om aan de regelgeving te voldoen.
- De volwassenheid van de organisatie te beoordelen en prioriteiten te stellen.
- Een diepgaande analyse uit te voeren van specifieke AI-systemen in het licht van de wettelijke vereisten van de AI-wet.
Omdat het vaak duurder en complexer is om te voldoen aan de regelgeving wanneer AI-systemen al in gebruik zijn, raden we aan om vroegtijdig voor te bereiden. Dit omvat het opzetten van een register voor alle AI-toepassingen die in de organisatie worden gebruikt, het risicoprofiel te beoordelen en adequate maatregelen te nemen voor:
- AI-governance, beleid en ontwerpnormen
- Beheer van middelen
- Risico- en controlekader
- Gegevensbeheer
- Veilige architectuur