EY verwijst naar de wereldwijde organisatie en kan verwijzen naar een of meer van de lidfirma's van Ernst & Young Global Limited, die elk een afzonderlijke juridische entiteit zijn. Ernst & Young Global Limited, een Britse vennootschap met beperkte aansprakelijkheid, verleent geen diensten aan cliënten.
Hoe EY kan helpen
-
Wij adviseren mensgericht, pragmatisch, resultaatgericht en ethisch over de toepassing van kunstmatige of of artificiële intelligentie (KI/AI).
Lees meer
Toepassingsgebied van de AI Act
De AI Act is van toepassing op:
- aanbieders die AI-systemen in de EU in de handel brengen of in gebruik stellen (ongeacht of die aanbieders in de EU of in een derde land zijn gevestigd);
- gebruikers van AI-systemen die zich in de EU bevinden; en
- aanbieders en gebruikers van AI-systemen die zich in een derde land bevinden, wanneer de output van het systeem in de EU wordt gebruikt.
De wet is sectoroverstijgend van toepassing.
Verschillende risiconiveaus
AI-systemen worden opgedeeld in risicoklassen: hoe hoger het risico, hoe strenger de vereisten. In grote lijnen verdeelt de AI Act systemen in deze categorieën:
- Onaanvaardbaar risico: dit zijn AI-systemen die als een gevaar voor mensen worden beschouwd. Voorbeelden hiervan zijn het zogenaamde ‘social scoring’, en toepassing van bepaalde biometrische systemen voor identificatie op afstand zoals gezichtsherkenning.
- Hoog risico: deze AI-systemen brengen aanzienlijke risico's met zich mee en zullen aan strikte verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht. Het overgrote deel van de verplichtingen uit de AI Act ziet op AI-systemen die hieronder vallen. Alle AI-systemen met een hoog risico krijgen een beoordeling voor zij in de handel worden gebracht en worden tijdens de volledige levensduur van het systeem gevolgd.
- Laag risico: AI-systemen die niet in de bovenstaande categorieën vallen, mogen de Europese markt zonder al te veel problemen betreden. Er moet wel transparantie zijn, zodat het duidelijk is wanneer een beeld is gemanipuleerd (zogenaamde ‘deepfakes’) en niemand onterecht denkt dat hij of zij te maken heeft met een mens.
De verordening stelt hoge boetes in het vooruitzicht voor overtreders. Deze kunnen oplopen tot 35 miljoen euro per overtreding of zeven procent van de wereldwijde omzet van het betrokken concern.