Hva er formålet med AI Act?
Trygg utvikling av AI uten å begrense innovasjon
EU ønsker å sette rammene for en trygg utvikling av AI som skaper tillit, sikkerhet og ivaretar grunnleggende rettigheter, uten at det skal begrense innovasjon. Dette gjøres med en risikobasert tilnærming, der det blir strengere krav desto større risikoen er. Er det lav risiko, stilles det få eller ingen krav. Dette for å ikke sette større begrensninger enn nødvendig av hensyn til innovasjon og utvikling.
Hva regulerer AI Act?
Et risikobasert rammeverk til etterfølge
EU søker å gjenta GDPR-suksessen med å sette klare rammer utvikling og bruk av ny teknologi til global etterfølgelse. Reglene vil påvirke næringsliv direkte, og forbrukere indirekte. Med AI Act blir forskjellige systemer som bruker AI kategorisert i fire risiko- kategorier. Kategoriene gjelder AI systemer som utgjør:
- Uakseptabel risiko: Risiko for grunnleggende verdier
- Høy risiko: Risiko for mennesker og samfunn
- Begrenset risiko: Risikoen at mennesker ikke forstår at de samhandler med AI
- Minimal risiko: Så lav risiko at det ikke settes noen grenser
Pliktene innenfor risikokategoriene går fra totalt forbud, ulike kvalitetssikringsplikter til informasjonsplikter. For å oppfylle informasjonsplikten vil det komme en egen CE-markering. Aktører som ikke følger pliktene innenfor sin risikokategori, kan risikere bøter inntil 6% av omsetningen. Bøtesatsen forventes å være forholdsmessig lavere avhengig av risikokategori.
Hva kan EY bistå med?
- Sette opp trygge rammer for utvikling og bruk av AI, i tråd med regulatoriske og etiske rammeverk.
- Vurdere klassifisering av ditt AI-system, og gi innsikt i hvilket plikter som kan gjelde for deg
- Sette opp rutiner for å ivareta kommende forpliktelser
- Foredrag og opplæring