AI ruka

 
Akt o AI Evropské unie přináší řadu nových povinností

Umělá inteligence, v anglickém jazyce Artificial Intelligence (dále jako „AI“), v současné době významně ovlivňuje nespočet oblastí, jako je např. automobilový průmysl, kulturu, vzdělávání či zdravotnictví. Všudypřítomnost AI a její působení na každodenní život většiny z nás se projevuje mimo jiné v jejím užívání doporučovacími systémy (např. v rámci služeb Netflix, Spotify nebo YouTube), virtuálními asistenty (např. Alexou či Siri) nebo generativními a kreativními nástroji (např. AI Art, ChatGPT či DeepL).

Akt o AI

V reakci na rostoucí význam AI a související sílící obavy týkající se zejména dopadu AI na základní práva a svobody, připravila Evropská unie (dále jako „EU“) akt o umělé inteligenci, v anglickém jazyce Artificial Intelligence Act (dále jako „Akt o AI“), který je první konkrétní iniciativou na světě týkající se regulace AI. Akt o AI je nařízením, tedy právní normou s obecnou působností, závaznou v celém rozsahu a přímo použitelnou ve všech členských státech EU.

Cílem Aktu o AI je především zajištění toho, aby vývoj AI, její uvádění na trh i do provozu a její používání probíhalo v souladu s hodnotami EU. Mezi jeho další cíle patří podpora zavádění důvěryhodné AI, zajištění vysoké úrovně ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině základních práv Evropské unie a podpora inovací.

Na koho se Akt o AI bude vztahovat?

Akt o AI vymezuje osoby zapojené v oblasti AI poměrně široce. Odpovědnost ponesou zejména poskytovatelé systémů AI, zavádějící subjekty, dovozci, distributoři a výrobci příslušných produktů, a to jak ti, kteří jsou usazení nebo nacházející se v EU, tak ti, kteří fungují ve třetí zemi, pokud je výstup systému AI užíván v EU.

Jaké povinnosti Akt o AI přináší?

Každý subjekt by měl posoudit, zda se na něj vztahují povinnosti vyplývající z Aktu o AI, tedy zejména zda vyvíjí, vyrábí či užívá nějaký systém AI. Ty Akt o AI vymezuje jako „strojový systém navržený tak, aby po zavedení fungoval s různými úrovněmi autonomie a který po zavedení může vykazovat adaptabilitu a který za explicitními nebo implicitními účely z obdržených vstupů odvozuje, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí“.

Pokud se působnost Aktu o AI na subjekt vztahuje, měl by tento subjekt posoudit, jakou úroveň rizika konkrétní systém AI představuje. Akt o AI rozlišuje čtyři úrovně:

  1. neakceptovatelné riziko (např. systémy AI, které využívají zranitelnosti specifických skupin osob, vytváří sociální hodnocení především pro orgány veřejné správy, u jednotlivých osob posuzují riziko, že spáchají trestný čin, či používají v reálném čase a na veřejně přístupných místech biometrické identifikace na dálku pro účely vymáhání práva, pokud se nejedná o některou z taxativně vyjmenovaných výjimek) – takové systémy AI jsou zakázány;
  2. vysoké riziko (systémy AI, které mohou mít nepříznivý dopad na zdraví fyzických osob, jejich bezpečnost, základní práva či na životní prostředí, ať už jako samostatný produkt, nebo jako součást produktu, například v oblasti kritické infrastruktury, vzdělávání a odborné přípravy či vymáhání práva) – u takových systémů se subjekt musí postarat o soulad s požadavky, jež na tuto kategorii klade Akt o AI, tedy především musí zajistit vhodné postupy správy a řízení dat, vést dostatečnou technickou dokumentaci a registrovat příslušný systém AI do databázi EU pro vysoce rizikové systémy AI;
  3. střední riziko (systémy AI, které s sebou mohou nést riziko vydávání se za někoho jiného, např. chatboty, systémy rozpoznávání emocí, systémy biometrické kategorizace či systémy generující tzv. deepfake obsah) – u takových systémů AI bude subjekt muset především zajistit, aby si uživatelé byli vědomi, že komunikují se strojem, a obsah označovat jako uměle vytvořený nebo zmanipulovaný;
  4. nízké riziko (např. videohry využívající AI či spamové filtry) – s těmito systémy AI (zatím) Akt o AI nespojuje žádné povinnosti.
EY schema ai

Po pečlivém posouzení, do které úrovně rizika konkrétní systém AI patří, by měl subjekt přijmout opatření stanovená Aktem o AI pro danou kategorii rizika. Současně doporučujeme zejména zavedení systému řízení rizik spojených s AI, školení zaměstnanců, aby byli schopni správně využívat a řídit AI systémy, vedení dostatečné dokumentace či zjišťování aktuálních informací z této oblasti. Jako vhodné se rovněž jeví i vypracování etického kodexu v souvislosti s předmětnými systémy AI.

Sankce hrozící za nedodržování Aktu o AI

Za nedodržování postupů dle Aktu o AI hrozí subjektům podstatné sankce. Hrozící správní pokuta se pohybuje ve výši od 7,5 milionu eur do 35 milionů eur nebo, dopustí-li se porušení právnická osoba, ve výši od 1 % do 7 % jeho celkového celosvětového ročního obratu za předchozí finanční rok, podle toho, která hodnota je vyšší.

Účinnost

Akt o AI bude v celém rozsahu účinný od 2. srpna 2026. Některá ustanovení budou nicméně účinná dříve; například ustanovení týkající se systémů AI představující neakceptovatelné riziko budou účinná již od 2. února 2025, ustanovení týkající se vysoce rizikových systémů AI pak od 2. srpna 2025.

Závěrem

Akt o AI je zásadním milníkem pro další vývoj i užívání systémů AI. Přes účinnost nastávající postupně od 2. února 2025 do 2. srpna 2026 doporučujeme všem subjektům, aby jednaly již nyní, především aby si posoudily, zda se na ně povinnosti vyplývající z Aktu o AI budou vztahovat či nikoliv a v případě, že ano, aby zvážily, jakou úroveň rizika konkrétní systém AI představuje, a přijaly opatření v souladu s ustanoveními Aktu o AI. Vhodné může být i zavedení systému řízení rizik spojených s AI, školení zaměstnanců, vedení dostatečné dokumentace, zjišťování aktuálních informací z této oblasti či vypracování etického kodexu v souvislosti s předmětnými systémy AI.

V případě zájmu o další informace či poradenství ohledně Aktu o AI a souvisejících povinností se prosím obraťte na autory článku nebo na další členy týmu EY, se kterými spolupracujete.

Autoři:

David Hlaváček
Magdalena Hamáčková