Cel regulacji i najważniejsze przepisy
Istotą rozporządzenia o sztucznej inteligencji jest, po pierwsze, zakazanie wykorzystywania AI w sposób, który w ocenie organów UE wiąże się z nieakceptowalnym ryzykiem naruszenia podstawowych praw osób fizycznych, tj. poprzez wykorzystywanie systemu identyfikacji biometrycznej przez organy ścigania (z pewnymi wyjątkami), stosowanie scoringu społecznego przez państwa członkowskie czy też wdrażanie sztucznej inteligencji, która wykorzystywałaby lub manipulowała użytkownikami określonych kategorii, bardziej narażonych na skutki takich działań. Po drugie, założeniem AI Act jest określenie zasad odpowiedzialności poszczególnych podmiotów uczestniczących w procesie tworzenia, oferowania i wykorzystywania systemów AI. W tym zakresie największy ciężar będzie spoczywał na dostawcy systemu (ang. provider), natomiast również podmiot wdrażający system (ang. deployer) będzie obarczony pewnymi obowiązkami. Należy jednak mieć na uwadze, że katalog okoliczności, w których podmiot może stać się dostawcą systemu w rozumieniu AI Act jest bardzo szeroki. Zagadnienia te omówimy bardziej szczegółowo w kolejnych artykułach.
Warto podkreślić, iż niedostosowanie się do nowych obowiązków wynikających z AI Act będzie mogło skutkować nałożeniem bezprecedensowo wysokich kar administracyjnych, wynoszących od 7,5 mln euro lub 1,5% obrotu do aż 35 mln euro lub 7% globalnego obrotu – w zależności od naruszonego obowiązku. Oznacza to kary wielokrotnie wyższe niż te, które przewiduje np. RODO.
W naszej ocenie, bazując na doświadczeniach naszych Klientów, w szczególności dużych podmiotów działających na rynku finansowo-bankowym, 2-letni termin na dostosowanie się organizacji do tak obszernej i przekrojowej regulacji, jaką jest AI Act, jest terminem stosunkowo krótkim. Dlatego też rekomendujemy rozpoczęcie już teraz przygotowań zmierzających do zapewnienia zgodności z nowymi przepisami. Poszczególne działania, jakie naszym zdaniem należy podjąć w tym celu opiszemy w kolejnych artykułach, natomiast już w tym miejscu pragniemy podkreślić, iż zmiany będą obejmować całą organizację i będą wymagały zaangażowania wielu komórek organizacyjnych, stworzenia nowych funkcji i procesów.
Rozporządzenie o sztucznej inteligencji kładzie nacisk na uregulowanie przepisami w pierwszej kolejności tych sposobów zastosowania AI, z którymi wiąże się wysokie ryzyko, jednakże obejmuje swoim zakresem również niektóre systemy, które nie zostały zakwalifikowane jako systemy wysokiego ryzyka, w szczególności tzw. generatywną sztuczną inteligencję (tj. systemy, które generują lub manipulują treściami w formie tekstu, obrazów, wideo czy dźwięku) czy też systemy AI, które wchodzą w bezpośrednią interakcję z osobami fizycznymi – zastosowanie takich systemów będzie wymagało spełnienia pewnych obowiązków związanych z przejrzystością oraz ograniczających możliwość naruszania praw autorskich osób trzecich.
Mając na uwadze definicję systemów AI wysokiego ryzyka należy stwierdzić, iż w szczególności podmioty działające w sektorach ściśle regulowanych, takich jak sektor finansowo-bankowy, energetyczny, medyczny czy edukacji, muszą nadać priorytet swoim wysiłkom w zakresie zapewnienia zgodności z przygotowywanym AI Act. Również małe i średnie przedsiębiorstwa powinny rozpocząć ocenę potencjalnego ryzyka swoich działań związanych ze sztuczną inteligencją, w szczególności, jeżeli zamierzają oferować swoje usługi podmiotom z sektorów regulowanych.