Akt o sztucznej inteligencji – jakie są główne elementy tymczasowego porozumienia?
Główne nowe elementy tymczasowego porozumienia w porównaniu z pierwotnym wnioskiem Komisji można podsumować następująco:
- rozszerzenie zakazów o zabezpieczenia dotyczące stosowania zdalnej identyfikacji biometrycznej na potrzeby egzekwowania prawa w przestrzeni publicznej,
- lepsza ochrona praw podstawowych dzięki zobowiązaniu podmiotów wdrażających systemy AI wysokiego ryzyka do przeprowadzenia analizy wpływu na prawa podstawowe przed wdrożeniem systemu AI.
Wstępne porozumienie gwarantuje, że definicja systemu AI zapewnia jasne kryteria odróżniania sztucznej inteligencji od prostszych systemów oprogramowania poprzez dostosowanie do proponowanego podejścia Organizacji Współpracy Gospodarczej i Rozwoju (dalej: OECD). Rozporządzenie nie ma zastosowania do obszarów poza zakresem prawa UE ani nie wpłynie na kompetencje państw członkowskich w kwestii bezpieczeństwa narodowego ani na żaden podmiot odpowiedzialny za zadania w tej dziedzinie. Porozumienie to zakłada również, że Akt o sztucznej inteligencji nie będzie miał zastosowania do systemów wykorzystywanych wyłącznie do celów wojskowych lub obronnych, badań i innowacji ani do nieprofesjonalnego użytku przez osoby fizyczne.
Kompromisowe porozumienie oferuje horyzontalną ochronę, w tym klasyfikację wysokiego ryzyka, aby zapewnić, że systemy AI niskiego ryzyka, które stwarzają minimalne zagrożenie dla praw podstawowych lub inne znaczące zagrożenia, nie zostaną przechwycone. Systemy sztucznej inteligencji, które stwarzają ograniczone niebezpieczeństwo, będą podlegać niewielkim obowiązkom w zakresie przejrzystości.
Systemy AI, które stwarzają niedopuszczalne ryzyko, będą zakazane w UE. Wstępne porozumienie nie dopuszcza manipulacji zachowaniami poznawczymi, nieukierunkowanego pobierania obrazów twarzy z Internetu lub nagrań CCTV, rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych, punktacji społecznej, kategoryzacji biometrycznej na podstawie wrażliwych danych, takich jak orientacja seksualna lub przekonania religijne, a także niektórych przypadków predykcyjnego nadzoru policyjnego dla osób fizycznych.
Wstępne porozumienie zawiera nowe przepisy dodane w odpowiedzi na sytuacje, w których systemy AI mogą być wykorzystywane do wielu celów jednocześnie. Uzgodniono również specjalne zasady dotyczące modeli bazowych, dużych systemów zdolnych do wykonywania szerokiego zakresu zadań.
Modele fundamentalne o dużym wpływie, zanim zostaną wprowadzone na rynek, muszą spełniać określone obowiązki w zakresie przejrzystości.
Aby nadzorować egzekwowanie tych najbardziej zaawansowanych modeli sztucznej inteligencji, w ramach Komisji tworzony jest system zarządzania – nowy urząd ds. sztucznej inteligencji.
Potwierdzone kary za naruszenie wymogów Aktu o sztucznej inteligencji
Kary są oparte na globalnym rocznym obrocie firm naruszających przepisy z ostatniego roku obrotowego lub na z góry określonej kwocie, w zależności od tego, która z nich jest wyższa – 35 mln EUR lub 7 proc. za naruszenie zakazu stosowania AI, 15 mln EUR lub 3 proc. za naruszenie obowiązków wynikających z Aktu o sztucznej inteligencji lub 7,5 mln EUR lub 1,5 proc. za podanie nieprawidłowych informacji.