Prace nad Aktem o sztucznej inteligencji idą do przodu!
W kwietniu 2021 r. Komisja Europejska opracowała pierwszą unijną regulację dotyczącą sztucznej inteligencji. Po żmudnych negocjacjach, które ostatecznie zakończyły się 8 grudnia 2023 r. unijni decydenci osiągnęli polityczny konsensus w sprawie szczegółowych przepisów.
Akt o sztucznej inteligencji stanowi najbardziej zaawansowany na świecie krok w kierunku uregulowania technologii, która ma znaczący potencjał w zakresie skutków społeczno-gospodarczych.
- Chociaż Akt o sztucznej inteligencji ma jeszcze kilka etapów proceduralnych przed oficjalnym wejściem w życie, jego ogólny zarys został już ustalony. Po trwających trzy dni dyskusjach, prezydencja Rady i negocjatorzy Parlamentu Europejskiego osiągnęli wstępne porozumienie w sprawie zharmonizowanych przepisów dotyczących sztucznej inteligencji, znanych również jako Akt o sztucznej inteligencji.
- Proponowane rozporządzenie ma na celu zapewnienie, że systemy sztucznej inteligencji wchodzące na rynek europejski i wykorzystywane w UE są zgodne z prawami podstawowymi, bezpieczne i zgodne z wartościami UE. Przełomowa propozycja ma na celu stymulowanie inwestycji i innowacji w zakresie sztucznej inteligencji w całej Europie.
Akt o sztucznej inteligencji, ma potencjał do promowania rozwoju i przyjęcia bezpiecznej i niezawodnej sztucznej inteligencji na jednolitym rynku UE zarówno przez sektor prywatny, jak i publiczny. Przepisy regulują sztuczną inteligencję przyjmując podejście "oparte na ryzyku", w którym im wyższe ryzyko, tym bardziej rygorystyczne zasady. Jako pierwszy tego rodzaju akt prawny może potencjalnie działać jako globalny standard dla przepisów dotyczących sztucznej inteligencji, podobnie jak w przypadku RODO, prezentując europejskie podejście do regulacji technologicznych na arenie światowej.
Główne nowe elementy tymczasowego porozumienia w porównaniu z pierwotnym wnioskiem Komisji można podsumować następująco:
- Rozszerzenie zakazów o zabezpieczenia dotyczące stosowania zdalnej identyfikacji biometrycznej na potrzeby egzekwowania prawa w przestrzeni publicznej.
- Lepsza ochrona praw podstawowych dzięki zobowiązaniu podmiotów wdrażających systemy AI wysokiego ryzyka do przeprowadzenia analizy wpływu na prawa podstawowe przed wdrożeniem systemu AI.
Wstępne porozumienie zapewnia, że definicja systemu AI zapewnia jasne kryteria odróżniania AI od prostszych systemów oprogramowania poprzez dostosowanie do proponowanego podejścia OECD. Rozporządzenie nie ma zastosowania do obszarów poza zakresem prawa UE i nie wpłynie na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego ani na żaden podmiot odpowiedzialny za zadania w tej dziedzinie. Porozumienie to zakłada również, że Akt o sztucznej inteligencji nie będzie miał zastosowania do systemów wykorzystywanych wyłącznie do celów wojskowych lub obronnych, badań i innowacji lub do nieprofesjonalnego użytku przez osoby fizyczne.
Kompromisowe porozumienie oferuje horyzontalną ochronę, w tym klasyfikację wysokiego ryzyka, aby zapewnić, że systemy AI niskiego ryzyka, które stwarzają minimalne ryzyko dla praw podstawowych lub inne znaczące zagrożenia, nie zostaną przechwycone. Systemy sztucznej inteligencji, które stwarzają ograniczone ryzyko, będą podlegać niewielkim obowiązkom w zakresie przejrzystości.
W przypadku systemów AI, które stwarzają niedopuszczalne ryzyko, będą one zakazane w UE. Wstępne porozumienie zakazuje manipulacji zachowaniami poznawczymi, nieukierunkowanego pobierania obrazów twarzy z Internetu lub nagrań CCTV, rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych, punktacji społecznej, kategoryzacji biometrycznej na podstawie wrażliwych danych, takich jak orientacja seksualna lub przekonania religijne, a także niektórych przypadków predykcyjnego nadzoru policyjnego dla osób fizycznych.
- Wstępne porozumienie zawiera nowe przepisy dodane w odpowiedzi na sytuacje, w których systemy AI mogą być wykorzystywane do wielu celów jednocześnie. Uzgodniono również specjalne zasady dotyczące modeli bazowych, dużych systemów zdolnych do wykonywania szerokiego zakresu zadań.
- Modele fundamentalne o dużym wpływie muszą spełniać określone obowiązki w zakresie przejrzystości, zanim zostaną wprowadzone na rynek.
- Aby nadzorować egzekwowanie tych najbardziej zaawansowanych modeli sztucznej inteligencji, w ramach Komisji tworzony jest system zarządzania, nowy urząd ds. sztucznej inteligencji.
Potwierdzono kary za naruszenie wymogów Aktu o sztucznej inteligencji. Kary są oparte na globalnym rocznym obrocie firm naruszających przepisy z ostatniego roku obrotowego lub z góry określonej kwoty, w zależności od tego, która z nich jest wyższa - 35 mln euro lub 7% za naruszenie zakazu stosowania AI, 15 mln Euro lub 3% za naruszenie obowiązków wynikających z Aktu o sztucznej inteligencji, lub 7,5 mln Euro lub 1,5% za podanie nieprawidłowych informacji.
Kompromisowe porozumienie przewiduje ocenę wpływu na prawa podstawowe przed wprowadzeniem na rynek systemu AI wysokiego ryzyka. Zwiększono również przejrzystość w zakresie korzystania z systemów AI wysokiego ryzyka.
Akt o sztucznej inteligencji powinien zacząć obowiązywać dwa lata po jego wejściu w życie, z pewnymi wyjątkami dotyczącymi konkretnych przepisów.
Po osiągnięciu wstępnego porozumienia, w ciągu najbliższych kilku tygodni będą kontynuowane prace na poziomie technicznym w celu sfinalizowania szczegółów rozporządzenia. Po ich zakończeniu prezydencja przekaże kompromisowy tekst przedstawicielom państw członkowskich do zatwierdzenia. Następnie cały tekst będzie musiał zostać potwierdzony przez obie instytucje i poddany rewizji prawno-językowej, zanim zostanie formalnie przyjęty przez współprawodawców. Egzekwowanie Aktu o sztucznej inteligencji będzie ściśle monitorowane przez Parlament.
Istotne dokumenty: