akt o sztucznej inteligencji

Prace nad Aktem o sztucznej inteligencji idą do przodu


W kwietniu 2021 r. Komisja Europejska opracowała pierwszą unijną regulację dotyczącą sztucznej inteligencji. Po żmudnych negocjacjach, które ostatecznie zakończyły się 8 grudnia 2023 r., unijni decydenci osiągnęli polityczny konsensus w sprawie szczegółowych przepisów.

Akt o sztucznej inteligencji stanowi najbardziej zaawansowany na świecie krok w kierunku uregulowania technologii, która ma znaczący potencjał w zakresie skutków społeczno‑gospodarczych.

Chociaż Akt o sztucznej inteligencji ma jeszcze kilka etapów proceduralnych przed oficjalnym wejściem w życie, jego ogólny zarys został już ustalony. Po trwających trzy dni dyskusjach prezydencja Rady i negocjatorzy Parlamentu Europejskiego osiągnęli wstępne porozumienie w sprawie zharmonizowanych przepisów dotyczących sztucznej inteligencji, znanych również jako Akt o sztucznej inteligencji.

Proponowane rozporządzenie ma na celu zapewnienie, że systemy AI wchodzące na rynek europejski i wykorzystywane w UE są bezpieczne oraz zgodne z prawami podstawowymi i wartościami UE. Przełomowa propozycja ma na celu stymulowanie inwestycji i innowacji w zakresie sztucznej inteligencji w całej Europie.

Akt o sztucznej inteligencji ma potencjał do promowania rozwoju i przyjęcia bezpiecznej i niezawodnej AI na jednolitym rynku UE przez sektor zarówno prywatny, jak i publiczny. Przepisy regulują sztuczną inteligencję, przyjmując podejście „oparte na ryzyku”, w którym im wyższe ryzyko, tym bardziej rygorystyczne zasady. Jako pierwszy tego rodzaju akt prawny może potencjalnie działać jako globalny standard dla przepisów dotyczących sztucznej inteligencji (podobnie jak w przypadku RODO), prezentując europejskie podejście do regulacji technologicznych na arenie światowej.


Przewodnik Prawny EY Law 2024: Praktycznie o prawie

Prawo a sztuczna inteligencja - Trendy w prawie korporacyjnym - Fundacja rodzinna - ESG - Zielone najmy - Restrukturyzacje


Akt o sztucznej inteligencji – jakie są główne elementy tymczasowego porozumienia?

Główne nowe elementy tymczasowego porozumienia w porównaniu z pierwotnym wnioskiem Komisji można podsumować następująco:

  • rozszerzenie zakazów o zabezpieczenia dotyczące stosowania zdalnej identyfikacji biometrycznej na potrzeby egzekwowania prawa w przestrzeni publicznej,
  • lepsza ochrona praw podstawowych dzięki zobowiązaniu podmiotów wdrażających systemy AI wysokiego ryzyka do przeprowadzenia analizy wpływu na prawa podstawowe przed wdrożeniem systemu AI.

Wstępne porozumienie gwarantuje, że definicja systemu AI zapewnia jasne kryteria odróżniania sztucznej inteligencji od prostszych systemów oprogramowania poprzez dostosowanie do proponowanego podejścia Organizacji Współpracy Gospodarczej i Rozwoju (dalej: OECD). Rozporządzenie nie ma zastosowania do obszarów poza zakresem prawa UE ani nie wpłynie na kompetencje państw członkowskich w kwestii bezpieczeństwa narodowego ani na żaden podmiot odpowiedzialny za zadania w tej dziedzinie. Porozumienie to zakłada również, że Akt o sztucznej inteligencji nie będzie miał zastosowania do systemów wykorzystywanych wyłącznie do celów wojskowych lub obronnych, badań i innowacji ani do nieprofesjonalnego użytku przez osoby fizyczne.

Kompromisowe porozumienie oferuje horyzontalną ochronę, w tym klasyfikację wysokiego ryzyka, aby zapewnić, że systemy AI niskiego ryzyka, które stwarzają minimalne zagrożenie dla praw podstawowych lub inne znaczące zagrożenia, nie zostaną przechwycone. Systemy sztucznej inteligencji, które stwarzają ograniczone niebezpieczeństwo, będą podlegać niewielkim obowiązkom w zakresie przejrzystości.

Systemy AI, które stwarzają niedopuszczalne ryzyko, będą zakazane w UE. Wstępne porozumienie nie dopuszcza manipulacji zachowaniami poznawczymi, nieukierunkowanego pobierania obrazów twarzy z Internetu lub nagrań CCTV, rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych, punktacji społecznej, kategoryzacji biometrycznej na podstawie wrażliwych danych, takich jak orientacja seksualna lub przekonania religijne, a także niektórych przypadków predykcyjnego nadzoru policyjnego dla osób fizycznych.

Wstępne porozumienie zawiera nowe przepisy dodane w odpowiedzi na sytuacje, w których systemy AI mogą być wykorzystywane do wielu celów jednocześnie. Uzgodniono również specjalne zasady dotyczące modeli bazowych, dużych systemów zdolnych do wykonywania szerokiego zakresu zadań.

Modele fundamentalne o dużym wpływie, zanim zostaną wprowadzone na rynek, muszą spełniać określone obowiązki w zakresie przejrzystości.

Aby nadzorować egzekwowanie tych najbardziej zaawansowanych modeli sztucznej inteligencji, w ramach Komisji tworzony jest system zarządzania – nowy urząd ds. sztucznej inteligencji.

Potwierdzone kary za naruszenie wymogów Aktu o sztucznej inteligencji

Kary są oparte na globalnym rocznym obrocie firm naruszających przepisy z ostatniego roku obrotowego lub na z góry określonej kwocie, w zależności od tego, która z nich jest wyższa – 35 mln EUR lub 7 proc. za naruszenie zakazu stosowania AI, 15 mln EUR lub 3 proc. za naruszenie obowiązków wynikających z Aktu o sztucznej inteligencji lub 7,5 mln EUR lub 1,5 proc. za podanie nieprawidłowych informacji.

Okiem eksperta EY

Po osiągnięciu wstępnego porozumienia politycznego w Unii Europejskiej w sprawie AI Act czekamy na oficjalną publikację uzgodnionego tekstu rozporządzenia oraz wynik dalszych prac legislacyjnych. Niezależnie od postępu prac nad AI Act, już teraz warto zadbać o przygotowanie organizacji na wyzwania związane z zastosowaniem sztucznej inteligencji poprzez wdrożenie strategii AI, AI Governance czy polityk korzystania z systemów opartych na AI, aby wdrożenie i korzystanie z tej nowej technologii było zgodne z prawem, etyczne i bezpieczne.

Nasi eksperci na bieżąco śledzą zmiany w prawie w zakresie dotyczącym sztucznej inteligencji. Opisujemy je regularnie w programie Make IT clear. 

Maciej Bisch

EY Polska, Kancelaria EY Law, Manager, Adwokat



Podsumowanie

Kompromisowe porozumienie przewiduje ocenę wpływu na prawa podstawowe przed wprowadzeniem na rynek systemu AI wysokiego ryzyka. Zwiększono również przejrzystość w zakresie korzystania z systemów AI wysokiego ryzyka. Akt o sztucznej inteligencji powinien zacząć obowiązywać dwa lata po jego wejściu w życie, z pewnymi wyjątkami dotyczącymi konkretnych przepisów.

Artykuł pochodzi z publikacji "Przewodnik prawny EY Law 2024. Praktycznie o prawie".



Kontakt
Chcesz dowiedziec sie wiecej? Skontaktuj sie z nami.

Polecane

Sztuczna inteligencja (AI) w compliance

AI może budować przewagę konkurencyjną oraz znacznie redukować koszty prowadzenia działalności. Co warto wiedzieć o AI compliance? Od czego zacząć?