Akt o sztucznej inteligencji – podstawowe założenia

Akt o sztucznej inteligencji – podstawowe założenia


Od dłuższego czasu Unia Europejska (UE) odgrywa wiodącą rolę w tworzeniu ram prawnych dla wdrażania nowych technologii, między innymi w drodze regulacji tworzonych w ramach strategii Cyfrowej Dekady. Jedną z kluczowych regulacji jest Akt o sztucznej inteligencji (AI Act). 

AI Act stanowi przełomową regulację, która weszła w życie 1 sierpnia 2024 roku, wprowadzając harmonizację prawodawstwa dotyczącego systemów sztucznej inteligencji (AI) w całej Unii Europejskiej. W artykule odpowiadamy na kluczowe pytania dotyczące AI Act i analizujemy jego główne założenia. 

Jaki jest cel AI Act i kogo dotyczy?

Nowa regulacja ma na celu promowanie ukierunkowanej na człowieka i godnej zaufania sztucznej inteligencji. Rozporządzenie ma ujednolicić unijny rynek wewnętrzny, wprowadzając spójne ramy dla rozwoju i użytkowania systemów AI w Unii Europejskiej, zgodnie z wartościami UE. Ma również stymulować innowacje i zatrudnienie, wzmacniając pozycję UE jako lidera w dziedzinie godnej zaufania AI. Unijny prawodawca dąży do uniknięcia fragmentacji rynku wewnętrznego poprzez ustanowienie spójnych przepisów dla operatorów AI, przy jednoczesnej ochronie interesów publicznych i praw osób korzystających z tych systemów.

AI Act dotyczy szerokiego kręgu podmiotów, w tym dostawców, importerów i podmioty stosujące systemy oparte na sztucznej inteligencji, działające w Europejskim Obszarze Gospodarczym. Rozporządzenie znajdzie zastosowanie także dla podmiotów z siedzibą poza EOG ilekroć podmiot udostępnia swoje usługi dla Europy.



Czym jest system AI?

Zrozumienie definicji "systemu AI" jest kluczowe dla zrozumienia zakresu AI Act. Określa ono, jakie technologie są objęte tą regulacją. Zgodnie z Rozporządzeniem, system AI to maszyna zaprojektowana do samodzielnego działania na różnych poziomach. Po uruchomieniu, taki system może się dostosowywać i na podstawie dostarczonych danych wyciągać wnioski, tworzyć prognozy, treści, rekomendacje lub podejmować decyzje, które mają wpływ na rzeczywistość fizyczną lub cyfrową.

Charakterystyczne cechy systemów AI, które odróżniają je od tradycyjnych systemów oprogramowania, obejmują:

  • zdolność do wnioskowania i generowania wyników, takich jak predykcje, treści, zalecenia lub decyzje;
  • autonomię działania, pozwalającą na funkcjonowanie z różnym stopniem niezależności od człowieka;
  • zdolność adaptacji, umożliwiającą systemom AI uczenie się i ewolucję w czasie;
  • działanie w oparciu o określone lub dorozumiane cele, które mogą być różne w zależności od kontekstu zastosowania.

Zastosowanie systemów AI jest wszechstronne i możliwe w wielu dziedzinach życia. Asystenci głosowi, rozumieją polecenia użytkowników i mogą wykonywać różnorodne zadania, od ustawiania alarmów po wyszukiwanie informacji online. Samochody autonomiczne mogą wykorzystywać AI do analizowania otoczenia i podejmowania decyzji o trasie oraz zapewnieniu bezpieczeństwa bez interwencji kierowcy. W sprzedaży internetowej AI znajduje zastosowanie w zaawansowanych systemach rekomendacji produktów, które, bazując na historii zakupów w zestawieniu z innymi dostarczonymi danymi (np. lokalizacją), proponują klientom dopasowane oferty. AI znajduje także szerokie zastosowanie w sektorze produkcji maszyn i w dziedzinie cyberbezpieczeństwa.

Natomiast nie wszystko, co jest zaawansowanym systemem, spełnia kryteria uznania za sztuczną inteligencję. Przykładowo, algorytm, który wykonuje określone operacje matematyczne, nie posiadający zdolności do uczenia się ani adaptacji, działając jedynie na podstawie z góry zaprogramowanych działań – nie spełni definicji AI. Podobnie nie spełnią definicji AI systemy alarmowe reagują na konkretne bodźce, takie jak wykrycie ruchu czy dymu, ale nie będące w stanie samodzielnie wnioskować ani dostosowywać swoich działań poza zaprogramowanymi instrukcjami.

Jak klasyfikować systemy AI?

AI Act podąża za podejściem opartym na ryzyku. Im wyższe ryzyko związane z systemem AI, tym bardziej rygorystyczne wymagania. Na tej podstawie możliwy jest następujący podział systemów AI:

  1. Zakazane praktyki AI (systemy o niedopuszczalnym ryzyku) to te, które wykorzystują technologie sztucznej inteligencji w sposób, który może poważnie naruszać prawa i wolności jednostek. Będą nimi systemy AI, które wykorzystywane są do np. manipulowania zachowaniem osób, oceny społecznej (scoring społeczny), wnioskowania o emocjach w miejscu pracy czy kategoryzacji biometrycznej oparta na szczególnych kategoriach danych osobowych.
  2. Systemy AI wysokiego ryzyka to te, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe jednostek. Obejmą one, między innymi, systemy używane do rekrutacji czy oceny pracowniczej, czy systemy AI przeznaczone do zarządzania krytyczną infrastrukturą cyfrową. Systemami AI wysokiego ryzyka będą także systemy związane z bezpieczeństwem elementu produktu objętego prawodawstwem harmonizacyjnym (np. zabawki z elementami AI).
  3. Systemy AI stwarzające ryzyko przejrzystości to te, które będąc przeznaczone do bezpośredniej interakcji z osobami fizycznymi, generują lub manipulują tekstem, obrazem, dźwiękiem lub wideo (generatywne systemy AI), lub stanowią system rozpoznawania emocji.
  4. Pozostałe systemy AI wymagają wypełnienia podstawowych obowiązków w zakresie przejrzystości.

Jakie są obowiązki dostawców systemów AI?

Najszerszy zakres obowiązków zostanie nałożony na dostawców systemów AI wysokiego ryzyka. Są oni zobowiązani do utworzenia systemu zarządzania ryzykiem, przeprowadzenia testów w realnych warunkach oraz opracowania systemu AI na podstawie odpowiednio zarządzanych zestawów danych. Muszą również udowodnić zgodność z wymaganiami poprzez przygotowanie i aktualizowanie dokumentacji technicznej, a także przeprowadzenie samooceny. Dodatkowo, obowiązują ich różne obowiązki rejestrowania przez cały okres użytkowania systemu AI. Wszystkie systemy AI muszą spełniać minimalne obowiązki zapewnienia przejrzystości, w tym informowanie użytkowników o interakcji z systemem AI.


Praktyczne kroki dla biznesu

 

W obliczu nadchodzących regulacji, przedsiębiorcy powinni podjąć konkretne kroki w celu przygotowania się do nowych przepisów. Wśród nich warto uwzględnić:

 

1. Klasyfikację systemów AI: Tworzenie inwentarza AI i klasyfikację ryzyka zgodnie z taksonomią UE.

 

2. Ocenę wpływu regulacji na stosowane w organizacji systemy AI: Analiza regulacyjna pomoże w formułowaniu strategii biznesowych i przygotowaniu interesariuszy na zmiany w procesach organizacyjnych. Wdrażanie dostosowanych ram zarządzania (AI Governance).

 

3. Aktualizację wewnętrznych polityk i procedur, identyfikację nowych kanałów komunikacji i raportowania oraz określenie konkretnych ról i odpowiedzialności zgodnie z AI Act.

 

4. Rozwój programu szkoleniowego: Edukacja pracowników na temat ryzyka związanego z AI i określenie jasnych działań w celu jego adresowania.

 


Jakie są sankcje?

W ramach AI Act, ustawodawca unijny wprowadza surowe sankcje finansowe, podkreślając determinację w egzekwowaniu przestrzegania nowych regulacji dotyczących sztucznej inteligencji. Struktura kar jest umożliwia dostosowanie jej wysokości do skali działalności przedsiębiorstwa, co widać w przewidzianych sankcjach:

  • w przypadku stosowania zakazanych praktyk AI, przedsiębiorstwa mogą zostać ukarane kwotą sięgającą nawet 35 milionów euro lub karą wynoszącą do 7% ich globalnego rocznego obrotu z ostatniego roku finansowego,
  • za nieprzestrzeganie pozostałych wymagań i obowiązków określonych w Rozporządzeniu, kary mogą osiągnąć do 15 milionów euro lub 3% światowego obrotu rocznego,
  • przedsiębiorstwa, które przekażą jednostkom notyfikowanym lub odpowiednim organom krajowym informacje nieprawidłowe, niekompletne lub wprowadzające w błąd, mogą zostać obciążone karą pieniężną do 7,5 miliona euro lub 1% ich globalnego obrotu z poprzedniego roku.

Tak wysokie sankcje mają na celu zapewnienie, że podmioty objęte zakresem AI Act, będą przestrzegać nowych przepisów, chroniąc tym samym interesy użytkowników.


Make AI Clear

Chcesz wiedzieć więcej o kwestiach prawnych związanych z AI?


Podsumowanie

W erze cyfrowej transformacji Unia Europejska wyznacza nowe standardy w zakresie etycznego wykorzystania sztucznej inteligencji poprzez wprowadzenie aktu o sztucznej inteligencji. AI Act stanowi istotny krok w kierunku odpowiedzialnego rozwoju technologii AI, wprowadzając ramy prawne, które mają na celu ochronę obywateli i wspieranie innowacji. W obliczu tych zmian, kluczowe staje się zrozumienie wpływu AI Act na społeczeństwo i gospodarkę, co wymaga od nas wszystkich świadomego podejścia i gotowości do adaptacji.

Teraz jest czas, aby aktywnie działać – dokonać przeglądu i klasyfikacji stosowanych systemów AI, ocenić ich zgodność z AI Act i dostosować wewnętrzne procedury. Przedsiębiorcy muszą teraz podjąć działania, aby dostosować się do nowych wymogów i wykorzystać szanse, jakie niesie ze sobą regulacja AI Act. Przygotowanie się do AI Act to nie tylko kwestia zapewnienia zgodności prawnej, ale także szansa na wzmocnienie zaufania i odpowiedzialności w stosowaniu AI w biznesie.


Kontakt
Chcesz dowiedzieć się więcej? Skontaktuj się z nami.

Informacje


Polecane

Czy przepisy unijnego aktu w sprawie sztucznej inteligencji zmienią zasady przetwarzania danych osobowych w instytucjach finansowych?

Choć AI Act i RODO będą funkcjonować jako odrębne ramy prawne, ich wzajemne uzupełnianie się w kontekście przetwarzania danych osobowych za pomocą systemów AI może w pewnych przypadkach stwarzać po stronie instytucji finansowych konieczność zapewnienia zgodności z dwoma obowiązkami w zakresie danych osobowych. Będzie to szczególnie ważne dla instytucji finansowych, które w swojej działalności wykorzystują systemy AI klasyfikowane jako stwarzające wysokie ryzyko. Należy jednak pamiętać, że RODO wciąż będzie wyznaczać główne obowiązki w kontekście przetwarzania danych osobowych w systemie AI i związanej z tym ochrony praw osób, których dane dotyczą.

Prawo i AI: Legalne labirynty sztucznej inteligencji

Jakie są prawne wyzwania związane z wdrożeniem sztucznej inteligencji (AI)? Dlaczego prawidłowe zabezpieczenie implementacji rozwiązań AI jest kluczowe dla bezpiecznego funkcjonowania przedsiębiorstw? O czym warto pamiętać przekształcając biznes z AI?

Reklama targetowana i profilowanie klientów w świetle regulacji unijnych

W erze cyfrowej, kierowanie wobec użytkowników Internetu spersonalizowanych reklam (nazywane również reklamami targetowanymi lub behawioralnymi) stało się kluczowym narzędziem dla przedsiębiorców dążących do maksymalizacji skuteczności swoich kampanii marketingowych. Poprzez zbieranie informacji o użytkownikach, a następnie dostosowywanie komunikatów reklamowych do ich indywidualnych preferencji, firmy mogą z większym prawdopodobieństwem dotrzeć do właściwej grupy odbiorców. Jednak rosnąca świadomość konsumentów odnośnie prywatności i wykorzystywania danych osobowych skłoniła Unię Europejską do podjęcia działań regulacyjnych w tym zakresie.