Struktura Kodeksu i priorytetowe obszary działania
Kodeks Postępowania, wprowadzony zgodnie z art. 56 AI Act, pełni funkcję wytycznych, które umożliwiają dostawcom GPAI wypracowanie zgodności z regulacjami w okresie przejściowym, zanim zostaną ustanowione bardziej szczegółowe standardy. Chociaż obecna wersja Kodeksu znajduje się na wczesnym etapie i skupia się głównie na ogólnych zasadach, jego pierwsza iteracja wyznacza sześć kluczowych zasad mających na celu wdrożenie ram dla rozwoju GPAI, a są nimi:
- zgodność z wartościami UE – zgodność z podstawowymi wartościami UE, w tym z Kartą Praw Podstawowych, demokracją oraz rządami prawa;
- wyrównanie z AI Act i podejściami międzynarodowymi – przestrzeganie wytycznych AI Act oraz, jeśli to możliwe, dostosowanie się do międzynarodowych standardów i dobrych praktyk;
- proporcjonalność do ryzyka – dostosowanie środków do poziomu ryzyka, a więc bardziej rygorystycznych w przypadku większych zagrożeń;
- dostosowanie do rozwoju technologii – możliwość aktualizacji wymogów w związku z szybkim rozwojem technologii;
- wsparcie rozwoju ekosystemu bezpieczeństwa AI – wspieranie przez Kodeks Postępowania rozwoju bezpiecznych praktyk AI w całej Unii Europejskiej, a przez to uniknięcie rozdrobnienia regulacji na poziomie krajowym;
- proporcjonalność do wielkości dostawcy – uwzględnienie wielkości dostawcy w celu chronienia mniejszych graczy przed nadmiernym obciążeniem.
Proces tworzenia Kodeksu i konsultacji
Pierwszy projekt Kodeksu jest wynikiem konsultacji z niemal 430 uczestnikami wraz ze wsparciem międzynarodowych ekspertów, którzy aktywnie uczestniczyli w warsztatach i sesjach roboczych. Każda z czterech grup roboczych koncentrowała się na innym kluczowym aspekcie regulacyjnym, w tym przejrzystości, identyfikacji i ocenie ryzyka, technicznych środkach zapobiegawczych oraz odpowiedzialności zarządczej w kontekście systemów sztucznej inteligencji z ryzykiem systemowym.
Choć projekt charakteryzuje się wysokim poziomem ogólności, jego struktura opiera się na założeniu, że z czasem zostaną wdrożone bardziej szczegółowe wskaźniki oraz „podśrodki” dla skuteczniejszej regulacji GPAI.
Kluczowe obszary Kodeksu Postępowania
Pierwszy projekt Kodeksu wyznacza priorytetowe działania w następujących obszarach:
- Przejrzystość i dokumentacja
Zgodnie z art. 53 AI Act dostawcy mają obowiązek prowadzenia dokumentacji technicznej i udostępniania jej zarówno Europejskiemu Urzędowi ds. Sztucznej Inteligencji, jak i dostawcom systemów downstream. Zapewnienie dostępności dokumentacji i informacji o modelu, takich jak polityka akceptowalnego użytkowania, architektura, liczba parametrów czy modalności wejścia i wyjścia, jest kluczowe dla przejrzystości i zgodności z regulacjami.
Zgodnie z art. 53(1)(c) Kodeks wymaga od dostawców opracowania polityki przestrzegania prawa autorskiego, uwzględniającej przepisy unijne dotyczące wyjątków i ograniczeń w zakresie eksploracji danych (TDM).
- Identyfikacja i ocena ryzyka systemowego
Kodeks definiuje systematyczny proces identyfikacji ryzyk, a także szczegółowy plan oceny ryzyk o szczególnym znaczeniu, takich jak perswazja, dezinformacja, manipulacja. Podejście proporcjonalności sugeruje, że bardziej złożone i ryzykowne modele powinny podlegać bardziej szczegółowej analizie ryzyka.
- Techniczne środki zapobiegawcze i bezpieczeństwo
Kodeks wymaga od dostawców stosowania zaawansowanych metod testowania i raportowania w zakresie bezpieczeństwa. Szczegółowa ocena ryzyka i środków zapobiegawczych, takich jak modyfikacje zachowań modeli, zabezpieczenia technologiczne i cykliczne testowanie, są niezbędne, zwłaszcza dla modeli o wysokim poziomie ryzyka.