5 min. czytania 14 cze 2024

Wdrażanie obowiązku przejrzystości systemów AI w instytucjach finansowych

Autor Maciej Bisch

EY Polska, Kancelaria EY Law, Manager, Adwokat

Maciej zajmuje stanowisko Managera w praktyce IP, IT, Digital.

5 min. czytania 14 cze 2024
Powiązane tematy Doradztwo prawne AI Make IT clear

AI Act wprowadzi szereg nowych wymogów dotyczących stosowania systemów AI. Zakres tych obowiązków będzie różnił się w zależności od poziomu ryzyka, jakie wiąże się z danym systemem AI. Systemy uznane za wysoce ryzykowne będą podlegać najszerszemu zakresowi nowych obowiązków przewidzianych w regulacji.

Niemniej jednak także niektóre systemy AI niebędące systemami wysokiego ryzyka zostaną objęte określonymi zasadami. W tym artykule przedstawimy bliżej zagadnienia związane z obowiązkiem przejrzystości z perspektywy instytucji finansowych.

Wymogi dotyczące systemów AI wysokiego ryzyka w instytucjach finansowych

Po pierwsze, należy zrozumieć, które systemy stosowane w banku mogą być uznane za systemy sztucznej inteligencji wysokiego ryzyka. Ogólne zasady kwalifikacji systemów AI jako systemów wysokiego ryzyka zostały określone w art. 6 AI Act, natomiast w Załączniku III do AI Act wymieniono przypadki użycia systemów AI, w których systemy te będą z zasady kwalifikowane jako wysoce ryzykowne. Z perspektywy instytucji finansowych największe znaczenie ma zakwalifikowanie do systemów wysokiego ryzyka systemów AI wykorzystywanych do celów oceny zdolności kredytowej osób fizycznych lub ustalenia ich scoringu kredytowego (z wyjątkiem systemów AI wykorzystywanych w celu wykrywania oszustw finansowych), a także przeznaczonych do wykorzystywania przy ocenie ryzyka i ustalaniu cen w odniesieniu do osób fizycznych w przypadku ubezpieczenia na życie i ubezpieczenia zdrowotnego.

W zakresie przejrzystości systemów AI wysokiego ryzyka AI Act najwięcej obowiązków nakłada na dostawców tych systemów – systemy AI wysokiego ryzyka powinny być projektowane i rozwijane w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą podmiotom stosującym AI interpretację wyników działania systemu i ich właściwe wykorzystanie. Niezbędne jest zapewnienie odpowiedniego rodzaju i stopnia przejrzystości w celu umożliwienia wypełnienia przez dostawcę i podmiot stosujący AI ich obowiązków wynikających z rozporządzenia. Stosowne informacje na temat systemu AI wysokiego ryzyka powinny być udostępnione w instrukcji obsługi, zawierającej zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla podmiotów stosujących AI.

Instytucje finansowe będą jednak w tym przypadku najczęściej podmiotem stosującym, a nie dostawcą. Jest to związane z tym, że do standardu rynkowego należy korzystanie z rozwiązań oferowanych przez zewnętrznych dostawców, a nie rozwijanie własnych rozwiązań AI. Z perspektywy instytucji finansowych najistotniejsze są zatem:

  • wybór odpowiedniego systemu i dostawcy, który spełnia wymogi z AI Act,
  • podjęcie odpowiednich środków technicznych i organizacyjnych, aby system był wykorzystywany zgodnie z dołączoną instrukcją obsługi,
  • poinformowanie osób fizycznych o tym, że w stosunku do nich wykorzystuje się system AI wysokiego ryzyka, w przypadku stosowania systemu, o którym mowa w Załączniku III do AI Act (scoring kredytowy, ocena ryzyka do ubezpieczenia na życie i ubezpieczenia zdrowotnego).
  • Ważne jest więc, aby instytucje finansowe korzystające z systemów AI do scoringu kredytowego lub oceny ryzyka do ubezpieczenia na życie lub zdrowotnego informowały osoby fizyczne o tym, że przy podejmowaniu dotyczących ich decyzji wykorzystuje się system sztucznej inteligencji wysokiego ryzyka.

Newsletter Prawny

Subskrybuj newsletter i otrzymuj aktualne informacje o zmianach w prawie dotyczących polskiego biznesu.

Zapisz się

Wymogi dotyczące innych systemów AI w instytucjach finansowych

Co więcej, pewne obowiązki z zakresu przejrzystości dotyczą również niektórych systemów AI, z których mogą korzystać instytucje finansowe, które nie są klasyfikowane jako systemy wysokiego ryzyka. Instytucje finansowe powinny zwrócić tu szczególną uwagę na systemy wchodzące w bezpośrednią interakcję z ludźmi, a więc np. czatboty, które mogą być wykorzystywane przez instytucje finansowe w obsłudze klienta. Wiele instytucji finansowych planuje wdrażać tego typu rozwiązania w swoich organizacjach.

W takim przypadku dostawca musi informować zainteresowane osoby fizyczne, że prowadzą one interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania. Wyjątkowo istotne wówczas jest uwzględnienie cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Należy pamiętać, aby informacje przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.

Praktyczne wdrażanie obowiązków związanych z przejrzystością

Zgodnie z AI Act przejrzystość oznacza, że systemy AI opracowuje się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję. Przejrzystość oznacza również, że konieczne jest należyte poinformowanie podmiotów wykorzystujących AI o możliwościach i ograniczeniach tego systemu, a osoby, na które AI ma wpływ, o przysługujących im prawach.

We wdrożeniu obowiązków w zakresie przejrzystości pomocne będą wytyczne Komisji dotyczące praktycznego wdrażania rozporządzenia. Sposoby implementacji obowiązków przejrzystości są jednym z aspektów, który zawarty będzie w nadchodzących wytycznych. Będą one nastawione na praktykę i standardy rynkowe, ponieważ zgodnie z AI Act przy ich wydawaniu Komisja powinna zwrócić szczególną uwagę na potrzeby MŚP, w tym przedsiębiorstw typu start-up, lokalnych organów publicznych i sektorów, na które rozporządzenie może mieć największy wpływ.

Wytyczne powinny również uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, jak również odpowiednie zharmonizowane normy i specyfikacje, które zostały określone zgodnie z unijnym prawodawstwem. Po udostępnieniu tych wytycznych, co powinno nastąpić w terminie 18 miesięcy od wejścia w życie AI Act, instytucje finansowe będą mogły w bardziej rzetelny sposób przygotować się do wdrażania praktycznych rozwiązań dotyczących zasad przejrzystości z AI Act.

Sankcje za niespełnienie wymogów transparentności

Spełnienie tych obowiązków jest o tyle istotne, iż brak ich wdrożenia może skutkować nałożeniem administracyjnej kary pieniężnej. Zgodnie z AI Act w przypadku niespełnienia obowiązków związanych z przejrzystością zarówno w stosunku do systemów AI wysokiego ryzyka, jak i innych systemów AI objętych takimi zasadami grozi administracyjna kara pieniężna w wysokości:

  • do 15 000 000 EUR lub
  • do 3% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego,

w zależności od tego, która z tych kwot jest wyższa.

Ponadto państwa członkowskie mogą ustanowić przepisy dotyczące innych środków egzekwowania prawa, które mogą obejmować także ostrzeżenia i środki niepieniężne. Jak widać, kary grożące za niespełnienie wymogów przejrzystości przewidziane w AI Act są znaczne.

Podsumowanie

Wprowadzenie AI Act to przełom w regulacji stosowania sztucznej inteligencji, z naciskiem na przejrzystość i bezpieczeństwo. Dla instytucji finansowych kluczowe jest zrozumienie nowych wymogów i odpowiednie dostosowanie się do nich. Niezbędne będą właściwy wybór dostawców, wdrożenie procedur wewnętrznych i szkolenia pracowników, aby uniknąć sankcji finansowych.

Instytucje muszą również informować klientów o wykorzystywaniu systemów AI, szczególnie w ocenie zdolności kredytowej i ryzyka ubezpieczeniowego. Transparentność działania wzmacnia zaufanie klientów i buduje pozytywny wizerunek przedsiębiorstwa oraz pozwala uniknąć dotkliwych kar pieniężnych.

Artykuł ukazał się na portalu Fintek w dniu 12 czerwca 2024 r.

 

Kontakt

Chcesz dowiedzieć się więcej? Skontaktuj się z nami.

Informacje

Autor Maciej Bisch

EY Polska, Kancelaria EY Law, Manager, Adwokat

Maciej zajmuje stanowisko Managera w praktyce IP, IT, Digital.

Powiązane tematy Doradztwo prawne AI Make IT clear
  • Facebook
  • LinkedIn
  • X (formerly Twitter)