Wymogi dotyczące innych systemów AI w instytucjach finansowych
Co więcej, pewne obowiązki z zakresu przejrzystości dotyczą również niektórych systemów AI, z których mogą korzystać instytucje finansowe, które nie są klasyfikowane jako systemy wysokiego ryzyka. Instytucje finansowe powinny zwrócić tu szczególną uwagę na systemy wchodzące w bezpośrednią interakcję z ludźmi, a więc np. czatboty, które mogą być wykorzystywane przez instytucje finansowe w obsłudze klienta. Wiele instytucji finansowych planuje wdrażać tego typu rozwiązania w swoich organizacjach.
W takim przypadku dostawca musi informować zainteresowane osoby fizyczne, że prowadzą one interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania. Wyjątkowo istotne wówczas jest uwzględnienie cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Należy pamiętać, aby informacje przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.
Praktyczne wdrażanie obowiązków związanych z przejrzystością
Zgodnie z AI Act przejrzystość oznacza, że systemy AI opracowuje się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję. Przejrzystość oznacza również, że konieczne jest należyte poinformowanie podmiotów wykorzystujących AI o możliwościach i ograniczeniach tego systemu, a osoby, na które AI ma wpływ, o przysługujących im prawach.
We wdrożeniu obowiązków w zakresie przejrzystości pomocne będą wytyczne Komisji dotyczące praktycznego wdrażania rozporządzenia. Sposoby implementacji obowiązków przejrzystości są jednym z aspektów, który zawarty będzie w nadchodzących wytycznych. Będą one nastawione na praktykę i standardy rynkowe, ponieważ zgodnie z AI Act przy ich wydawaniu Komisja powinna zwrócić szczególną uwagę na potrzeby MŚP, w tym przedsiębiorstw typu start-up, lokalnych organów publicznych i sektorów, na które rozporządzenie może mieć największy wpływ.
Wytyczne powinny również uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, jak również odpowiednie zharmonizowane normy i specyfikacje, które zostały określone zgodnie z unijnym prawodawstwem. Po udostępnieniu tych wytycznych, co powinno nastąpić w terminie 18 miesięcy od wejścia w życie AI Act, instytucje finansowe będą mogły w bardziej rzetelny sposób przygotować się do wdrażania praktycznych rozwiązań dotyczących zasad przejrzystości z AI Act.
Sankcje za niespełnienie wymogów transparentności
Spełnienie tych obowiązków jest o tyle istotne, iż brak ich wdrożenia może skutkować nałożeniem administracyjnej kary pieniężnej. Zgodnie z AI Act w przypadku niespełnienia obowiązków związanych z przejrzystością zarówno w stosunku do systemów AI wysokiego ryzyka, jak i innych systemów AI objętych takimi zasadami grozi administracyjna kara pieniężna w wysokości:
- do 15 000 000 EUR lub
- do 3% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego,
w zależności od tego, która z tych kwot jest wyższa.
Ponadto państwa członkowskie mogą ustanowić przepisy dotyczące innych środków egzekwowania prawa, które mogą obejmować także ostrzeżenia i środki niepieniężne. Jak widać, kary grożące za niespełnienie wymogów przejrzystości przewidziane w AI Act są znaczne.