Wpływ zakazów na manipulację i autonomię klienta
Prawodawca europejski, wdrażając AI Act, przede wszystkim podjął próbę wyznaczenia granic w zakresie wpływu AI na decyzje użytkowników, przeciwdziałając manipulacji, która może ograniczać ich autonomię. Uregulowany w przepisach zakaz ma być środkiem przeciwdziałania sytuacjom, w których system AI przy wykorzystaniu określonych technik podprogowych, manipulacyjnych czy wprowadzających w błąd wpływałby na klientów banków i instytucji finansowych w sposób dla nich niekorzystny.
Zakaz ten dotyczy również zastosowań, w których sztuczna inteligencja mogłaby subtelnie wpływać na decyzje finansowe użytkowników, takie jak wybór produktu kredytowego czy inwestycyjnego, bez ich świadomej percepcji. Na podstawie przepisów AI Act takie techniki, chociaż mogłyby potencjalnie zwiększyć sprzedaż usług, są zakazane, gdyż potencjalnie ograniczają prawo klientów do podejmowania świadomych decyzji finansowych.
Wykorzystywanie słabości klienta – etyczne wyzwania AI w finansach
Kolejną istotną kwestią, która znalazła odbicie w regulacji AI Act, jest ochrona osób szczególnie narażonych na manipulację w wyniku ich sytuacji życiowej, wiekowej czy ekonomicznej. Zakazy dotyczące takich praktyk mają przeciwdziałać sytuacjom, w których systemy AI mogłyby, np. w celu promowania produktów w sposób niekorzystny dla sytuacji finansowej klientów, wykorzystywać określone słabości osób, aby wywołać niekorzystne zmiany ich zachowania.
W praktyce oznacza to, że podmioty sektora finansowego muszą unikać działań, w których systemy AI profilowałyby np. seniorów lub osoby mniej świadome finansowo, nakłaniając je do korzystania z usług kredytowych o wysokim oprocentowaniu lub do dokonywania skomplikowanych inwestycji.
Scoring społeczny i ocena kredytowa – ryzyko dyskryminacji
Obszar zakazów w AI Act obejmuje także scoring społeczny, uznany za szczególnie niebezpieczny ze względu na potencjalne ryzyko dyskryminacji. Przepisy te są kluczowe dla instytucji finansowych, które często korzystają z narzędzi scoringowych do oceny ryzyka kredytowego. AI Act wymaga jednak, aby systemy AI ograniczały się do analizy wyłącznie tych danych, które są bezpośrednio powiązane z sytuacją finansową klienta, takich jak historia kredytowa lub wysokość dochodów.
Scoring nie może prowadzić do dyskryminacji ani wykluczenia osób na podstawie czynników osobistych czy społecznych, które nie są związane z ich sytuacją finansową. Banki, aby zachować zgodność z przepisami, muszą zapewnić, że ocena klientów będzie opierać się wyłącznie na wiarygodnych danych finansowych, bez uwzględniania nieistotnych informacji społecznych, co wspiera uczciwość i transparentność w ocenie ryzyka.
Zakaz kategoryzacji biometrycznej – poszanowanie prywatności klientów
Przepisy AI Act wprowadzają także zakaz kategoryzacji klientów na podstawie danych biometrycznych, w szczególności gdyby miało to służyć wyciąganiu wniosków na temat ich niektórych cech, takich jak przynależność religijna, poglądy polityczne czy orientacja seksualna.
Tego rodzaju działania są uznane za szczególnie inwazyjne i naruszające prywatność. W przypadku sektora finansowego oznacza to, że banki nie mogą stosować technologii AI do przypisywania klientom niektórych cech osobowościowych na podstawie analizy danych biometrycznych w celu wydedukowania lub wywnioskowania informacji na temat opinii politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, rasy, życia seksualnego lub orientacji seksualnej danej osoby.
Systemy przewidywania przestępczości a ryzyko nadużyć w finansach
Kwestia profilowania pod kątem przewidywanego ryzyka przestępczego to kolejny istotny obszar uregulowany w AI Act. Sektor finansowy, zwłaszcza banki, korzysta z zaawansowanych systemów monitorowania oszustw, co wymaga, aby prognozy ryzyka bazowały wyłącznie na obiektywnych i sprawdzalnych danych. AI Act zakazuje tworzenia systemów przewidywania przestępstw opartych wyłącznie na profilowaniu, ocenie cech osobowych lub osobowościowych.