Stan branży ubezpieczeniowej
Sektor ubezpieczeniowy należy do jednych z najbardziej uregulowanych i konkurencyjnych sektorów gospodarki. Zakłady ubezpieczeń oraz podmioty z nimi współpracujące, jak agenci ubezpieczeniowi czy likwidatorzy szkód, działają w środowisku wymagającym świadczenia usług bezpiecznych, atrakcyjnych cenowo przy jednoczesnym spełnieniu bardzo restrykcyjnych wymogów regulacyjnych.
Rozwiązania bazujące na AI są już szeroko stosowane w działalności ubezpieczeniowej, również na polskim rynku. Jako pionierskie wskazać tu można szkody komunikacyjne i sektor zdrowia. AI w tych sektorach, według największych polskich ubezpieczycieli, pomaga w procesie likwidacji szkody oraz usprawnienia kontaktu z klientami.
Sektor ubezpieczeniowy, dążąc do usprawnienia działalności biznesowej poprzez wykorzystanie sztucznej inteligencji, musi brać pod uwagę wymogi regulacyjne już na etapie wdrażania rozwiązań AI. Modyfikacja funkcjonujących systemów pod kątem zgodności z prawem może przekroczyć koszt wdrożenia samego systemu.
Aby uniknąć takich sytuacji, należy zapoznać się zarówno z projektowanym AI Act, ale również z innymi regulacjami technologicznymi, jak np. projekt DORA, Komunikatem Chmurowym UKNF z 23 stycznia 2020 r. lub Wytycznymi KNF dotyczącymi likwidacji szkód z ubezpieczeń komunikacyjnych opublikowanymi w lipcu 2022 r. (Wytyczne KNF).
Jak widać, wymogi regulacyjne to zarówno przepisy powszechnie obowiązujące, jak i wytyczne organów nadzorczych, które w zamyśle mają rozjaśniać wątpliwości interpretacyjne związane z przepisami prawa, jednak często prowadzą do nakładania nowych obowiązków na podmioty nadzorowane, w tym zakłady ubezpieczeń i agentów.
Biorąc pod uwagę jakość, jaką AI wnosi do branży ubezpieczeniowej, można spodziewać się jedynie wzrostu wykorzystania tego typu technologii w sektorze ubezpieczeniowym.
Wykorzystanie AI w sektorze ubezpieczeniowym
Najbardziej interesujące możliwości wykorzystania sztucznej inteligencji w sektorze ubezpieczeniowym można podzielić na kilka kategorii:
- Ulepszona analiza roszczenia – obejmuje m.in. scoring, wykrywanie anomalii i nieprawidłowości, behawioralne modelowanie zachowań, klasyfikację roszczeń według rodzaju i złożoności, a także zautomatyzowanie procesu płatności.
- Image recognition – rozpoznawanie obrazów przez AI w celu oszacowania kosztów naprawy, szczególnie w ubezpieczeniach majątkowych gospodarstw domowych i motoryzacyjnych.
- Ograniczanie strat – wykorzystanie AI do szacowania wartości strat, w szczególności w przypadku roszczeń o dużej częstotliwości.
- Digitalizacja dokumentów – szczególną uwagę zwrócić należy tutaj na tzw. systemy OCR, których główną funkcją jest rozpoznawanie ręcznie pisanych treści i przetwarzanie ich w sposób pozwalający na włączenie w zdigitalizowaną strukturę zakładu ubezpieczeniowego również osób nie korzystających z komputerów.
Powyższe kategorie należy rozpatrzyć w szczególności pod kątem legalności i zgodności z nadchodzącymi zmianami w prawie unijnym.
AI Act
Projekt rozporządzenia w sprawie sztucznej inteligencji opublikowany w kwietniu 2021 r. wywołał gorącą debatę, zarówno na poziomie unijnym, jak i poszczególnych państw członkowskich. Celem projektu było ustanowienie jednolitych zasad klasyfikowania systemów sztucznej inteligencji według poziomu ryzyka, jaki zgodnie z ustawą przypisywać będziemy danym systemom. Akt będzie prawdopodobnie podlegał pewnym modyfikacjom, szczególnie w zakresie treści niektórych definicji i zawartości kluczowych załączników, o czym niżej.
Główne postulaty wskazane przez unijnego ustawodawcę to przewodnia i nadzorcza rola człowieka, techniczna solidność i bezpieczeństwo, ochrona prywatności i zarządzanie danymi, przejrzystość, różnorodność, niedyskryminacja i sprawiedliwość, społeczny i środowiskowy dobrostan oraz odpowiedzialność. Wskazać można również na pewną myśl przewodnią towarzyszącą tej regulacji, jaką jest uzależnienie rygoryzmu przepisów od ryzyka związanego z określonym systemem. Szczególnie istotne będą systemy, których wykorzystanie zostanie uznane za zakazane praktyki, oraz systemy wysokiego ryzyka.
Za zakazane praktyki zostaną uznane:
- Manipulacja powodująca lub mogąca powodować szkodę fizyczną lub psychiczną
- Social scoring
- Identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych do celów egzekwowania prawa – z wyjątkiem:
- ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
- zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;
- wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie kwalifikowanych przestępstw objętych europejskim nakazem aresztowania (katalog: art. 2 ust. 2 Decyzji ramowej Rady 2002/584/WSiSW.
Za system wysokiego ryzyka uznaje się system sztucznej inteligencji, który:
- Przeznaczony jest do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w Załączniku II do rozporządzenia lub sam jest takim produktem.
- Musi to być również produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji podlegający jako produkt – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.
Za systemy wysokiego ryzyka w kontekście sektora ubezpieczeniowego uznaje się również te wymienione bezpośrednio w załączniku III:
- Identyfikacja i kategoryzacja biometryczna osób fizycznych;
- Zarządzanie infrastrukturą krytyczną i jej eksploatacja;
- Kształcenie i szkolenie zawodowe;Zatrudnienie pracowników i zarządzanie nimi oraz dostęp do samozatrudnienia;Dostęp do podstawowych usług prywatnych oraz usług i świadczeń publicznych, a także korzystanie z nich;Ściganie przestępstw;Zarządzanie migracją, azylem i kontrolą graniczną;
- Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne.
Uznanie danego systemu za system wysokiego ryzyka wiąże się z:
- Koniecznością spełnienia wielu wymogów w zakresie: wdrożenia systemów zarządzania, wprowadzenia kryteriów jakości danych, szczegółowej dokumentacji i analizy logów, przejrzystości i udostępniania informacji użytkownikom, nadzoru człowieka oraz dokładności, solidności i cyberbezpieczeństwa.