Źródło: EY European Financial Services AI Survey, 2023 r.
Istotne są również zobowiązania prawne i zagrożenia regulacyjne, od potencjalnych naruszeń praw autorskich i własności intelektualnej, przez naruszenia dotyczące wykorzystania danych, po zgodność z ogólnym rozporządzeniem o ochronie danych. Powszechna niepewność co do tego, co jest dozwolone, a co przedsiębiorstwa będą zobowiązane zgłaszać, jest poważnym problemem.
Etyczne wykorzystanie sztucznej inteligencji będzie miało istotny wpływ na zaufanie konsumentów do rynku ubezpieczeniowego. Dla ubezpieczycieli priorytetem musi być ochrona przed wprowadzaniem stronniczości i niesprawiedliwymi wynikami w zakresie pokrycia, cen i decyzji dotyczących roszczeń. Przejrzystość procesów opartych na sztucznej inteligencji – zwłaszcza gdy w grę wchodzą wrażliwe dane klientów – ma zasadnicze znaczenie dla budowania zaufania wśród klientów, partnerów i organów regulacyjnych.
Ubezpieczyciele pozostają dość ostrożni, jeśli chodzi o wdrażanie sztucznej inteligencji w działaniach skierowanych do klientów. Nie jest to niespodzianką, biorąc pod uwagę brak jasności regulacyjnej.
Zrozumienie zagrożeń związanych ze sztuczną inteligencją oraz etyczne jej wykorzystywanie
Sztuczna inteligencja może przynieść znaczne korzyści, od zwiększonej efektywności operacyjnej i obniżonych kosztów, po lepsze doświadczenia klientów i większą inteligencję predykcyjną. Ale ryzyko – w szczególności finansowe, regulacyjne czy reputacyjne – jest tak samo znaczące, jak potencjalne korzyści i ściśle są one ze sobą powiązane. Maksymalizacja zwrotu z inwestycji w sztuczną inteligencję wymaga kompleksowego zrozumienia tych ryzyk, w tym tych, które są unikalne dla poszczególnych firm lub określonych części organizacji. Zagrożenia te obejmują m.in.:
- Dane wrażliwe
- Kwestie związane z przejrzystością
- Tendencyjne i fałszywe wyniki
- Zrównoważoną współpracę między człowiekiem a sztuczną inteligencją
- Obawy dotyczące prywatności
- Niezawodnosc i powtarzalność procesów
- Cyber
Ponieważ wyzwanie jest interdyscyplinarne w danej firmie dyrektor ds. ryzyka (CRO), dyrektor ds. informatyki (CIO) i dyrektor ds. zgodności (CCO) powinni współpracować ze sobą w celu stworzenia ram niezbędnych do realizacji zastosowań sztucznej inteligencji w bezpieczny i kontrolowany sposób w swojej organizacji.
Dobrą praktyką w tym zakresie może być:
- Powołanie komisji etycznej ds. sztucznej inteligencji z doświadczonymi specjalistami, która będzie ustalać zasady etycznego użytkowania i rozstrzygać delikatne spory.
- Zapewnienie, że organizacja posiada kompleksowe ramy zarządzania ryzykiem, zgodne z nowymi wymaganiami, z jasno zdefiniowaną odpowiedzialnością za cały cykl życia sztucznej inteligencji.
- Edukowanie i szkolenie pracowników w zakresie korzyści i zagrożeń związanych ze sztuczną inteligencją w różnych funkcjach i procesach.
- Utrzymywanie kompleksowej bazy danych aplikacji AI w całej firmie, w tym dostarczanych przez zewnętrznych dostawców, która w pełni dokumentuje dane i procesy wykorzystywane do trenowania modeli.
Systematyczne wprowadzanie takich zmian może być trudnym i długotrwałym procesem. Dlatego tak ważne jest, aby działać już dziś. Im szybciej zostanie ustanowione środowisko zarządzania i kontroli, tym szybciej ubezpieczyciele będą w stanie dostosować się do nowych przepisów i – co ważniejsze – zacząć gene rować zwroty z inwestycji w sztuczną inteligencję.
Perspektywy regulacyjne dotyczące sztucznej inteligencji
Organy regulacyjne na całym świecie aktywnie pracują nad wytycznymi i wstępnymi przepisami dotyczącymi wdrażania sztucznej inteligencji. Powszechna dostępność aplikacji GenAI sprawiła, że zadanie stało się pilniejsze. Zakres wdrażanych regulacji może być jednak różny w zależności od miejsca, co będzie przekładało się na praktyki zastosowań AI na lokalnych rynkach. Stany Zjednoczone prawdopodobnie będą powoli przyjmować tylko ograniczone regulacje, podczas gdy europejscy ubezpieczyciele przygotowują się do kompleksowego prawodawstwa w postaci unijnego aktu w sprawie sztucznej inteligencji, co do którego osiągnięto porozumienie polityczne 8 grudnia 2023 r. Firmy technologiczne i inwestorzy venture capital ostrzegają, że kompleksowe regulacje mogą osłabić innowacje i zaszkodzić konkurencyjności. Proponowany przez Komisję Europejską akt w sprawie sztucznej inteligencji opiera się na klasyfikacji systemów sztucznej inteligencji w oparciu o kryterium ryzyka. W ramach tzw. systemów sztucznej inteligencji wysokiego ryzyka ujęte zostały niektóre aspekty działalności ubezpieczeniowej, szczególnie w sektorze ubezpieczeń zdrowia i życia. Nie oznacza to oczywiście, że rozwiązania bazujące na nowych technologiach nie będą mogły być z sukcesem wdrażane w branży. Konieczne będzie jednak zapewnienie zgodności z tymi przepisami, tak aby jednocześnie zapewnić bezpieczeństwo użytkowników oraz umożliwić innowacje i dalszy rozwój sektora.
2. Społeczna odpowiedzialność sektora
Od pandemii i klęsk żywiołowych po nierówności ekonomiczne i zmiany demograficzne, wydarzenia ostatnich lat skłoniły więcej osób do zastanowienia się nad społeczną rolą biznesu i odpowiedzialnością, jaką duże firmy mają wobec obywateli i społeczności na całym świecie. Pojawienie się ruchu ESG (Environmental, Social and Governance) podniosło poprzeczkę dla wszystkich rodzajów przedsiębiorstw, które muszą podejmować celowe zobowiązania, zdecydować się na znaczące działania w celu ich realizacji i raportować swoje wyniki.
Konsumenci i inwestorzy są coraz bardziej zgodni co do tego, że ubezpieczyciele mogą i muszą dostarczać wartość społeczną. Ubezpieczyciele znajdują się w centrum uwagi ze względu na swoją głęboką wiedzę na temat ryzyka i wyjątkową zdolność do ochrony ludzi, rodzin i firm o różnych kształtach i rozmiarach.