Nowe wskaźniki SLA w świetle nadchodzących przepisów Aktu o sztucznej inteligencji

Nowe wskaźniki SLA w świetle nadchodzących przepisów Aktu o sztucznej inteligencji


Service Level Agreement, czyli tzw. SLA, to typowa umowa wykorzystywana w branży IT, regulująca relację pomiędzy dostawcą systemu informatycznego, a jego odbiorcą. Zawiera oczekiwania stron względem jakości oprogramowania, które jest przedmiotem danej transakcji. Typowe parametry oceny systemu, które są powszechnie wykorzystywane w SLA do zmierzenia i monitorowania jakości oprogramowania, dostosowane są do tradycyjnych systemów informatycznych. Rozwój technologii pozwala jednak na tworzenie coraz bardziej różnorodnego oprogramowania, które znacznie różni się między sobą.

Przykładem technologii, która znacząco wyróżniła się na tle dotychczasowych rozwiązań informatycznych, są systemy i modele AI. Zasadnicza różnica polega na zdolności sztucznej inteligencji do uczenia się i adaptacji, a także zmienności pod wpływem czynników zewnętrznych. Czy jesteśmy zatem w stanie nadal skutecznie opisywać oczekiwaną jakość oprogramowania za pomocą standardowych wskaźników SLA, wymyślonych na potrzeby tradycyjnych rozwiązań cyfrowych?

Standardowe elementy SLA

W branży IT umowy SLA pełnią rolę gwarancyjną, zapewniając, że usługi informatyczne będą dostarczane na odpowiednim poziomie jakości. Są one nie tylko formalnym zobowiązaniem między dostawcą oprogramowania, a jego odbiorcą, ale również podstawą do mierzenia i oceny wydajności systemu.

Tradycyjne SLA skupiają się na parametrach ilościowych, których wysokość łatwo jest kontrolować. Podstawowe parametry związane są z reakcją dostawcy na wystąpienie awarii systemu. Spotykane są wskaźniki takie jak czas reakcji, który wskazuje termin w jakim serwisant musi zareagować na zgłoszenie błędu w systemie, najczęściej przez potwierdzenie otrzymania informacji. Kolejnym częstym parametrem tego rodzaju jest czas naprawy, który mobilizuje dostawcę do szybkiego przywrócenia poprawnego działania oprogramowania lub zapewnienia obejścia problemu, który pozwoli na korzystanie z systemu. Niekiedy w SLA można spotkać również inne wskaźniki dotyczące reagowania na awarie, jak np. czas diagnozy, który wskazuje w jakim terminie korzystający z systemu otrzymać ma wyjaśnienie źródła problemu. 



Ww. parametry jakości działania systemu mogą być niewystarczające, aby zapewnić bezproblemowe korzystanie z rozwiązania. Stąd, w niektórych umowach SLA występuje także wskaźnik dostępności systemu, który reguluje przez jaką część okresu rozliczeniowego użytkownik oprogramowania powinien móc bez przeszkód korzystać z rozwiązania. Jest to odpowiedź na patową sytuację, w której odbiorca oprogramowania nie może korzystać z rozwiązania wskutek częstego występowania błędów, naprawianych jednak w uzgodnionym terminie. Bez określenia parametru dostępności, jako wskaźnika uzupełniającego czas reakcji lub naprawy, opisana wyżej sytuacja nie powodowałaby żadnych sankcji po stronie dostawcy. Parametr dostępności zastąpiony może być oczywiście uzgodnieniem ilości błędów. To może powodować jednak trudności przy kształtowaniu definicji błędu w SLA.

W tradycyjnym SLA pojawiają się czasem także parametry odnoszące się bezpośrednio do działania systemu, jak przepustowość, czyli ilość danych, które mogą być przesyłane w określonym czasie lub maksymalny czas opóźnienia w przepływie informacji.

SLA systemów sztucznej inteligencji

W odniesieniu do systemów AI, tradycyjne parametry SLA mogą okazać się niewystarczające, aby zagwarantować użytkownikowi korzystanie z oprogramowania w sposób przez niego oczekiwany. Przede wszystkim sztuczna inteligencja powoduje inną dynamikę cyklu życia rozwiązania technologicznego. Algorytmy uczenia maszynowego lub przetwarzania języka naturalnego ewoluują i adaptują się w czasie, co może wpływać na ich wydajność i funkcjonowanie. Oznacza to, że sposób działania systemu może się zmieniać w toku jego wykorzystywania.

Co jednak ważniejsze, dotychczasowe parametry SLA pozwalały na prostą weryfikację, czy system wykonuje przeznaczone mu zadania nieprzerwanie z jednakową, określoną przez strony, szybkością. Natomiast w przypadku sztucznej inteligencji, ważniejsza może okazać się jakość, a nie ilość, wyników systemu. Wyniki te nie są bowiem jednakowe. Oznacza to, że w toku korzystania z modelu AI, oprogramowanie powinno podlegać bardziej złożonej weryfikacji, uwzględniającej oczekiwane cechy systemu. Strony nie będą uzgadniać już wyłącznie docelowej dostępności rozwiązania, lecz także szereg innych parametrów, monitorujących funkcjonowanie danego systemu i spełnienie przez niego założonej roli.

Do podobnego wniosku prowadzą przepisy nadchodzącego Rozporządzenia ws. sztucznej inteligencji (AI Act). Unijny ustawodawca wskazuje nam dwa nowe parametry, które powinny być monitorowane w przypadku każdego systemu sztucznej inteligencji wysokiego ryzyka. W art. 15 AI Act znajduje się wymóg, aby w dokumentacji oprogramowania pojawił się zakładany poziom dokładności (accuracy) oraz solidności (robustness).

Dokładność w systemach AI odnosi się do zdolności modelu do poprawnego klasyfikowania danych. Jest to podstawowy wskaźnik, który można obliczyć jako stosunek liczby poprawnych wyników do całkowitej liczby wyników. Przykładowo, weryfikacja systemu AI typu speech to text pod kątem dokładności będzie polegała na określeniu, ile próbek mowy zostało prawidłowo przekształcone na tekst. Natomiast w przypadku modelu wychwytującego spam w skrzynce mailowej zostanie sprawdzone, ile wiadomości zostało prawidłowo sklasyfikowanych.

Są oczywiście różne możliwości pomiaru dokładności. Powinny być one dostosowane do danego systemu. Jako przykłady metryk, które weryfikują jakość wyników systemu, wskazać można – poza wspomnianą już wyżej standardową miarą accuracy - takie jak:

  • precyzję (precision), która mierzy, jak wiele z przewidywanych pozytywnych wyników jest rzeczywiście pozytywnych,
  • czułość (recall), która mierzy, jak wiele z rzeczywistych pozytywnych przypadków zostało poprawnie zidentyfikowanych przez model
  • tzw. F1 Score, który jest harmoniczną średnią precyzji i czułości, używaną do oceny równowagi między ww. wskaźnikami.

Solidność systemu AI odnosi się natomiast do zdolności modelu do utrzymania wydajności w obliczu zakłóceń, takich jak zmiany w danych wejściowych lub ataki z zewnątrz. Przykładowo, oprogramowanie autonomicznych pojazdów powinno być odporne na zmienne okoliczności drogowe, a systemy oceny zdolności kredytowej na manipulację danymi klientów banku.

W ramach weryfikacji solidności, możemy zastosować metryki takie jak:

  • Stability Metrics, które mierzą, jak niewielkie zmiany w danych wejściowych wpływają na wyniki modelu.
  • Model Robustness, który ocenia odporność modelu na zmiany w danych treningowych. Może być mierzona poprzez porównanie wydajności modelu na oryginalnym zbiorze danych z jego wydajnością na zmodyfikowanych zbiorach danych.
  • Formal Verification, mają na celu zapewnienie, że model nie zmieni klasyfikacji w odpowiedzi na niewielkie modyfikacje danych wejściowych, np. wprowadzenie tzw. szumów.

Art. 15 AI Act wyróżnia dokładność i solidność jako obowiązkowe parametry weryfikacji systemu AI wysokiego ryzyka, gdyż ich wzajemny balans, jest kluczowy dla wiarygodności działania sztucznej inteligencji. W praktyce, dążenie do wysokiej dokładności może prowadzić do osłabienia odporności, co podkreśla potrzebę zrównoważonego podejścia w projektowaniu i oceny tego rodzaju oprogramowania.

Oczywiście analizowany przepis nie zamyka katalogu parametrów monitorowania systemów AI. Przeciwnie, zobowiązuje do wskazania w dokumentacji wszelkich istotnych parametrów oceny skuteczności działania oprogramowania.

Wymagania niefunkcjonalne, czy SLA?

Przepisy Rozporządzenia ws. sztucznej inteligencji wymagają, aby wskazane wyżej parametry znalazły się w dokumentacji systemu AI. Można sobie zatem wyobrazić sytuację, w której zakładana dokładność i solidność systemu stanowią wyłącznie element opisu wymagań niefunkcjonalnych. Lepszym rozwiązaniem jest jednak zawarcie ich w postanowieniach o charakterze SLA.

Przede wszystkim, standardowo parametry SLA są monitorowane cyklicznie, co jest rozwiązaniem bezpieczniejszym dla użytkownika systemu pozwalającym mu na zachowanie zgodności regulacyjnej. Po drugie, tradycyjnie SLA precyzuje sposób bieżącego reagowania przez dostawcę na obniżenie zakładanych parametrów oprogramowania, a co za tym idzie – na zmienność typową dla systemów AI. Natomiast, w przypadku niespełnienia przez system parametrów deklarowanych tylko jako wymaganie niefunkcjonalne, co do zasady konieczne byłoby wzywanie kontrahenta do należytego wykonywania umowy, a następnie oczekiwanie na jego reakcję. Dodatkowo, w ramach postanowień SLA zazwyczaj przewiduje się kary umowne, których celem jest motywowanie dostawcy do zapewnienia odpowiedniej jakości korzystania z systemu. To również ma znaczenie z perspektywy odbiorcy systemu, który zainteresowany jest przede wszystkim niezakłóconym korzystaniem z rozwiązania. 

Make AI Clear

Chcesz wiedzieć więcej o kwestiach prawnych związanych z AI?


Podsumowanie

Podsumowując, w kontekście systemów AI umowy SLA stają się bardziej złożonym narzędziem, niż miało to miejsce na gruncie tradycyjnego oprogramowania. Nie tylko zapewniają nieprzerwane korzystanie z rozwiązania, lecz także odpowiednią jakość wyników systemu oraz zgodność regulacyjną. W tym kontekście szczególnie istotne staje się precyzyjne uzgodnienie oczekiwań względem modelu sztucznej inteligencji, a także sposobu pomiaru rezultatów. 



Kontakt
Chcesz dowiedziec sie wiecej? Skontaktuj sie z nami.

Informacje

Autorzy


Polecane

Czy przepisy unijnego aktu w sprawie sztucznej inteligencji zmienią zasady przetwarzania danych osobowych w instytucjach finansowych?

Choć AI Act i RODO będą funkcjonować jako odrębne ramy prawne, ich wzajemne uzupełnianie się w kontekście przetwarzania danych osobowych za pomocą systemów AI może w pewnych przypadkach stwarzać po stronie instytucji finansowych konieczność zapewnienia zgodności z dwoma obowiązkami w zakresie danych osobowych. Będzie to szczególnie ważne dla instytucji finansowych, które w swojej działalności wykorzystują systemy AI klasyfikowane jako stwarzające wysokie ryzyko. Należy jednak pamiętać, że RODO wciąż będzie wyznaczać główne obowiązki w kontekście przetwarzania danych osobowych w systemie AI i związanej z tym ochrony praw osób, których dane dotyczą.

Prawo i AI: Legalne labirynty sztucznej inteligencji

Jakie są prawne wyzwania związane z wdrożeniem sztucznej inteligencji (AI)? Dlaczego prawidłowe zabezpieczenie implementacji rozwiązań AI jest kluczowe dla bezpiecznego funkcjonowania przedsiębiorstw? O czym warto pamiętać przekształcając biznes z AI?

Sztuczna inteligencja (AI) w compliance

AI może budować przewagę konkurencyjną oraz znacznie redukować koszty prowadzenia działalności. Co warto wiedzieć o AI compliance? Od czego zacząć?