Agile: Organizacja zwinna – jak osiągać najlepsze efekty projektów?

Wdrożenie AI, czyli jak korzystać ze sztucznej inteligencji?


ChatGPT został udostępniony dla szerokiego grona użytkowników w listopadzie 2022 r. Od tego momentu obserwujemy bardzo duży wzrost zainteresowania wykorzystaniem sztucznej inteligencji (AI). Zarówno użytkownicy indywidualni, jak również firmy i organizacje reprezentujące niemal każdą branżę zastanawiają się, w jaki sposób wykorzystać potencjał nowych technologii. Mnogość pomysłów, szeroki dostęp do narzędzi AI i łatwość w eksperymentowaniu powodują pokusę różnorodnego wykorzystania tej technologii. Jednym ze scenariuszy jest wdrożenie AI, by szybko zbudować nową wartość biznesową, wspierać pracowników, a także zoptymalizować i zautomatyzować procesy.

Jakie aspekty należy wziąć pod uwagę, by w pełni wykorzystać możliwości sztucznej inteligencji i wdrożyć ją z sukcesem, a w efekcie - czerpiąc długoterminowe korzyści?

Modele AI i ich rozwój w ostatnich latach

„Artificial Intelligence Index Report 2022” opracowany przez Uniwersytet Stanforda szacuje na przykładzie systemu do klasyfikacji obrazów, że od 2018 koszt wytrenowania modelu spadł o ponad połowę, a czas niezbędny do wytrenowania skrócił się o prawie 95%.

Raport zwraca też uwagę, że trenowanie odbywa się w sposób bardziej ogólny, więc i wytrenowane modele posiadają szersze spektrum zastosowań. Efektywnie zwiększa się więc dostępność i skuteczność modeli, zatem teoretycznie łatwiej jest osiągnąć korzyść biznesową. Natomiast wskaźniki sukcesu historycznie nie są bardzo wysokie. Najczęściej pojawiające się liczby oscylują wokół 50% projektów, które z fazy prototypowania przechodzą do fazy budowy rozwiązania (Gartner). Dalej tylko część z nich zostaje zbudowana z sukcesem i jeszcze mniejsza część przynosi korzyść biznesową. MIT Sloan Management Review w 2020 roku podawał, że była to 1 na 10 firm.

Pojawienie się łatwo dostępnych, pre-trenowanych dużych modeli językowych (ang. large language models, LLM) - których reprezentantami są modele z rodziny GPT – dalej zwiększa możliwości AI i obniża barierę wejścia, nie zmienia natomiast kluczowych wyzwań wokół implementacji systemów inteligentnych. Posiadają one swoją definiującą specyfikę, która odróżnia je pod wieloma względami od standardowych wdrożeń software’owych i musi być odpowiednio wzięta pod uwagę, żeby przedsięwzięcie mogło przynieść zamierzone korzyści biznesowe.

Często niedoceniane są ograniczenia jakie wciąż posiadają modele sztucznej inteligencji. Powodują one, że innowacyjne pomysły na usprawnienia, pomimo obiecujących wyników eksperymentów kończą się porażką. Przyczyn może być wiele, a ich świadomość przyczyni się do zwiększenia szans na sukces związany z wykorzystaniem AI w nowoczesnej organizacji.

Aby dobrze zrozumieć możliwości, ograniczenia i ryzyka związane z wykorzystaniem Sztucznej Inteligencji, wyjaśnijmy w pierwszej kolejności kluczowy aspekt z tym związany.


Uczenie maszynowe a ludzkie – jak uczy się sztuczna inteligencja?

Jak uczą się ludzie?

Uczenie się jest fundamentalnym aspektem rozwoju człowieka. Ludzie uczą się od najmłodszych lat przetwarzając ogromne ilości informacji. Wykorzystujemy do tego swoje zmysły – wzrok, słuch, dotyk, smak, powonienie, aby doświadczać świata, pobierać z niego informacji i dane. Mózg człowieka nieustanie analizuje dane łącząc je z wcześniej zdobytą wiedzą oraz rozbudowując połączenia nerwowe. Efektem tego procesu jest zdolność formułowania wniosków i wykorzystywania ich do rozwiązywania różnych problemów. Dzięki temu, w kreatywny sposób człowiek potrafi wyuczone umiejętności i wiedzę wykorzystywać w zupełnie innym kontekście niż ten, w którym nabył daną umiejętność.

Uczenie maszynowe w AI

Sposób uczenia maszynowego czy w ogólności sztucznej inteligencji jest odmienny. Polega na dostarczeniu ogromnej ilości danych, które są analizowane przez algorytmy, aby wykryć wzorce i zrozumieć zależności czy sklasyfikować dane wejściowe. Uczenie maszynowe odbywa się w powtarzanych miliony razy pętlach zakończonych obliczeniem poziomu błędu jaki dane uczące odstają od oczekiwanego wyniku. W toku uczenia poziom tego błędu obniża się, a kiedy osiągnie odpowiednio niski poziom, model Sztucznej Inteligencji uznaje się za wytrenowany do danego zadania.

W przypadku Sztucznej Inteligencji (AI), która potrafi generować nowe treści, proces uczenia składa się w wielokrotnie powtarzanych iteracji trenowania dwóch komponentów: generatora i dyskryminatora. W pierwszym etapie wstępnemu uczeniu na bazie prawdziwych danych, podawany jest dyskryminator. Jego zadaniem jest rozpoznawanie czy dane są autentyczne. W kolejnych krokach uczony jest generator, który początkowo tworzy w sposób losowy nowe treści, a dyskryminator ocenia ich prawdziwość. Proces ewoluuje w toku wielu iteracji. Podczas nich, generator uczy się tworzyć tak wiarygodne treści, aby dyskryminator uznał je za prawdziwe. Z kolei dyskryminator staje się bardziej wrażliwy na subtelne różnice między wygenerowanymi a autentycznymi danymi.

Elastyczność uczenia ludzi jest znacznie większa niż maszyn. Pomimo, że potrzebne są do tego lata ciągłej nauki, to ludzie potrafią wykorzystać zdobytą wiedze w wielu dziedzinach, łączyć wiedzę z różnych obszarów i wykorzystywać ją do kreatywnego tworzenia nowych oraz do podejmowania decyzji. Natomiast maszyny, pomimo bardzo krótkiego w porównaniu z człowiekiem czasu jaki potrzebują do nauki, są zdecydowanie bardziej wyspecjalizowane w realizacji konkretnych zadań.

Zarówno ludzie jak i maszyny uczą się na błędach

Cały proces uczenia polega na sukcesywnym obniżaniu poziomu błędu, jaki model AI generuje na podstawie danych testowych. Wynikają z tego dwa kluczowe aspekty mające wpływ na dokładność modelu, a w konsekwencji na wartość biznesową jaką może wygenerować AI. Okazuje się, że zasada „śmieci na wejściu, śmieci na wyjściu” działa również w tym obszarze.

Często okazuje się, że największym wyzwaniem w projektach wdrożenia AI jest przygotowanie odpowiednio sformatowanych i wyczyszczonych danych. Poza samym aspektem technicznym ważnym czynnikiem jest rozkład danych uczących oraz testowych. Jednym z problemów jakie mogą pojawić się w wyniku uczenia modelu na źle dobranych danych jest ‘skrzywienie’ w konkretnym kierunku. Na przykład, model oceniający CV w zautomatyzowanym procesie rekrutacyjnym może być ‘zdeformowany’ i preferować aplikacje złożone przez mężczyzn.

Ilość danych potrzebna do wytrenowania AI zależy od kilku czynników, tj. rodzaj problemu, złożoność modelu AI i oczekiwanej dokładności. W ogólnym ujęciu oznacza to, że im większa ilość danych treningowych, tym lepiej. Dane umożliwiają modelowi lepsze zrozumienie zależności i wzorców w danych. Na przykład popularny zbiór danych ImageNet zawiera ponad 1,2 miliona oznaczonych obrazów należących do 1000 różnych klas. Korzystanie z tak dużego zbioru danych pozwala modelowi na naukę szerokiego zakresu wzorców, co przekłada się na lepszą zdolność rozpoznawania.

Te dwa aspekty są istotnym wyzwaniem w szczególności dla modeli, które wymagają uczenia z nadzorem. Oznacza to, że poza posiadaniem samych danych wejściowych, ważne jest osiągnięcie oczekiwanych rezultatów, co często oznacza żmudną analizę i oznaczanie danych przez człowieka.

W przypadku generatywnych modeli można spotkać błędy określane jako halucynowanie AI. Halucynowanie w modelach językowych odnosi się do procesu generowania tekstu lub zdań przez model, który może wydawać się autentyczny, ale w rzeczywistości jest wytworem modelu i nie posiada źródła w prawdziwych danych. Dla modeli generujących obrazy AI może stworzyć wyimaginowane lub dziwaczne obrazy, które nie mają odpowiednika w świecie rzeczywistym – np. zdjęcie człowieka, który ma nienaturalnie powykrzywiane kończyny lub dłonie, które mają sześć palców.

Nie jest możliwe, by model osiągnął 100% możliwości. Poziom 90%+ jest osiągalny dla niektórych klas dobrze zdefiniowanych problemów, ale jego otrzymanie staje się bardzo kosztowne. Podsumowując, jeżeli planujemy wykorzystywać AI, należy zaakceptować pewien poziom błędów modelu, jaki zostanie wytrenowany a następnie wykorzystywany w rozwiązywaniu realnych problemów.

Jak świadomie i odpowiedzialnie wdrażać AI w organizacji?

Proces wdrażania:

Wdrożenie SI to skomplikowany proces, który warto rozplanować w czasie i zacząć od mniejszych prób, aby sukcesywnie rozszerzać skale działania.

Wdrożenie inteligentnego systemu podlega pewnemu procesowi, który ma charakter iteracyjny i tak jak sam model – adaptacyjny. W konsekwencji, kształt rozwiązania nie jest z góry zdefiniowany, ale projektowany w trakcie jego budowy – zgodnie z wnioskami płynącymi z zachowania danych i modeli – tak, aby wnieść jak największą wartość.

W praktyce proces zazwyczaj rozpoczyna się fazą prototypowania i eksperymentowania, która jest w różnym stopniu obecna na kolejnych etapach wdrożenia. Powyższe jest dowodem na to, że nie są to rozwiązania czysto technologiczne, ale powstają one na pograniczu technologii oraz biznesu. Oddelegowując ich budowę wyłącznie do zespołu technologicznego, organizacje ryzykują, że podejmowane po drodze decyzje nie doprowadzą do zamierzonej wartości.

Nietechnologiczne skutki wdrożenia są częstym zjawiskiem, co jest związane ze zmianami ról, procesów, powstawaniem nowej oferty czy wręcz modeli biznesowych. Takie zmiany muszą być zarządzone z odpowiedniego poziomu. W takiej sytuacji niezbędne jest partnerstwo i zaangażowana współpraca między technologią a liderami biznesu w trakcie całego procesu oraz akceptacja dla jego adaptacyjnej oraz transformacyjnej natury.

Kiedy eksperymenty potwierdzą założenia stawiane AI w rozwiązaniu konkretnych problemów biznesowych, możliwe jest przejście do kolejnego etapu – budowy minimalistycznej wersji produktu (ang. MVP – Minimal Viable Product). Podejście to pozwala na wykorzystaniu efektów, jakie uzyskaliśmy w poprzednim kroku aby rozbudować SI o inne wymagane i użyteczne funkcje.

O ile za eksperymenty często odpowiedzialne są osoby techniczne, biegle znające narzędzia AI, o tyle MVP używane będzie przez docelową grupę odbiorców. Jeżeli AI ma rozwiązywać problemy Klienta końcowego organizacji, nie można zakładać, że Klient będzie posiadał taka samą wiedzę techniczną, aby skorzystać z wyników eksperymentu. To kolejny etap wymagający inwestycji w celu opracowania intuicyjnego, prostego w użyciu dla odbiorcy końcowego narzędzia AI. Taki produkt można ‘wypuścić’ na rynek (albo wdrożyć wewnętrznie w organizacji), a następnie na bazie informacji zwrotnej od użytkowników, rozbudowywać i udoskonalać, tak aby odpowiadał na potrzeby całej grupy docelowej.

Ostatni krok wdrożenia polega na dostosowaniu AI i implementacji na szeroką skalę. Dwa główne aspekty tej decyzji:

  1. Aspekt inwestycyjny związany z rozbudową i dostosowaniem AI do potrzeb użytkowników. Bardzo częstym zaskoczeniem dla organizacji wdrażających AI (ale również inne narzędzia IT) jest zderzenie oryginalnych założeń i pomysłów z informacją zwrotną z rynku.
  2. Potencjalne retrenowanie modelu. Etap eksperymentowania prowadzony był wewnątrz, w oderwaniu od aktualnych i realnych danych. Nawet, gdy do wytrenowania modelu wykorzystane były produkcyjne i realne dane, nie odpowiadają one pełnemu spektrum możliwości, jakie pojawiły się w etapie MVP może okazać się, że pozytywnie zweryfikowane w etapie eksperymentu modele nie sprawdzają się w realiach produkcyjnych.

Biorąc pod uwagę powyższe, organizacje mogą podjąć racjonalną decyzję o rozbudowie/douczeniu modelu i wejściu pełną skalą na rynek. Decydując się na ten krok należy uwzględnić również szerszą perspektywę czasową, gdyż to dopiero początek cyklu życia modelu.

Monitorowanie, rozwoju modeli AI

Monitorowanie modeli jest kluczowe dla ich optymalnego działania. Z czasem, gdy pojawiają się nowe dane lub nowe okoliczności, modele AI wymagają douczania.

Kluczową cechą systemów inteligentnych są możliwości adaptacji. To powoduje, że ich zachowanie może zmieniać się w czasie na skutek zmian w danych (np. ang. data drift) lub dalszego uczenia (np. ang. active learning). W konsekwencji, działanie wdrożonych modeli musi być na bieżąco monitorowane pod względem poprawności (ang. accuracy) oraz  możliwych obciążeń (ang. bias).

Z czasem mogą  pojawiać się nowe wzorce zachowań, które też będą wymagały zmian w systemie. Przy wykorzystaniu odpowiednich narzędzi proces ten może być w dużym stopniu zautomatyzowany, Trzeba jednak pamiętać, że działający system AI wymaga nie tylko obsługi błędów jak system software’owy, ale także opieki merytorycznej, która od początku powinna być odpowiednio uwzględniona i zaplanowana.

Duża liczba modeli AI i platforma do ich zarządzania

Dojrzałe organizacje posiadają platformy do zarządzania modelami AI. Systemy AI są na ogół systemami wdrażanymi, aby w czasie rzeczywistym (lub prawie rzeczywistym) wspierać procesy biznesowe. Niezależnie do tego, czy będą umożliwiały interaktywny dostęp do bazy wiedzy, personalizowały oferty dla klientów, czy rekomendowały optymalne nastawy dla procesów produkcyjnych, muszą działać sprawnie i niezawodnie. Przy poziomie skomplikowania architektury tych systemów i wykonywanych obliczeń, wymaga to odpowiednio zaprojektowanej platformy technologicznej.

Praktycznie wszyscy najwięksi dostawcy chmurowi zapewniają niezbędne narzędzia. Natomiast właściwy dobór komponentów i zaprojektowanie odpowiedniej komunikacji między nimi jest kluczowe nie tylko dla sprawnego działania systemu, ale także dla bezpieczeństwa danych, kosztów i czasu budowy, a następnie utrzymania narzędzia pod względem pracochłonności oraz zasobów obliczeniowych. Jak najwcześniej powinny zostać zadane pytania o to, gdzie rozwiązanie będzie budowane i jak będzie udostępniane oraz monitorowane.

digITal first

Cyfrowa transformacja, rozwiązania chmurowe, narzędzia CX, automatyzacja testów, przetwarzanie danych w czasie rzeczywistym – Czy wiesz, jakie długoterminowe efekty możesz osiągnąć dzięki dynamicznie postępującej technologii?

 

Sprawdź

Koszty finansowe i środowiskowe – ślad węglowy

Ze względu na wysokie zużycie mocy obliczeniowych i związanej z nimi energii, nieefektywności we wdrożeniu systemów AI przekładają się nie tylko na koszty dla organizacji, ale także na koszty dla środowiska. Emisje związane z wykorzystaniem AI stają się coraz bardziej istotnym problemem. Według badań przedstawionych przez MIT Technology Review, wytrenowanie jednego modelu AI może generować ponad 626 000 funtów równoważnika dwutlenku węgla - niemal pięć razy więcej niż średnie emisje samochodu w USA w ciągu całego jego życia.

Według badań przedstawionych przez MIT Technology Review, wytrenowanie jednego modelu AI może generować ponad
funtów równoważnika dwutlenku węgla

Natomiast MIT raportuje, że chmura obliczeniowa ma większy ślad węglowy niż cały przemysł lotniczy, a pojedyncze centrum danych może zużywać energię elektryczną równoważną 50 000 domów.

Powyższe statystyki ukazują rosnące wyzwanie związane z ograniczeniem wpływu AI na środowisko i jednocześnie stanową dodatkową motywację do racjonalnego wykorzystania możliwości wynikającej z tej technologii.


Podsumowanie

Sztuczna inteligencja jest coraz częściej wykorzystywana przez różne branże. Szkoła Stanforda zauważa, że koszty szkolenia modelu spadły o ponad 50% od 2018 roku, a czas potrzebny na naukę skrócił się o prawie 95%. Jednak kluczowym wyzwaniem jest implementacja AI.

Wdrażanie AI to proces, który zaczyna się od eksperymentowania, przechodzi przez budowę minimalnej wersji produktu do rozbudowy i skalowania. Jest skomplikowany, ale można go ułatwić, planując go odpowiednio i zaczynając od małych prób. Istotne jest również monitorowanie modeli w czasie, a następnie ich dostosowanie do nowych danych czy okoliczności. Kolejnym kluczowym aspektem jest zrozumienie, że modele AI nadal mają swoje ograniczenia i mogą generować błędy. Należy również pamiętać, że wdrażanie AI wiąże się z pewnymi kosztami, zarówno finansowymi, jak i środowiskowymi, ze względu na ich duże zużycie energii.


Raport EY - Jak polskie firmy wdrażają AI

Jak wygląda wdrożenie narzędzi sztucznej inteligencji w polskich firmach? Jaka motywacja stoi za tym procesem? Jakie korzyści daje zastosowanie rozwiązań AI w przedsiębiorstwach? I w końcu, jakie bariery napotykają firmy we wprowadzeniu narzędzi AI? Na te pytania odpowiadamy w najnowszym raporcie EY o sztucznej inteligencji. 

Kontakt
Chcesz dowiedzieć się więcej? Skontaktuj się z nami.

Informacje

Autorzy

Polecane artykuły

Jaki wpływ będzie miała sztuczna inteligencja na dynamikę rynku pracy?

W ostatnich miesiącach rozogrzała dyskusja dotycząca sztucznej inteligencji, której głównym powodem był ChatGPT (Generative Pre-trained Transformer). To stworzony przez OpenAI chatbot – interaktywne narzędzie, które dzięki wykorzystaniu sztucznej inteligencji ma za zadanie imitować ludzką interakcję.

Organizacje data-driven. Jak przekroczyć horyzonty hype’u?

W ostatnich latach nastąpiła rewolucja w danych, a firmy w sektorze finansowym dążą do stania się organizacjami data-driven. Ich celem jest podejmowanie przemyślanych, perspektywicznych decyzji poprzez wykorzystanie danych do automatyzacji procesów, oferowania nowych produktów, personalizacji usług oraz wdrażania nowoczesnych metod zarządzania cenami i relacjami z klientami.