Jak sztuczna inteligencja wpłynie na compliance w organizacjach

Jak sztuczna inteligencja wpłynie na compliance w organizacjach


Branża usług finansowych, która często bazuje na przestarzałej technologii, obarczona jest wysokim ryzykiem. 


W skrócie

  • Nowe technologie, związane ze sztuczną inteligencją, zmuszą specjalistów do spraw zgodności do ponownego przemyślenia istniejących modeli operacyjnych i podejścia do zarządzania ryzykiem.
  • Regulatorzy i liderzy biznesowi będą musieli wziąć pod uwagę praktyczne możliwości i zagrożenia związane ze sztuczną inteligencją, kierując jej wdrażaniem.

Prawdopodobnie rok 2023 zostanie zapamiętany jako moment, w którym sztuczna inteligencja (AI) wykonała ogromny przeskok od teoretycznych możliwości do namacalnych szans. Podobnie jak pojawienie się kryptowaluty na początku 2010 roku wywołało ogromne zainteresowanie potencjalnymi przypadkami użycia rozproszonych ksiąg rachunkowych i zdecentralizowanych zasobów wirtualnych, tak ostatnie osiągnięcia w dziedzinie deep learningu i rozumowaniu obliczeniowym (ang. computational reasoning) wywołały szeroką dyskusję na temat potencjalnych zastosowań sztucznej inteligencji w całym świecie biznesowym. W miarę jak nowe technologie sztucznej inteligencji zaczną pojawiać się w branży usług finansowych, specjaliści ds. zgodności będą zmuszeni do ponownego przemyślenia istniejących modeli operacyjnych i tradycyjnego podejścia do zarządzania ryzykiem. Powinni podchodzić do tego z ostrożnym optymizmem.

Za rogiem ¹

W listopadzie 2022 r. firma technologiczna OpenAI uruchomiła Chat GPT, chatbota wykorzystującego duży model językowej sztucznej inteligencji wytrenowanego na miliardach parametrów, który wykazywał imponującą zdolność do odpowiadania na abstrakcyjne pytania, zdawania testów umiejętności, tworzenia tekstu z modyfikacją stylu i generowania fachowych odpowiedzi na pytania na większość poleceń (ang. prompts)użytkowników. Od 2019 roku OpenAI współpracuje z Microsoftem w celu budowania platform superkomputerowych (ang. supercomputing platforms), umożliwiających podejmowanie inicjatyw w zakresie deep learingu, które doprowadziły do ​​powstania Chatu GPT. W styczniu 2023 r. Microsoft podwoił swoje partnerstwo, ogłaszając wielomiliardową inwestycję w OpenAI. Ta decyzja firmy Microsoft, jednego z wiodących na świecie dostawców oprogramowania biznesowego, sugeruje, że generatywne modele sztucznej inteligencji, takie jak Chat GPT, wkrótce zaczną pojawiać się w miejscach pracy.

Branża usług finansowych to dziedzina, oparta na szybkości, marży i precyzji, która nadal często działa przy użyciu przestarzałej  technologii i pracochłonnych procesów. Stwarza to możliwości do zmian, szczególnie w obszarze zarządzania zgodnością. 

Diverse International Team of Industrial Engineers and Scientists Working in Research Laboratory / Development Center. People Working on New Efficient Engine Concept Design. Professionals Teamwork
1

Rozdział

Namacalna szansa

W miarę pojawiania się coraz skuteczniejszych narzędzi sztucznej inteligencji, liderzy będą rozszerzać podstawowe elementy modelu programu compliance.

W przeszłości specjaliści compliance traktowali innowacje technologiczne ze sceptycyzmem. Ryzyko finansowe, prawne oraz związane z reputacją, są związane z karnymi działaniami regulacyjnymi zachęcającymi działy zgodności do przyjęcia „podejścia opartego na strachu” do zarządzania ryzykiem, przedkładając unikanie kontroli regulacji nad kwestie wydajności operacyjnej lub optymalizacji. Gdy organizacje przeznaczają zasoby na ulepszenie swoich modeli zgodności, nadal skupiają się na podstawach: poprawie jakości danych, zmniejszeniu zaległości w sprawach, zarządzaniu rotacją pracowników itp. Wdrażanie nowych technologii w celu usprawnienia poszczególnych funkcji schodzi na dalszy plan, co skutkuje wdrażaniem procesów wymagających dużych nakładów pracy i zasobów.

W ostatnich latach liderzy branży dostrzegli wady manualnych operacji i zaczęli eksperymentować z zaawansowanymi technologiami, takimi jak uczenie maszynowe (ang. machine learning) i inteligentna automatyzacja (ang. intelligent automation), próbując poprawić wyniki ryzyka przy jednoczesnej kontroli kosztów. Typowe przykłady obejmują zautomatyzowane sprawdzanie i analizę negatywnych wiadomości (ang. automated negative news screening), automatyczne pobieranie danych za pomocą zrobotyzowanej automatyzacji procesów (RPA) i interfejsów programowania aplikacji (API), zautomatyzowane generowanie narracji  oparte na szablonach (ang. automated template-based narrative generation) oraz wykorzystywanie modeli predykcyjnych (ang. leveraging predictive models) w celu usprawnienia lub przyspieszenia podejmowania decyzji (np. monitorowanie transakcji oraz alerty dotyczące sprawdzania list). Ponieważ w nadchodzących latach w branży pojawią się jeszcze skuteczniejsze  narzędzia sztucznej inteligencji, wzmocnią one podstawowe elementy modelu programu compliance,  w tym:

Zarządzanie (Governance)

Modele języka (takie jak GPT-3, który stanowi podstawę Chatu GPT) będą w stanie skanować tysiące zatwierdzonych źródeł w poszukiwaniu zmian prawnych i tworzyć skonsolidowane podsumowania najważniejszych informacji do przeglądu i interpretacji przez kierownictwo wyższego szczebla. Gdy zmiany regulacyjne będą wymagać aktualizacji firmowych standardów i procedur, rozwiązania AI pomogą w  tworzeniu pierwszych projektów dokumentów w oparciu o określone dane wejściowe i parametry, które następnie mogą zostać sprawdzone i poprawione przez człowieka. Zdarzyła się już taka sytuacja, gdy Chat GPT stworzył do celów eksperymentalnych „politykę zgodności z prawem przeciwdziałania praniu pieniędzy dla instytucji finansowej z siedzibą w USA”. Był to niezwykle dokładny 10-stronicowy dokument dotyczący zarządzania, który obejmował podstawowe założenia programu zgodności. Mimo że ten przykładowy dokument nie był kompletny, to mógł z łatwością posłużyć jako punkt wyjścia do szerszego usprawnienia istniejących procesów. Poleganie na technologii wspierającej model zarządzania umożliwi firmom znaczne obniżenie kosztów kluczowych inicjatyw, takich jak mapowanie regulacji oraz przyspieszenie procesu zarządzania zmianami i aktualizacji procedur.

Fałszywie pozytywne dyspozycje (False positive dispositioning)

Instytucje finansowe polegają obecnie na uproszczonych modelach procesów, takich jak monitorowanie transakcji, monitorowanie niekorzystnych mediów oraz monitoring sankcji w celu identyfikacji nielegalnych działań klientów. Bez odpowiednio ustawionych parametrów modele te generują dużą liczbę fałszywych alarmów, które należy zbadać i odrzucić. Narzędzia sztucznej inteligencji pomogą rozwiązać problem fałszywie pozytywnych wyników na dwa sposoby. Po pierwsze, ulepszona logika ustawiania modelu pozwoli lepiej zidentyfikować potencjalne prawdziwe dopasowania. Przykładowo, poszukiwanie „Davida Johnsona” w systemie może przynieść 1000 wyników niskiej jakości, podczas gdy badanie przesiewowe pod kątem „Davida Johnsona” w połączeniu z innymi danymi wejściowymi (np. wiek, adres, dane kontaktowe, obywatelstwo, historia pracy, rejestracje pojazdów, historia relacji, znani współpracownicy), zebranymi z otwartych i zamkniętych źródeł mogą dać, powiedzmy, około 11 wysokiej jakości wyników, które lepiej zoptymalizują czas recenzenta. Po drugie, modele językowe uchwycą i podkreślą najbardziej istotne informacje, skracając całkowity czas poszukiwania informacji i poprawiając identyfikację istotnego ryzyka.

Pisanie raportów SAR

Gdy instytucje finansowe zidentyfikują potencjalnie podejrzaną aktywność, zobowiązane są do zbadania sprawy i, jeśli działanie to uznane jest za istotne, do złożenia raportu o podejrzanej aktywności SAR (ang. Suspicious Activity Report) organom regulacyjnym. Raporty SAR zazwyczaj zawierają od jednej do 10 stron i są tworzone przez śledczych, którzy łączą analizę transakcji z wiedzą o ryzyku, aby poinformować organy rządowe o potencjalnej działalności przestępczej. Raporty te są jednymi z najważniejszych elementów programu zgodności z ustawą o tajemnicy bankowej / przeciwdziałania praniu pieniędzy (BSA/AML), a proces ich tworzenia zachowa element ludzki w dającej się przewidzieć przyszłości, biorąc pod uwagę zmienność zapotrzebowania na szacowanie ryzyka i metodologię podejmowania decyzji między instytucjami. Niemniej jednak, modele AI mogą dziś tworzyć ustandaryzowane raporty, jeśli tylko zostaną przeszkolone na wystarczającej liczbie przykładowych danych. Wkrótce rozwiązania te zostaną zastosowane przez banki w celu znacznego przyspieszenia procesu sporządzania raportów SAR. Zamiast polegać na zespole śledczych do sporządzania raportów lub dostosowywania szablonów SAR do analizy transakcji, sztuczna inteligencja będzie wykorzystywana do identyfikowania podejrzanych działań klientów, określania odpowiedniej typologii ryzyka, wyszukiwania w źródłach otwartych i zamkniętych w celu utworzenia spójnego profilu klienta i sporządzania raportu opisującego historię klienta, podejrzaną aktywność i uzasadnienie złożenia SAR. W przeciwieństwie do manualnego tworzenia kilku raportów dziennie, pracownicy przejmą rolę kontrolerów jakości, co umożliwi im przeglądanie i zgłaszanie raportów SAR na dużą skalę. Z kolei instytucje będą otrzymywać mniejszą ilość powiadomień (i wynikających z nich działań regulacyjnych), przy jednoczesnym obniżeniu kosztów operacyjnych.

Bieżący monitoring

Jak wspomniano wyżej, instytucje finansowe są zobowiązane do ciągłego monitorowania swoich klientów w celu identyfikacji potencjalnych oszustw lub działań przestępczych pomiędzy regularnymi cyklami oceny klientów. Rozwiązania oparte na sztucznej inteligencji będą w stanie zreorganizować sposób wykrywania, stanowiący podstawę narzędzi przesiewowych i monitorujących, wykorzystując dodatkowe źródła danych do tworzenia całościowych profili klientów, które lepiej definiują podejrzane działania dla konkretnego klienta i śledzą ryzyko w różnych obszarach (AML, oszustwa, sankcje itp.). Te zmiany pomogą zmniejszyć liczbę fałszywych alarmów i lepiej identyfikować ryzyko braku zgodności, umożliwiając instytucjom odejście od sztywnych okresowych harmonogramów przeglądu ryzyka na rzecz bardziej elastycznych modeli bieżącej analizy „due diligence”.

Tak samo jak widoczne są korzyści i pułapki sztucznej inteligencji dla społeczeństwa i gospodarki, tak samo jest z zasadami i ramami, które będą regulować jej wdrożenie. Niedawne studium przypadku dotyczące regulacji aktywów cyfrowych wskazuje, że organy regulacyjne często przyjmują podejście wyczekiwania w stosunku do rodzącej się technologii, a wytyczne opóźniają innowacje o trzy do pięciu lat. Chociaż nie można przewidzieć kształtu regulacji, istnieje kilka głównych tematów nieodłącznie związanych ze sztuczną inteligencją, z którymi organy nadzoru finansowego będą musiały się zmierzyć.

Engineers Meeting in Technology Research Laboratory: Engineers, Scientists and Developers Gathered Around Illuminated Conference Table, Talking and Finding Solution, Inspecting and Analysing Industrial Engine Design.
2

Rozdział

Perspektywa regulacyjna

Zasady i ramy, które będą regulować przyjęcie sztucznej inteligencji, dopiero się pojawią.

Podobnie jak korzyści i pułapki związane ze sztuczną inteligencją dla społeczeństwa i gospodarki pozostają nieznane, podobnie jak zasady i ramy, które będą regulować jej przyjęcie. Niedawne studium przypadku regulacji dotyczących aktywów cyfrowych wskazuje, że organy regulacyjne często przyjmują podejście wyczekujące w stosunku do powstających technologii, a wytyczne wyprzedzają innowacje o trzy do pięciu lat. Chociaż nie sposób przewidzieć kształtu ram regulacyjnych, istnieje kilka głównych tematów związanych ze sztuczną inteligencją, z którymi będą musiały zmierzyć się organy nadzoru finansowego.

 

Stronniczość AI

Modele sztucznej inteligencji są tak dobre, jak dane, na których się uczą, w tym na informacjach zwrotnych przekazywanych przez ludzi w celu poprawy ich wydajności. Modele języka naturalnego szczególnie wykorzystują uczenie się przez wzmacnianie, technikę, w której ludzie służą jako „osoby nadające etykiety” do sprawdzania wyników modelu i identyfikowania poprawnych odpowiedzi. Bez odpowiednich zabezpieczeń informacja zwrotna od człowieka może nieumyślnie wprowadzić błąd w dane w modelu, co będzie miało później wpływ na podejmowanie decyzji przez sztuczną inteligencję. W przyszłości ustawodawcy będą musieli zadbać o to, aby poleganie na sztucznej inteligencji we wspieraniu biznesu nie skutkowało nierównym podziałem korzyści z niej płynących.

 

Możliwość wyjaśnienia

Instytucje finansowe działające w środowisku regulacyjnym są często wzywane przez regulatorów  do uzasadnienia swoich decyzji dotyczących ryzyka. Podejmowanie decyzji, które umożliwiają złożone narzędzia sztucznej inteligencji zarządzane przez tysiące zasadniczych wskaźników, może pomóc przyspieszyć niektóre procesy. Jednak instytucje muszą mieć na uwadze zdolność swoją (lub swoich dostawców) do przedstawiania uzasadnień dla tych decyzji w formie, aby była możliwa do zrozumienia i zinterpretowania przez pracowników nietechnicznych, tj.. przy użyciu odpowiednich cytatów dla wyszukiwania opartego na faktach lub kluczowych atrybutach czy wartościach danych wpływających na wyniki modelu predykcyjnego. Organy regulacyjne będą dążyć do ustanowienia podstawowych standardów podejmowania decyzji dotyczących ryzyka, a zespół compliance będzie miał obowiązek zrozumienia wymagań i umożliwieniu wglądu w źródła informacji oraz logikę wykorzystywaną przez modele sztucznej inteligencji w celu przedstawiania zaleceń lub wspierania procesu decyzyjnego.

 

Zarządzanie danymi

Bezpośrednią zaletą wykorzystania narzędzi AI będzie lepszy wgląd w dane klienta, łącząc dane wejściowe z otwartych i zamkniętych źródeł w celu stworzenia zaawansowanych profili ryzyka, zachowania i rentowności. Profile te są jednak uzależnione od dostępności, jakości i bezpieczeństwa danych klientów. W gospodarce opartej na sztucznej inteligencji dane osobowe są na wagę złota i będą stawać się jeszcze bardziej wartościowe niż obecnie. W odpowiedzi na komercjalizację danych osobowych przez duże firmy technologiczne w ostatnich latach, organy regulacyjne na całym świecie przystąpiły już do ​​wdrażania przepisów dotyczących prywatności i bezpieczeństwa danych, których celem jest przywrócenie kontroli osobie, której dane dotyczą. Starania zmierzające do zabezpieczenia, ochrony i zarządzania dostępem do danych będą wyłącznie przyspieszać wraz z komercyjnym wdrażaniem sztucznej inteligencji i rosnącym zapotrzebowaniem na dane osobowe.

 

Cyberbezpieczeństwo

W miarę jak gospodarka staje się coraz bardziej zależna od technologii i danych, rośnie ryzyko włamań i naruszeń związanych z danymi. Ponadto, w miarę jak zaawansowane technologie stają się bardziej dostępne dla społeczeństwa, wykorzystanie tych technologii do przeprowadzania oszustw i innych tego typu działań prawdopodobnie stanie się bardziej powszechne (np. wykorzystywanie sztucznej inteligencji do zmiany zdjęć lub tworzenia fałszywych filmów w celu wpływania na zachowanie niczego niepodejrzewających konsumentów). Instytucje finansowe mają dziś trudności z ochroną przed cyberprzestępczością, a organy regulacyjne wdrożyły przepisy dotyczące cyberbezpieczeństwa, aby regulować poziom i trwałość tych kontroli. Ponieważ sztuczna inteligencja jest wprowadzana do gospodarki na dużą skalę, potencjał do uzyskiwania dostępu do modeli sztucznej inteligencji i manipulowania nimi, wraz z danymi przez nielegalne podmioty stanie się jeszcze większym problemem. Organom regulacyjnym zostanie powierzone zadanie przebudowy ram bezpieczeństwa cybernetycznego w celu uwzględnienia narastających zagrożeń i zwalczania nieautoryzowanego korzystania z narzędzi sztucznej inteligencji dla osobistych korzyści. Organizacje zajmujące się zgodnością będą musiały na bieżąco monitorować sytuację i odpowiednio dostosowywać się.

Electronics Development Engineer Working on Computer
3

Rozdział

Widok z narożnego biura

Specjaliści ds. zgodności powinni podjąć kilka kluczowych działań.

Pomimo obietnic, narzędzia sztucznej inteligencji znajdują się na wczesnym etapie wdrażania technologii. Szkolenia pozostają kosztowne i wymagają dużej ilości danych, aby umożliwić ciągłe uczenie się. Wyniki modelu mogą wymagać walidacji lub weryfikacji przez stronę trzecią. Rozwiązania oparte na sztucznej inteligencji nie wykazały jeszcze poziomu niezawodności niezbędnego do trwałego usprawnienia podejmowania decyzji przez ludzi, a tym bardziej do ich wyeliminowania. Co więcej, nieokreślony charakter zarządzania ryzykiem braku zgodności (jak często raporty SAR rzeczywiście zapobiegają działalności przestępczej?) utrudnia możliwość udoskonalania wyników modelu za pomocą wzmocnionych metod nauczania.

W ciągu następnej dekady technolodzy będą musieli koordynować działania z zainteresowanymi stronami z sektora publicznego i prywatnego, aby zapobiec stronniczości, obniżyć koszty i poprawić niezawodność. Z kolei specjaliści ds. zgodności powinni podchodzić do sztucznej inteligencji z pełnym nadziei sceptycyzmem i podjąć kilka kluczowych działań:

Wyzwanie dla istniejących modeli

W miarę jak narzędzia sztucznej inteligencji stają się opłacalne z perspektywy  kosztów i wartości, specjaliści ds. zgodności powinni przeprowadzać zarówno odgórne, jak i oddolne oceny swojego modelu operacyjnego, aby proaktywnie identyfikować obszary wymagające usprawnień. Projektowanie przyszłych ram zgodności wraz z kluczowymi celami operacyjnymi, takimi jak wyniki ryzyka, redukcja kosztów czy doskonalenie procesów, może pomóc w zarządzaniu procesem wdrażania.

Priorytetowe traktowanie danych klientów

W środowisku procesów i kontroli obsługiwanym przez sztuczną inteligencję dane klienta mają nadrzędne znaczenie. Chociaż standaryzacja rozwiązań AI jest odległa o kilka lat, liderzy compliance  powinni już teraz zacząć ulepszać dane swoich klientów. Naprawianie  danych jest złożone i czasochłonne, często zajmuje wiele lat. Podjęcie kroków w najbliższej przyszłości w celu poprawy dostępności i jakości danych klientów na całej linii przyniesie korzyści, nie tylko w zakresie wykonalności długoterminowej dotyczącej integracji technologii, ale także w perspektywie krótkoterminowej dzięki lepszemu wglądowi w dane klientów oraz zarządzaniu ryzykiem.

Koncentracja na rozszerzaniu procesów

Koncepcja sztucznej inteligencji w miejscu pracy budzi obawy dotyczące nieuchronnych zmian kadrowych. Chociaż może nadejść dzień, w którym ludzka inteligencja stanie się przestarzała, nie musimy się martwić o przekroczenie tej granicy jeszcze przez długi czas. W bliskiej lub średnioterminowej perspektywie narzędzia sztucznej inteligencji będą w stanie usprawnić tylko niektóre procesy, z których prawie wszystkie nadal będą wymagały przeglądu oraz walidacji przez człowieka. Nawet najbardziej zaawansowane modele sztucznej inteligencji, tj.. narzędzia, które mogą badać, analizować, raportować, komponować i przetwarzać dane, często mogą się mylić. Najbardziej popularną i innowacyjną obecnie metodologią szkolenia AI jest głębokie uczenie się. Napotyka ono szybko na trudności w obliczu danych wejściowych wykraczających poza pierwotne parametry. W wyniku owego uczenia się powstaje bardzo potężne narzędzie, na którym można polegać przy automatyzacji niektórych elementów procesu (np. sporządzanie dokumentacji, przeszukiwanie Internetu w celu oddalenia fałszywych alarmów). Nie można jednak jeszcze ufać, że przeprowadzi ten proces od początku do końca (np. projektowanie polityki zgodności, podejmowanie decyzji o ryzyku klienta). Podczas gdy automatyzacja może zastąpić niektóre role, jej efektywność na dużą skalę stworzy inne role. W nadchodzących latach specjaliści compliance powinni nadać priorytet sposobom, w jakie sztuczna inteligencja może ulepszać procesy i kontrole, a nie je zastępować.

Odpowiedni zestaw umiejętności

Automatyzacja oparta na sztucznej inteligencji stworzy zapotrzebowanie na ludzi, którzy rozumieją logikę wykorzystywaną przez narzędzia sztucznej inteligencji i potrafią tworzyć skuteczne dane wejściowe, aby uzyskać najbardziej znaczące odpowiedzi.

Podobnie jak w przypadku tworzenia się nowych stanowisk związanych z „optymalizacją wyszukiwarek” na początku XXI wieku, wdrażanie sztucznej inteligencji w organizacjach zajmujących się zgodnością będzie potrzebować nowego rodzaju biegłości technologicznej, które są w stanie zmaksymalizować użyteczność i jakość wyników modelu AI, w tym zdolność do odczytania i rozszyfrowania wyniku, nawet jeśli jest on nieprawidłowy.

Liderzy compliance powinni upewnić się, że wspierają posiadanie odpowiednich zestawów umiejętności i przyciągają wymagane talenty, aby móc zoptymalizować skuteczność narzędzi AI.

Wnioski

Powstanie Chatu GPT oraz podobnych rozwiązań wraz z zadziwiająco szybkim rozwojem AI niesie za sobą wiele możliwości, jak również wiele zagrożeń. Nastały czasy, w których należy dogonić technologię oraz umieć z niej odpowiednio i bezpiecznie skorzystać. Jednocześnie trzeba dopilnować wszystkich wymagań prawnych oraz różnego rodzaju obostrzeń dotyczących między innymi ochrony danych osobowych. Zagrożenia, jakie niesie za sobą AI dotyczą również szeroko pojętego compliance. Dlatego też specjaliści do spraw zgodności będą zmuszeni do przeredagowania modeli operacyjnych w celu zapobiegania potencjalnym ryzykom. Ponadto, pojawi się konieczność powstania nowych stanowisk pracy, których zadaniem będzie kontrola wyników wygenerowanych przez AI. Sztuczna inteligencja to przyszłość, której nie należy się bać, aczkolwiek należy ustalić odpowiednie zasady w celu umiejętnego jej wykorzystywania.

W miarę jak świat reaguje na najnowsze osiągnięcia sztucznej inteligencji, regulatorzy i liderzy biznesowi muszą rozważyć praktyczne możliwości i zagrożenia związane z jej wdrożeniem. W połączeniu z solidnym systemem regulacyjnym i przemyślanym zastosowaniem technologia AI ma potencjał zrewolucjonizowania prawie wszystkich obszarów branży usług finansowych. Osoby odpowiedzialne za compliance powinny wykorzystać potencjał AI i zachować kreatywność, odpowiednio kierując procesem jej wdrażania.




Podsumowanie

Technologia sztucznej inteligencji może zrewolucjonizować niemal wszystkie obszary branży usług finansowych. Specjaliści compliance powinni podchodzić do tego faktu z ostrożnym optymizmem.


Kontakt
Chcesz dowiedzieć się więcej? Skontaktuj się z nami.

Informacje

Autorzy

Współautorzy

Polecane artykuły

Jaka powinna być skuteczna strategia opakowaniowa przedsiębiorstwa?

Konsumpcjonizm doprowadził do rosnącej ilości odpadów – dziś to nowe wyzwanie dla firm. Sprawdź, jak wyjść mu naprzeciw.

Jak zarządzanie zmianą może wspierać optymalizację procesów produkcyjnych

Efektywne zarządzanie zmianą pozwala dostosować się do nowych warunków oraz w pełni wykorzystać posiadany potencjał. Zobacz, dlaczego większość zmian kończy się niepowodzeniem.