Zapisz się na newsletter EY Technology
Otrzymuj comiesięczny zestaw najciekawszych artykułów, raportów i analiz z zakresu technologii dla biznesu.
Metody obrony
Oprócz ryzyka sztuczna inteligencja niesie ze sobą korzyści nie tylko pod kątem zabezpieczenia prywatności, ale także z punktu widzenia ogólnego bezpieczeństwa. Jest ona niezwykle skuteczna w identyfikowaniu zagrożeń, które są nieznane dla tradycyjnych systemów bezpieczeństwa. Dzięki swojej zdolności do przetwarzania gigantycznych zbiorów danych w przyspieszonym tempie, AI wyprzedza tradycyjne metody w wykrywaniu i neutralizowaniu ryzyk. Jest w stanie nauczyć się i zrozumieć nowe wzorce zagrożeń, zwiększając skuteczność wykrywania ataków.
Co więcej, AI ma unikalną zdolność do diagnozowania podatności systemów na ataki. Sztuczna inteligencja może szybko przeskanować i przeanalizować system, identyfikując potencjalne luki w zabezpieczeniach. Daje to zespołom bezpieczeństwa możliwość skupienia się na łataniu krytycznych luk, zamiast tracić cenny czas na ich poszukiwanie. Zastosowanie AI pozwala także na automatyzację wielu procesów, które są pracochłonne i powtarzalne. Monitorowanie logów, analiza alertów bezpieczeństwa i inne podobne zadania mogą być zautomatyzowane, co pozwala zespołom skupić się na krytycznych i skomplikowanych zadaniach.
W dziedzinie zarządzania tożsamością i dostępem, AI odgrywa kluczową rolę, analizując i rozumiejąc wzorce zachowań. Może np. wykryć, kiedy użytkownik loguje się z nieznanej lokalizacji, a jego zachowanie jest nietypowe, co może sugerować potencjalne naruszenie bezpieczeństwa. Tego rodzaju rozwiązania są bardzo szeroko stosowane np. w bankowości.
Sztuczna inteligencja jest niezwykle wartościowa dla cyberbezpieczeństwa, oferując efektywność i skuteczność, których tradycyjne metody nie są w stanie osiągnąć. Jej zdolność do adaptacji i ciągłego uczenia się sprawia, że jest nieocenionym narzędziem w dzisiejszym, dynamicznie zmieniającym się świecie walki z zagrożeniami w wirtualnym świecie. Wraz z dalszym rozwojem i dojrzewaniem technologii AI, możemy spodziewać się, że będzie ona odgrywać coraz większą rolę w przyszłości cyberbezpieczeństwa.
Ochrona danych osobowych i RODO w czasach AI
Równocześnie pojawia się pytanie na ile obowiązujące obecnie regulacje, obok tworzonego obecnie Aktu o Sztucznej Inteligencji („AI Act”) są dostosowane do obecnej rzeczywistości? Ogólne Rozporządzenie o Ochronie Danych osobowych („RODO”) zostało opracowane w czasie, kiedy AI nie było jeszcze tak powszechnie stosowane jednak obejmuje ono możliwość przeciwstawienia się tzw. profilowaniu i automatycznym podejmowaniu decyzji. Aby „wytrenować” model AI niezbędne są ogromne ilości danych, których pobieranie odbywa się na masową skalę. Istnieje ryzyko, że gromadzone dane mogą zawierać poufne informacje, a tym samym mogą zostać ujawnione w danych wyjściowych sztucznej inteligencji. Konieczne w tym celu jest wdrażanie przez organizacje zróżnicowanych metod ochrony prywatności, takich jak np. tokenizacja danych, czyli zastąpienie wrażliwych lub poufnych danych losowymi ciągami znaków. Konieczne jest jednak dokładne zidentyfikowanie danych wrażliwych w celu zastosowania tej techniki. Z drugiej strony warto zaznaczyć, że o ile korzystanie ze sztucznej inteligencji wiąże się z zagrożeniami dla prywatności danych, może ono także być pomocne w osiągnięciu zgodności z obowiązującymi przepisami dotyczącymi prywatności danych. Na wspomnianym wcześniej przykładzie, model AI mógłby wspomóc identyfikację poufnych informacji w ogromnych zbiorach danych i zapewnić, że są one odpowiednio zabezpieczone lub zanonimizowane.
Podsumowanie
Sztuczna inteligencja staje się zarówno krytycznym zagrożeniem, jak i kluczem do obrony w obszarze cyberbezpieczeństwa. AI przeciwstawia się AI, w myśl zasady, że „żelazo ostrzy się żelazem”. Wzrost adopcji AI w najbliższych latach zwiększy jej dostępność zarówno dla zespołów defensywnych, jak i ofensywnych. To przyczyni się do powstania dynamicznego pola bitwy w cyberprzestrzeni, gdzie strony konfliktu stale ewoluują, aby sprostać technikom przeciwnika. W najbliższych latach musimy poświęcić więcej uwagi na obronę przed atakami wykorzystującymi AI, jak również na plany naprawcze po takich działaniach ofensywnych. Ponieważ nie jest możliwe całkowite uniknięcie zagrożeń związanych ze sztuczną inteligencją, musimy skupić się na strategiach minimalizowania ryzyka i skutków tych zagrożeń.
Tekst został opublikowany w Rzeczpospolitej z dnia 22 sierpnia 2023 r.