4 min. czytania 22 sie 2023
bezpieczeństwo w internecie

Bezpieczeństwo danych w czasach AI

Autorzy
Jakub Walarus

EY Polska, Audyt, Partner

Doradca z poczuciem misji. W EY prawie od zawsze. Praktyk zarządzania ryzykiem nowych technologii oraz ochrony prywatności. Mąż, ojciec dwóch synów.

Jonasz Danilewicz

EY Polska, Technology Consulting, Manager

Ekspert ds. technologii informatycznych.

4 min. czytania 22 sie 2023
Powiązane tematy Cybersecurity Consulting

W dobie szybkiego rozwoju technologicznego, cyberbezpieczeństwo staje się jednym z kluczowych elementów utrzymania stabilności i bezpieczeństwa na świecie. Szczególne miejsce w tym kontekście zajmuje sztuczna inteligencja zdobywająca – zwłaszcza w kontekście generatywnej AI - coraz większą popularność, wpływając na najróżniejsze aspekty prowadzenia biznesu.  

Jednak, podobnie jak wiele innych technologii, AI jest mieczem obosiecznym, zdolnym zarówno do obrony, jak i ataku w sferze cybernetycznej. David van Weel, Asystent Sekretarza Generalnego NATO ds. Nowych Wyzwań Bezpieczeństwa, wyraził to w sposób jednoznaczny wskazując, że sztuczna inteligencja umożliwia obrońcom automatyzację procesu skanowania sieci i zwalczania ataków, co byłoby znacznie trudniejsze przy manualnym podejściu. Niemniej jednak, zasady gry pozostają takie same i nie zmienia to zasadniczo sposobu przeciwdziałania zagrożeniom.

Nasza rzeczywistość staje się polem cyberwojny, w której AI mierzy się z AI. Ataki są coraz bardziej zaawansowane, a ich skutki mogą być katastrofalne, szczególnie gdy celują w infrastrukturę krytyczną. Dlatego też, coraz więcej wysiłku wkłada się w wykorzystanie AI do ochrony tych kluczowych dla funkcjonowania całej gospodarki systemów. 

Metody ataków – jak hakerzy wykorzystują AI

W dzisiejszym cyfrowym świecie, sztuczna inteligencja po cichu zrewolucjonizowała nie tylko nasze codzienne życie i zawodowe, ale również sposób, w jaki działają przestępcy i hakerzy. AI stała się potężnym narzędziem w rękach cyberprzestępców, umożliwiając przeprowadzanie coraz bardziej zaawansowanych ataków. Technologia ta nie tylko ułatwia penetrację zabezpieczeń sieciowych, ale także tworzy nowe, nieznane wcześniej metody manipulacji i dezinformacji.

Jednym z bardziej złożonych zastosowań AI w sferze cyberprzestępczości jest tworzenie złośliwego oprogramowania, czyli malware. Na przykład, model AI o nazwie ChatGPT, opracowany przez OpenAI, zdolny jest do generowania zaawansowanego oprogramowania, które może być precyzyjnie skonfigurowane do określonego celu i dostosowane do specyficznej „ofiary”. Stanowi to znaczące wyzwanie dla tradycyjnych systemów zabezpieczeń, które mają trudności z wykrywaniem tak złożonych zagrożeń.

Kolejnym aspektem, są tzw. AI-powered phishing emails. To wiadomości wyłudzające dane, które są generowane za pomocą AI. Dzięki zastosowaniu sztucznej inteligencji, wyglądają one niezwykle wiarygodnie i są często niemożliwe do odróżnienia od autentycznej korespondencji, co znacznie zwiększa ich skuteczność.

Dodatkowo, sztuczna inteligencja jest wykorzystywana do przechodzenia przez systemy CAPTCHA, które pierwotnie zostały zaprojektowane w celu odróżnienia ludzi od botów. To nie tylko dowód na rosnącą moc obliczeniową AI, ale także doskonały przykład, jak szybko technologia ta potrafi dostosować się do nowych wyzwań. 

Sztuczna inteligencja jest używana także do łamania haseł metodą ‘brute-force’, czyli sprawdzania wszystkich możliwych kombinacji. Zadanie, które wcześniej wymagało ogromnej mocy obliczeniowej i czasu, dzięki zastosowaniu AI zostało znacznie skrócone. Dlatego warto zastanowić się czy wszędzie używamy innych haseł, czy są one silne i czy mamy włączoną weryfikację dwuetapową.

W świecie cyberbezpieczeństwa, gdzie często korzysta się z modeli uczenia maszynowego (ang. Machine Learning) do wykrywania zagrożeń, hakerzy wykorzystują AI do manipulacji danymi wejściowymi w celu zmylenia systemów detekcji. Tym samym, potrafią ukryć swoje działania i utrudnić wykrycie ataków.

Jednak to, co być może najbardziej zaskakujące i niepokojące, to wykorzystanie AI do tworzenia tzw. deepfake - zmanipulowanych materiałów wideo lub audio, które są niemal niemożliwe do odróżnienia od oryginału. Niestety, nie trzeba już znaczącej kreatywności, aby wyobrazić sobie przygotowaną przez hakerów zmanipulowaną wiadomość prezesa do głównej księgowej z prośbą o realizację przelewu na konto w rzeczywistości należące do przestępców. 

Zapisz się na newsletter EY Technology

Otrzymuj comiesięczny zestaw najciekawszych artykułów, raportów i analiz z zakresu technologii dla biznesu. 

Zapisz się

Metody obrony

Oprócz ryzyka sztuczna inteligencja niesie ze sobą korzyści nie tylko pod kątem zabezpieczenia prywatności, ale także z punktu widzenia ogólnego bezpieczeństwa. Jest ona niezwykle skuteczna w identyfikowaniu zagrożeń, które są nieznane dla tradycyjnych systemów bezpieczeństwa. Dzięki swojej zdolności do przetwarzania gigantycznych zbiorów danych w przyspieszonym tempie, AI wyprzedza tradycyjne metody w wykrywaniu i neutralizowaniu ryzyk. Jest w stanie nauczyć się i zrozumieć nowe wzorce zagrożeń, zwiększając skuteczność wykrywania ataków.

Co więcej, AI ma unikalną zdolność do diagnozowania podatności systemów na ataki. Sztuczna inteligencja może szybko przeskanować i przeanalizować system, identyfikując potencjalne luki w zabezpieczeniach. Daje to zespołom bezpieczeństwa możliwość skupienia się na łataniu krytycznych luk, zamiast tracić cenny czas na ich poszukiwanie. Zastosowanie AI pozwala także na automatyzację wielu procesów, które są pracochłonne i powtarzalne. Monitorowanie logów, analiza alertów bezpieczeństwa i inne podobne zadania mogą być zautomatyzowane, co pozwala zespołom skupić się na krytycznych i skomplikowanych zadaniach.

W dziedzinie zarządzania tożsamością i dostępem, AI odgrywa kluczową rolę, analizując i rozumiejąc wzorce zachowań. Może np. wykryć, kiedy użytkownik loguje się z nieznanej lokalizacji, a jego zachowanie jest nietypowe, co może sugerować potencjalne naruszenie bezpieczeństwa. Tego rodzaju rozwiązania są bardzo szeroko stosowane np. w bankowości.

Sztuczna inteligencja jest niezwykle wartościowa dla cyberbezpieczeństwa, oferując efektywność i skuteczność, których tradycyjne metody nie są w stanie osiągnąć. Jej zdolność do adaptacji i ciągłego uczenia się sprawia, że jest nieocenionym narzędziem w dzisiejszym, dynamicznie zmieniającym się świecie walki z zagrożeniami w wirtualnym świecie. Wraz z dalszym rozwojem i dojrzewaniem technologii AI, możemy spodziewać się, że będzie ona odgrywać coraz większą rolę w przyszłości cyberbezpieczeństwa.

Ochrona danych osobowych i RODO w czasach AI

Równocześnie pojawia się pytanie na ile obowiązujące obecnie regulacje, obok tworzonego obecnie Aktu o Sztucznej Inteligencji („AI Act”) są dostosowane do obecnej rzeczywistości? Ogólne Rozporządzenie o Ochronie Danych osobowych („RODO”) zostało opracowane w czasie, kiedy AI nie było jeszcze tak powszechnie stosowane jednak obejmuje ono możliwość przeciwstawienia się tzw. profilowaniu i automatycznym podejmowaniu decyzji. Aby „wytrenować” model AI niezbędne są ogromne ilości danych, których pobieranie odbywa się na masową skalę. Istnieje ryzyko, że gromadzone dane mogą zawierać poufne informacje, a tym samym mogą zostać ujawnione w danych wyjściowych sztucznej inteligencji. Konieczne w tym celu jest wdrażanie przez organizacje zróżnicowanych metod ochrony prywatności, takich jak np. tokenizacja danych, czyli zastąpienie wrażliwych lub poufnych danych losowymi ciągami znaków. Konieczne jest jednak dokładne zidentyfikowanie danych wrażliwych w celu zastosowania tej techniki. Z drugiej strony warto zaznaczyć, że o ile korzystanie ze sztucznej inteligencji wiąże się z zagrożeniami dla prywatności danych, może ono także być pomocne w osiągnięciu zgodności z obowiązującymi przepisami dotyczącymi prywatności danych. Na wspomnianym wcześniej przykładzie, model AI mógłby wspomóc identyfikację poufnych informacji w ogromnych zbiorach danych i zapewnić, że są one odpowiednio zabezpieczone lub zanonimizowane.

Podsumowanie

Sztuczna inteligencja staje się zarówno krytycznym zagrożeniem, jak i kluczem do obrony w obszarze cyberbezpieczeństwa. AI przeciwstawia się AI, w myśl zasady, że „żelazo ostrzy się żelazem”. Wzrost adopcji AI w najbliższych latach zwiększy jej dostępność zarówno dla zespołów defensywnych, jak i ofensywnych. To przyczyni się do powstania dynamicznego pola bitwy w cyberprzestrzeni, gdzie strony konfliktu stale ewoluują, aby sprostać technikom przeciwnika. W najbliższych latach musimy poświęcić więcej uwagi na obronę przed atakami wykorzystującymi AI, jak również na plany naprawcze po takich działaniach ofensywnych. Ponieważ nie jest możliwe całkowite uniknięcie zagrożeń związanych ze sztuczną inteligencją, musimy skupić się na strategiach minimalizowania ryzyka i skutków tych zagrożeń.

Tekst został opublikowany w Rzeczpospolitej z dnia 22 sierpnia 2023 r.

Informacje

Autorzy
Jakub Walarus

EY Polska, Audyt, Partner

Doradca z poczuciem misji. W EY prawie od zawsze. Praktyk zarządzania ryzykiem nowych technologii oraz ochrony prywatności. Mąż, ojciec dwóch synów.

Jonasz Danilewicz

EY Polska, Technology Consulting, Manager

Ekspert ds. technologii informatycznych.

Powiązane tematy Cybersecurity Consulting
  • Facebook
  • LinkedIn
  • X (formerly Twitter)