Bezpieczeństwo danych w czasach AI

W dobie szybkiego rozwoju technologicznego, cyberbezpieczeństwo staje się jednym z kluczowych elementów utrzymania stabilności i bezpieczeństwa na świecie. Szczególne miejsce w tym kontekście zajmuje sztuczna inteligencja zdobywająca – zwłaszcza w kontekście generatywnej AI - coraz większą popularność, wpływając na najróżniejsze aspekty prowadzenia biznesu.  

Jednak, podobnie jak wiele innych technologii, AI jest mieczem obosiecznym, zdolnym zarówno do obrony, jak i ataku w sferze cybernetycznej. David van Weel, Asystent Sekretarza Generalnego NATO ds. Nowych Wyzwań Bezpieczeństwa, wyraził to w sposób jednoznaczny wskazując, że sztuczna inteligencja umożliwia obrońcom automatyzację procesu skanowania sieci i zwalczania ataków, co byłoby znacznie trudniejsze przy manualnym podejściu. Niemniej jednak, zasady gry pozostają takie same i nie zmienia to zasadniczo sposobu przeciwdziałania zagrożeniom.

Nasza rzeczywistość staje się polem cyberwojny, w której AI mierzy się z AI. Ataki są coraz bardziej zaawansowane, a ich skutki mogą być katastrofalne, szczególnie gdy celują w infrastrukturę krytyczną. Dlatego też, coraz więcej wysiłku wkłada się w wykorzystanie AI do ochrony tych kluczowych dla funkcjonowania całej gospodarki systemów. 

Metody ataków – jak hakerzy wykorzystują AI

W dzisiejszym cyfrowym świecie, sztuczna inteligencja po cichu zrewolucjonizowała nie tylko nasze codzienne życie i zawodowe, ale również sposób, w jaki działają przestępcy i hakerzy. AI stała się potężnym narzędziem w rękach cyberprzestępców, umożliwiając przeprowadzanie coraz bardziej zaawansowanych ataków. Technologia ta nie tylko ułatwia penetrację zabezpieczeń sieciowych, ale także tworzy nowe, nieznane wcześniej metody manipulacji i dezinformacji.

Jednym z bardziej złożonych zastosowań AI w sferze cyberprzestępczości jest tworzenie złośliwego oprogramowania, czyli malware. Na przykład, model AI o nazwie ChatGPT, opracowany przez OpenAI, zdolny jest do generowania zaawansowanego oprogramowania, które może być precyzyjnie skonfigurowane do określonego celu i dostosowane do specyficznej „ofiary”. Stanowi to znaczące wyzwanie dla tradycyjnych systemów zabezpieczeń, które mają trudności z wykrywaniem tak złożonych zagrożeń.

Kolejnym aspektem, są tzw. AI-powered phishing emails. To wiadomości wyłudzające dane, które są generowane za pomocą AI. Dzięki zastosowaniu sztucznej inteligencji, wyglądają one niezwykle wiarygodnie i są często niemożliwe do odróżnienia od autentycznej korespondencji, co znacznie zwiększa ich skuteczność.

Dodatkowo, sztuczna inteligencja jest wykorzystywana do przechodzenia przez systemy CAPTCHA, które pierwotnie zostały zaprojektowane w celu odróżnienia ludzi od botów. To nie tylko dowód na rosnącą moc obliczeniową AI, ale także doskonały przykład, jak szybko technologia ta potrafi dostosować się do nowych wyzwań. 

Sztuczna inteligencja jest używana także do łamania haseł metodą ‘brute-force’, czyli sprawdzania wszystkich możliwych kombinacji. Zadanie, które wcześniej wymagało ogromnej mocy obliczeniowej i czasu, dzięki zastosowaniu AI zostało znacznie skrócone. Dlatego warto zastanowić się czy wszędzie używamy innych haseł, czy są one silne i czy mamy włączoną weryfikację dwuetapową.

W świecie cyberbezpieczeństwa, gdzie często korzysta się z modeli uczenia maszynowego (ang. Machine Learning) do wykrywania zagrożeń, hakerzy wykorzystują AI do manipulacji danymi wejściowymi w celu zmylenia systemów detekcji. Tym samym, potrafią ukryć swoje działania i utrudnić wykrycie ataków.

Jednak to, co być może najbardziej zaskakujące i niepokojące, to wykorzystanie AI do tworzenia tzw. deepfake - zmanipulowanych materiałów wideo lub audio, które są niemal niemożliwe do odróżnienia od oryginału. Niestety, nie trzeba już znaczącej kreatywności, aby wyobrazić sobie przygotowaną przez hakerów zmanipulowaną wiadomość prezesa do głównej księgowej z prośbą o realizację przelewu na konto w rzeczywistości należące do przestępców. 


Metody obrony

Oprócz ryzyka sztuczna inteligencja niesie ze sobą korzyści nie tylko pod kątem zabezpieczenia prywatności, ale także z punktu widzenia ogólnego bezpieczeństwa. Jest ona niezwykle skuteczna w identyfikowaniu zagrożeń, które są nieznane dla tradycyjnych systemów bezpieczeństwa. Dzięki swojej zdolności do przetwarzania gigantycznych zbiorów danych w przyspieszonym tempie, AI wyprzedza tradycyjne metody w wykrywaniu i neutralizowaniu ryzyk. Jest w stanie nauczyć się i zrozumieć nowe wzorce zagrożeń, zwiększając skuteczność wykrywania ataków.

Co więcej, AI ma unikalną zdolność do diagnozowania podatności systemów na ataki. Sztuczna inteligencja może szybko przeskanować i przeanalizować system, identyfikując potencjalne luki w zabezpieczeniach. Daje to zespołom bezpieczeństwa możliwość skupienia się na łataniu krytycznych luk, zamiast tracić cenny czas na ich poszukiwanie. Zastosowanie AI pozwala także na automatyzację wielu procesów, które są pracochłonne i powtarzalne. Monitorowanie logów, analiza alertów bezpieczeństwa i inne podobne zadania mogą być zautomatyzowane, co pozwala zespołom skupić się na krytycznych i skomplikowanych zadaniach.

W dziedzinie zarządzania tożsamością i dostępem, AI odgrywa kluczową rolę, analizując i rozumiejąc wzorce zachowań. Może np. wykryć, kiedy użytkownik loguje się z nieznanej lokalizacji, a jego zachowanie jest nietypowe, co może sugerować potencjalne naruszenie bezpieczeństwa. Tego rodzaju rozwiązania są bardzo szeroko stosowane np. w bankowości.

Sztuczna inteligencja jest niezwykle wartościowa dla cyberbezpieczeństwa, oferując efektywność i skuteczność, których tradycyjne metody nie są w stanie osiągnąć. Jej zdolność do adaptacji i ciągłego uczenia się sprawia, że jest nieocenionym narzędziem w dzisiejszym, dynamicznie zmieniającym się świecie walki z zagrożeniami w wirtualnym świecie. Wraz z dalszym rozwojem i dojrzewaniem technologii AI, możemy spodziewać się, że będzie ona odgrywać coraz większą rolę w przyszłości cyberbezpieczeństwa.

Ochrona danych osobowych i RODO w czasach AI

Równocześnie pojawia się pytanie na ile obowiązujące obecnie regulacje, obok tworzonego obecnie Aktu o Sztucznej Inteligencji („AI Act”) są dostosowane do obecnej rzeczywistości? Ogólne Rozporządzenie o Ochronie Danych osobowych („RODO”) zostało opracowane w czasie, kiedy AI nie było jeszcze tak powszechnie stosowane jednak obejmuje ono możliwość przeciwstawienia się tzw. profilowaniu i automatycznym podejmowaniu decyzji. Aby „wytrenować” model AI niezbędne są ogromne ilości danych, których pobieranie odbywa się na masową skalę. Istnieje ryzyko, że gromadzone dane mogą zawierać poufne informacje, a tym samym mogą zostać ujawnione w danych wyjściowych sztucznej inteligencji. Konieczne w tym celu jest wdrażanie przez organizacje zróżnicowanych metod ochrony prywatności, takich jak np. tokenizacja danych, czyli zastąpienie wrażliwych lub poufnych danych losowymi ciągami znaków. Konieczne jest jednak dokładne zidentyfikowanie danych wrażliwych w celu zastosowania tej techniki. Z drugiej strony warto zaznaczyć, że o ile korzystanie ze sztucznej inteligencji wiąże się z zagrożeniami dla prywatności danych, może ono także być pomocne w osiągnięciu zgodności z obowiązującymi przepisami dotyczącymi prywatności danych. Na wspomnianym wcześniej przykładzie, model AI mógłby wspomóc identyfikację poufnych informacji w ogromnych zbiorach danych i zapewnić, że są one odpowiednio zabezpieczone lub zanonimizowane.


Podsumowanie

W wyniku pandemii zmiany technologiczne, planowane w perspektywie lat, urzeczywistniły się w przeciągu miesięcy. Poza niewątpliwymi korzyściami, przeniesienie interakcji i znaczącej części pracy do domeny cyfrowej zwiększyło również ryzyko ataków hakerskich. W efekcie cyberbezpieczeństwo stało się jednym z największych współczesnych wyzwań. W opinii ekspertów EY w 2022 roku największe sprawdziany dla firm będą związane z nowymi strategiami cyberprzestępców, projektem rozporządzenia Digital Operational Resiliance Act (DORA) oraz NIS2, zarządzaniem rozwojem sztucznej inteligencji oraz działaniami w chmurze w branżach szczególnie wrażliwych. Przykładowo DORA na poziomie unijnym ujednolica przepisy w zakresie cyfrowej odporności przedsiębiorstw działających w sektorze finansowym. 


Informacje

Autorzy

Polecane artykuły

Co to jest cyberbezpieczeństwo? 9 wskazówek, jak zadbać o bezpieczeństwo w sieci.

Czym jest cyberbezpieczeństwo i jak zachować bezpieczeństwo w sieci? Poznaj 9 zasad, które umożliwią zachowanie szczególnego bezpieczeństwa przy korzystaniu z Internetu.

Phishing – co to jest i jak reagować na oszustwa internetowe?

Phishing nieodłącznie związany jest z tematem, jakim jest cyberbezpieczeństwo. Na czym polega phishing? i jak się przed nim chronić? Jakie są rodzaje phishingu? Odpowiedzi w artykule.