W dobie szybkiego rozwoju technologicznego, cyberbezpieczeństwo staje się jednym z kluczowych elementów utrzymania stabilności i bezpieczeństwa na świecie. Szczególne miejsce w tym kontekście zajmuje sztuczna inteligencja zdobywająca – zwłaszcza w kontekście generatywnej AI - coraz większą popularność, wpływając na najróżniejsze aspekty prowadzenia biznesu.
Jednak, podobnie jak wiele innych technologii, AI jest mieczem obosiecznym, zdolnym zarówno do obrony, jak i ataku w sferze cybernetycznej. David van Weel, Asystent Sekretarza Generalnego NATO ds. Nowych Wyzwań Bezpieczeństwa, wyraził to w sposób jednoznaczny wskazując, że sztuczna inteligencja umożliwia obrońcom automatyzację procesu skanowania sieci i zwalczania ataków, co byłoby znacznie trudniejsze przy manualnym podejściu. Niemniej jednak, zasady gry pozostają takie same i nie zmienia to zasadniczo sposobu przeciwdziałania zagrożeniom.
Nasza rzeczywistość staje się polem cyberwojny, w której AI mierzy się z AI. Ataki są coraz bardziej zaawansowane, a ich skutki mogą być katastrofalne, szczególnie gdy celują w infrastrukturę krytyczną. Dlatego też, coraz więcej wysiłku wkłada się w wykorzystanie AI do ochrony tych kluczowych dla funkcjonowania całej gospodarki systemów.
Metody ataków – jak hakerzy wykorzystują AI
W dzisiejszym cyfrowym świecie, sztuczna inteligencja po cichu zrewolucjonizowała nie tylko nasze codzienne życie i zawodowe, ale również sposób, w jaki działają przestępcy i hakerzy. AI stała się potężnym narzędziem w rękach cyberprzestępców, umożliwiając przeprowadzanie coraz bardziej zaawansowanych ataków. Technologia ta nie tylko ułatwia penetrację zabezpieczeń sieciowych, ale także tworzy nowe, nieznane wcześniej metody manipulacji i dezinformacji.
Jednym z bardziej złożonych zastosowań AI w sferze cyberprzestępczości jest tworzenie złośliwego oprogramowania, czyli malware. Na przykład, model AI o nazwie ChatGPT, opracowany przez OpenAI, zdolny jest do generowania zaawansowanego oprogramowania, które może być precyzyjnie skonfigurowane do określonego celu i dostosowane do specyficznej „ofiary”. Stanowi to znaczące wyzwanie dla tradycyjnych systemów zabezpieczeń, które mają trudności z wykrywaniem tak złożonych zagrożeń.
Kolejnym aspektem, są tzw. AI-powered phishing emails. To wiadomości wyłudzające dane, które są generowane za pomocą AI. Dzięki zastosowaniu sztucznej inteligencji, wyglądają one niezwykle wiarygodnie i są często niemożliwe do odróżnienia od autentycznej korespondencji, co znacznie zwiększa ich skuteczność.
Dodatkowo, sztuczna inteligencja jest wykorzystywana do przechodzenia przez systemy CAPTCHA, które pierwotnie zostały zaprojektowane w celu odróżnienia ludzi od botów. To nie tylko dowód na rosnącą moc obliczeniową AI, ale także doskonały przykład, jak szybko technologia ta potrafi dostosować się do nowych wyzwań.
Sztuczna inteligencja jest używana także do łamania haseł metodą ‘brute-force’, czyli sprawdzania wszystkich możliwych kombinacji. Zadanie, które wcześniej wymagało ogromnej mocy obliczeniowej i czasu, dzięki zastosowaniu AI zostało znacznie skrócone. Dlatego warto zastanowić się czy wszędzie używamy innych haseł, czy są one silne i czy mamy włączoną weryfikację dwuetapową.
W świecie cyberbezpieczeństwa, gdzie często korzysta się z modeli uczenia maszynowego (ang. Machine Learning) do wykrywania zagrożeń, hakerzy wykorzystują AI do manipulacji danymi wejściowymi w celu zmylenia systemów detekcji. Tym samym, potrafią ukryć swoje działania i utrudnić wykrycie ataków.
Jednak to, co być może najbardziej zaskakujące i niepokojące, to wykorzystanie AI do tworzenia tzw. deepfake - zmanipulowanych materiałów wideo lub audio, które są niemal niemożliwe do odróżnienia od oryginału. Niestety, nie trzeba już znaczącej kreatywności, aby wyobrazić sobie przygotowaną przez hakerów zmanipulowaną wiadomość prezesa do głównej księgowej z prośbą o realizację przelewu na konto w rzeczywistości należące do przestępców.