EY oznacza globalną organizację i może odnosić się do jednej lub więcej firm członkowskich Ernst & Young Global Limited, z których każda stanowi odrębny podmiot prawny. Ernst & Young Global Limited, brytyjska spółka z ograniczoną odpowiedzialnością, nie świadczy usług na rzecz klientów.
Jak EY może pomóc
-
Doradztwo w zakresie cyberbezpieczeństwa może być realizowane w wielu obszarach m.in.: prawnym, organizacyjnym lub technologicznym. Utrzymanie specjalistycznych kompetencji w każdej z tych dziedzin jednocześnie jest wyzwaniem.
Przeczytaj więcej
Mocniejszy pancerz: trójstronne podejście skoncentrowane na technologii, zarządzaniu i operacjach
Jeśli organizacje chcą być konkurencyjne, nie mogą pozwolić, by zarządzanie cyberbezpieczeństwem hamowało wdrażanie rozwiązań opartych na AI. Zamiast tego, działy zajmujące się cyberbezpieczeństwem potrzebują nowych metod, umożliwiających odpowiedzialny rozwój firmy w tym obszarze.
Aby adekwatnie rozwijać umiejętności pracowników w obszarze cyberbezpieczeństwa, funkcja nim zarządzająca potrzebuje mieć obraz całościowego wykorzystania narzędzi AI w organizacji. Wymaga to trójstronnego podejścia skoncentrowanego na technologii, zarządzaniu i operacjach.
W obszarze technologii, firmy zajmujące się bezpieczeństwem i sieciami opracowują rozwiązania umożliwiające zespołom ds. cyberbezpieczeństwa wykrywanie wykorzystania usług AI, śledzenie przepływu i pochodzenia danych oraz automatyzacji zgodności poprzez wspólne kontrole i testy. Inne wykorzystują dane już znajdujące się w sieci organizacji do monitorowania aktywności, np. załadowanych dokumentów lub poleceń używanych w funkcji ChatGPT. Sztuczna inteligencja jest również coraz częściej wykorzystywana w procesach zarządzania incydentami. Należy jednak podkreślić, że technologia powinna być tylko uzupełnieniem szerszej oceny potencjalnych ryzyk dla firmy.
Polityka cyberbezpieczeństwa powinna od początku koncentrować się na modelowaniu zagrożeń, w tym na sporządzeniu wykazu usług sztucznej inteligencji dostarczanych przez podmioty trzecie i czwarte, począwszy od architektury i samej usługi, a skończywszy na wymaganych integracjach i interfejsach API. Modelowanie tych zagrożeń w ujęciu zbiorczym pozwala organizacjom na kwantyfikację i wykrycie ryzyka, a także na opracowanie odpowiednich mechanizmów kontrolnych. Organizacje muszą również przyjąć procedury zapewniające ochronę danych, przepisy dotyczące prywatności przy opracowywaniu modeli AI oraz odpowiedzialność za wyniki algorytmów. Powinno to obejmować nie tylko wymagania dotyczące zgodności, ale także kwestie etyczne.
Ocena zagrożeń musi być wspierana przez skuteczny system operacyjny, umożliwiający adaptację do dynamicznych i interaktywnych rozwiązań AI i zbiorów danych oraz zapewniający ciągłą weryfikację, klasyfikację i określenie zakresu danych, w tym oznaczanie wrażliwości i krytyczności danych. Jak wynika z naszych badań, firmy oznaczają lub klasyfikują zaledwie 20% swoich danych. Wynika z tego, że chcąc zapewnić odpowiednie zabezpieczenia w kwestiach takich jak tożsamość, zarządzanie dostępem, przepływ danych, dostęp do nich i ich pochodzenie, firmy powinny nadać priorytet oznakowaniu (tagging) i weryfikacji swoich najbardziej krytycznych i wrażliwych danych.
Przy wdrażaniu skutecznego modelu zarządzania cyberbezpieczeństwem, kluczowe znaczenie ma modelowanie zagrożeń i zarządzanie dostępem do danych. Organizacje muszą być jednak świadome ryzyka stosowania nieadekwatnych już i nieskutecznych mechanizmów reagowania. Jednym z podejść jest powołanie na okres 6 miesięcy do zarządu firmy rotacyjnego eksperta ds. sztucznej inteligencji z uprawnieniem do opracowania nowego modelu zarządzania, w tym również koncentracji na rozwoju umiejetności pracowników w obszarze korzystania z AI. Potrzebne jest także ustanowienie jasnych zasad, aby zapewnić odpowiednie przypisanie obowiązków w zarządzaniu AI, w różnych rolach obejmujących nadzór, odpowiedzialność i użytkowanie.