Sztuczna inteligencja – zagrożenie?
Nie ma wątpliwości, że sztuczna inteligencja jak każda technologia, może być wykorzystywana w dobrych i złych celach. AI może stanowić zagrożenie, gdyż możliwości jakie otwiera mogą pomagać oszukiwać ludzi oraz manipulować nimi. Jednym z najgłośniejszych przykładów takich działań, były próby wpływania za pomocą serwisu społecznościowego na wyniki wyborów prezydenckich w USA. Takich przykładów może być więcej.
„Nie możemy przymykać oczu na zagrożenia, nie możemy być zaślepieni obietnicami o wspaniałych możliwościach sztucznej inteligencji” – podkreśla Maciej Bisch, adwokat EY Law. Co więcej, maszyn nie można nauczyć etycznych zachowań, a algorytmy, na których się opierają, są stworzone przez człowieka, więc mogą mieć zakodowane uprzedzenia swojego twórcy (np. dotyczące płci). Jeden z uczestników debaty przytoczył badania Women’s World Banking, według których algorytmy AI mogą obniżać zdolność kredytową kobiet, w sytuacji której algorytmy zostaną zaprogramowane w sposób dyskryminujący.
Kolejnym wątpliwym etycznie wykorzystaniem sztucznej inteligencji jest deepfake, czyli przekaz informacyjny tworzony za pomocą algorytmów uczenia głębokiego, polegający na takim wykorzystywaniu obrazu lub dźwięku z udziałem rzeczywistej postaci aby uzyskać jego przerobioną fałszywą wersję. Justyna Wilczyńska - Baraniak adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych w EY Law argumentowała, że „jako społeczeństwa musimy mieć świadomość, skąd czerpać prawdziwe informacje. Bez tego deepfake może zniszczyć biznesy i ludzi. USA przeznaczyły już miliardy dolarów na stworzenie technologii, która będzie pomagała w identyfikacji deepfake. Justyna Wilczyńska - Baraniak przypomniała także sprawę deepfake’a, w którym zmanipulowano głos prezesa firmy i wydano dyrektorowi finansowemu polecenie zrobienia ogromnego przelewu z konta przedsiębiorstwa. W efekcie straciło ono ćwierć miliona dolarów.
Sztuczna inteligencja - zbawienie?
Jedną z ważniejszych, a zarazem pozytywnych ról, jakie może odegrać AI, są jej funkcjonalności i zastosowanie w cyberbezpieczeństwie. Chroni nas, zwykłych użytkowników, i pomaga tym, którzy zawodowo walczą z cyberprzestępcami. Biometryczne metody weryfikacji, w tym skanowanie twarzy czy obserwowanie zachowań użytkowników w celu wykrycia anomalii, utrudniają, dzięki AI, dostęp osobom nieuprawnionym do urządzeń mobilnych czy danych.
„Wszędzie tam, gdzie mamy do czynienia z analizą dużej ilości danych związanych z działalnością ludzi, danych często z różnych źródeł, które trzeba ze sobą korelować, AI jest niezbędna” – stwierdził Jakub Walarus. „Żadna firma nie byłaby w stanie efektywnie zatrudnić w przyszłości tylu osób, by wykonywały pracę, którą będzie wykonywać dla nas AI i uczące się maszyny. Co więcej, dzięki niej można wykrywać działania cyberprzestępców” – dodał.