Wraz z dynamicznym rozwojem sztucznej inteligencji nastała epoka niepewności.
Idący za technologią ogromny potencjał otworzył nowe możliwości z zakresu manipulowania materiałami wideo. Praktykowane przez nieuczciwych użytkowników Internetu metody mogą wywołać chaos, zasiać wątpliwości, a nawet doprowadzić do zdestabilizowania sceny politycznej. A to wszystko dzieje się za sprawą deepfake.
Pojęcie deepfake wiąże się z technologią, która poprzez wykorzystanie sztucznej inteligencji umożliwia przeróbkę wideo lub nagrania głosowego. Będąc w posiadaniu zbioru danych konkretnej osoby, chociażby nawet jednego zdjęcia czy kilkusekundowego uchwycenia głosu sprawca jest w stanie stworzyć zupełnie fikcyjne zachowanie danej osoby, kreując tym samym coś, co nie miało miejsca w rzeczywistości. Sam termin deepfake wywodzi się od pseudonimu użytkownika, który w 2017 roku opublikował w Internecie fałszywe wideo z wizerunkami celebrytów, zrealizowane przy użyciu algorytmu uczenia się maszynowego. Nomen omen, pojęcie to powstało z połączenia pojęć deep learning (głębokie uczenie) oraz fake (fałszywy).
Wspomniany w akapicie powyżej materiał wideo użytkownika o nicku DeepFake szybko obiegł świat, a sam podstęp ograniczał się jedynie do nałożenia twarzy znanych osób na miejsca twarzy aktorów gotowego filmu. Film zyskał dużą popularność, a szybka reakcja środowiska tylko potwierdziła idące za technologią obawy: deepfake stał się narzędziem nie tylko do szeroko pojmowanej zabawy, ale i do manipulacji rzeczywistością na globalną skalę.
W ciągu ostatnich lat technologia deepfake ewoluowała, a użytkownicy internetu coraz częściej natykali się na przypadki zmanipulowanych materiałów wideo. Do historii z pewnością przejdzie opublikowany w kwietniu 2018 roku przez serwis BuzzFeed niezwykle realistyczny, aczkolwiek fałszywy film, prezentujący byłego prezydenta Stanów Zjednoczonych Baracka Obamę(1). Na celowo spreparowanym materiale wideo, Barack Obama wypowiada słowa, których nigdy nie wypowiedział. Serwis BuzzFeed publikując niniejsze wideo chciał wyczulić użytkowników internetu na zagrożenia, jakie niesie ze sobą niewłaściwe wykorzystanie technologii. W materiale nieprawdziwy Obama informuje, że „wkraczamy w erę, w której nasi wrogowie mogą zmusić kogokolwiek do wypowiedzenia dowolnych słów w dowolnym momencie”.
Powyższy przykład skłania do refleksji nad bezpieczeństwem i wiarygodnością materiałów publikowanych w sieci. Stajemy się obserwatorami nieuchronnego wyścigu zbrojeń pomiędzy autorami fałszywych materiałów wideo, a uczonymi stojącymi na straży bezpieczeństwa. Naukowcy, przy wsparciu ze strony prywatnych firm, jak i agencji rządowych opracowują coraz to doskonalsze metody wykrywania fałszywych filmów. Jednym ze skutecznych sposobów może być analiza szybkości mrugania. Szacuje się, że przeciętna, zdrowa osoba mruga średnio od 15 do 20 razy na minutę. Natomiast algorytmy stosowane w większości zmanipulowanych materiałów wideo, z racji swojej niedoskonałości, nie odzwierciedlają w prawidłowy sposób tej naturalnej cechy ludzkiej. Niestety, przeciętny widz może nie zorientować się, że ma do czynienia z oszustwem. Nie zauważy tej niedoskonałości obrazu i będzie przekonany o jego autentyczności.
Łatwy dostęp do technologii umożliwiających manipulację obrazem online stwarza niewyobrażalne zagrożenie dla osób prywatnych, organizacji, grup społecznych, czy nawet państw. Kradzież tożsamości, wydobycie istotnych informacji, szantaż to tylko nieliczne przykłady negatywnego zastosowania narzędzi wirtualnego świata.
Warto dodać, że dostęp do zdjęć i nagrań jeszcze nigdy nie był tak prosty jak ma to miejsce w obecnych czasach. Portale społecznościowe stają się nieocenionym źródłem dla przestępców, którzy dzięki zgromadzonemu materiałowi są w stanie stworzyć sztuczną postać swojej ofiary, dokładnie odwzorować jej wygląd, jak również zmodulować głos, czy nadać odpowiedni akcent. Nawet, jeśli ofierze uda się zdemaskować zmanipulowane nagranie, to możliwe, że wynikające z tego filmu konsekwencje będą już nieodwracalne.
Kolejnym przykładem negatywnego zastosowania sztucznej inteligencji wartym przytoczenia jest możliwość manipulacji opinia publiczną. Wystarczy wyobrazić sobie sfałszowane filmy z wizerunkami osób ze środowiska polityki, instytucji państwowych, dziennikarzy czy pracowników organizacji mające na celu zachwianie ich autorytetem. Prowokacyjne filmy mogą wywołać niepokój w społeczeństwie, a także sprawić, że wiarygodność „występujących w nich aktorów” będzie kwestionowana(2).
Na arenie międzynarodowej zaobserwować można rosnące zainteresowanie problematyką deepfake. 8 listopada 2019 roku NATO opublikowało raport: „The Role of Deepfakes in Malign Influence Campaigns”(3), który prezentuje między innymi szerokie możliwości, jeśli idzie o zastosowanie sztucznej inteligencji oraz zatrważające prognozy na przyszłość związane z tym zjawiskiem. Państwa takie jak USA czy Chiny zdecydowały się rozpocząć walkę z nieuczciwymi praktykami świata internetu konsekwentnie rozbudowując funkcjonujący w tych państwach zbiór praw o nowe przepisy z zakresu ochrony przed spreparowanymi treściami wideo. Przykładowo, w Kalifornii została podpisana ustawa nowelizująca prawo wyborcze. Według jej postanowień zabrania się tworzenia zmanipulowanych filmów przedstawiających wizerunki polityków oraz ich rozpowszechniania. W Chinach natomiast już 1 marca 2020 roku wejdzie w życie prawo przeciwdziałające m.in. deepfake’om. Według niego, każdy spreparowany materiał, który przed publikacją w sieci nie zostanie oznaczony, jako wytwór sztucznej inteligencji będzie traktowany, jako efekt czynu niosącego znamiona przestępstwa (4).
Podsumowując, zastosowania sztucznej inteligencji są w zasadzie nieograniczone. Niezaprzeczalny jest też jej ogromny potencjał. Warto jednak z dystansem i ostrożnością podchodzić do treści publikowanych w internecie. To, co z pozoru mogłoby wydawać się rzeczywistością, może okazać się „nową prawdą” wykreowaną przez osobę znajdującą się po drugiej stronie łącza. Postulujemy zachowanie odpowiedniej higieny w cyfrowym świecie, a także rozwagę w korzystaniu z dobrodziejstw wirtualnej rzeczywistości.
Autorką niniejszego artykułu jest Daria Graczyk.
Zobacz również
Wstecz