zdjęcie do artykułu: Sztuczna inteligencja – zagrożenie czy zbawienie? Podsumowanie debaty oksfordzkiej

Sztuczna inteligencja – zagrożenie czy zbawienie? Podsumowanie debaty oksfordzkiej


Powiązane tematy

Sztuczna inteligencja w coraz większym stopniu wpływa na nasze codzienne życie oraz determinuje prowadzenie biznesu. Z jednej strony liczne rozwiązania na niej oparte są dużym udogodnieniem w wielu dziedzinach życia. Z drugiej zaś, pojawia się coraz więcej obaw co do negatywnych scenariuszy wykorzystania jej potencjału. 

Jeszcze kilka lat temu sztuczna inteligencja (ang. Artificial Intelligence, AI) wydawała się być częścią filmów science-fiction. Opowieści o lodówce robiącej zakupy brzmiały jak bajka. Dzisiaj AI (a wraz z nią uczenie maszynowe) jest obecna prawie wszędzie. W 2018 roku tylko 30% przedsiębiorstw korzystało z AI w swoich działaniach marketingowych, w 2020 roku robiło to już 85%. Zadaliśmy sobie pytanie, czy to dobrze, czy źle, i zorganizowaliśmy debatę oksfordzką z udziałem naszych specjalistów. W niniejszym artykule przedstawiamy najważniejsze jej konkluzje. 

Debata Oksfordzka EY

Kto się boi sztucznej inteligencji?


Sztuczna inteligencja – zagrożenie?

Nie ma wątpliwości, że sztuczna inteligencja jak każda technologia, może być wykorzystywana w dobrych i złych celach. AI może stanowić zagrożenie, gdyż możliwości jakie otwiera mogą pomagać oszukiwać ludzi oraz manipulować nimi. Jednym z najgłośniejszych przykładów takich działań, były próby wpływania za pomocą serwisu społecznościowego na wyniki wyborów prezydenckich w USA. Takich przykładów może być więcej.

 „Nie możemy przymykać oczu na zagrożenia, nie możemy być zaślepieni obietnicami o wspaniałych możliwościach sztucznej inteligencji” – podkreśla Maciej Bisch, adwokat EY Law. Co więcej, maszyn nie można nauczyć etycznych zachowań, a algorytmy, na których się opierają, są stworzone przez człowieka, więc mogą mieć zakodowane uprzedzenia swojego twórcy (np. dotyczące płci). Jeden z uczestników debaty przytoczył badania Women’s World Banking, według których algorytmy AI mogą obniżać zdolność kredytową kobiet, w sytuacji której algorytmy zostaną zaprogramowane w sposób dyskryminujący.

Kolejnym wątpliwym etycznie wykorzystaniem sztucznej inteligencji jest deepfake, czyli przekaz informacyjny tworzony za pomocą algorytmów uczenia głębokiego, polegający na takim wykorzystywaniu obrazu lub dźwięku z udziałem rzeczywistej postaci aby uzyskać jego przerobioną fałszywą wersję. Justyna Wilczyńska - Baraniak adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych w EY Law argumentowała, że „jako społeczeństwa musimy mieć świadomość, skąd czerpać prawdziwe informacje. Bez tego deepfake może zniszczyć biznesy i ludzi. USA przeznaczyły już miliardy dolarów na stworzenie technologii, która będzie pomagała w identyfikacji deepfake. Justyna Wilczyńska - Baraniak przypomniała także sprawę deepfake’a, w którym zmanipulowano głos prezesa firmy i wydano dyrektorowi finansowemu polecenie zrobienia ogromnego przelewu z konta przedsiębiorstwa. W efekcie straciło ono ćwierć miliona dolarów.

Sztuczna inteligencja - zbawienie?

Jedną z ważniejszych, a zarazem pozytywnych ról, jakie może odegrać AI, są jej funkcjonalności i zastosowanie w cyberbezpieczeństwie. Chroni nas, zwykłych użytkowników, i pomaga tym, którzy zawodowo walczą z cyberprzestępcami. Biometryczne metody weryfikacji, w tym skanowanie twarzy czy obserwowanie zachowań użytkowników w celu wykrycia anomalii, utrudniają, dzięki AI, dostęp osobom nieuprawnionym do urządzeń mobilnych czy danych.

„Wszędzie tam, gdzie mamy do czynienia z analizą dużej ilości danych związanych z działalnością ludzi, danych często z różnych źródeł, które trzeba ze sobą korelować, AI jest niezbędna” – stwierdził Jakub Walarus. „Żadna firma nie byłaby w stanie efektywnie zatrudnić w przyszłości tylu osób, by wykonywały pracę, którą będzie wykonywać dla nas AI i uczące się maszyny. Co więcej, dzięki niej można wykrywać działania cyberprzestępców” – dodał.

W Zespole Cyberbezpieczeństwa w ramach projektu Security Data Analytics EY prowadzone są prace nad rozwiązaniami, które w oparciu o modele analityczne, będą w stanie wspierać specjalistów zajmujących się cyberbezpieczeństwem w zwiększaniu ich efektywności i skuteczności wykrywania ataków na systemy informatyczne. Te modele wykorzystują uczenie maszynowe oraz AI.

O plusach AI można napisać dużo, ale dwa jej zastosowania wydają się być kluczowe. Są to edukacja i medycyna. Już niedługo uczniowie zamiast uczyć się szczegółów na temat wojen napoleońskich będą mogli porozmawiać z Napoleonem. Pozytywną odmianą deepfake są również kampanie społeczne. W jednej z nich David Beckham opowiadał o malarii w 9 językach. Siri czy Alexa to także rodzaj deepfake, bo mogą mówić nie tylko swoim syntetycznym głosem, ale głosami znanych osób.

Największe osiągnięcia AI ma w medycynie. Tworzenie profili pacjentów, na których testuje się nowe leki, algorytmy, które pozwalają na precyzyjne rozpoznanie raka piersi czy płuc, analizowanie zdjęć rentgenowskich, czy analizowanie danych medycznych to tylko niektóre z już istniejących zastosowań AI w medycynie. A to dopiero początek.

Dodajmy do tego usprawnienie produkcji, logistyki czy przeciwdziałanie terroryzmowi. W tych wszystkich przypadkach z punktu widzenia interesu społecznego sztuczna inteligencja ma rację bytu.

Kodeks dobrych praktyk AI to za mało?

Aby kontrolować algorytmy i uniknąć zagrożeń wynikających z AI, potrzebne są regulacje prawne. Twarde lub miękkie, ale mające podstawy etyczne. W ich centrum musi być człowiek, bo „sztuczna inteligencja ma służyć człowiekowi” – podkreślał Maciej Bisch przywołując obszary, gdzie obserwuje się zagrożenia naruszeń praw podstawowych człowieka. Dla przykładu podał rekrutację prowadzoną w jednym z międzynarodowych koncernów, podczas której użyto algorytmy dyskryminujące kobiety.

Regulacje prawne są niezbędne. Co więcej, muszą być silne i wiążące. Wiele firm już dzisiaj robi wszystko by omijać niewygodne dla nich przepisy czy standardy. Jedynym rozwiązaniem są zatem twarde regulacje z drakońskimi karami, np. 5% globalnego obrotu za nadużycia. Tylko tego typu regulacje wymuszą na firmach używanie uczenia maszynowego do rzeczy korzystnych dla człowieka

Z drugiej strony, Joanna Gałajda podkreśliła, że tempo rozwoju technologii jest tak duże, że prawodawcy za nim nie nadążają. Jako przykład podała niefortunne sformułowanie przepisów w polskim prawie, które zamroziło zastosowanie chmury w sektorze bankowym. Antidotum na to przyniosły rekomendacje.

Złotym środkiem dla regulacji w zakresie technologii są wytyczne, rekomendacje które byłyby oparte na ogólnie przyjętych standardach i dobrych praktykach. To by nam pozwoliło na stworzenie elastycznych regulacji. I ta elastyczność jest kluczem do sukcesu.
W obecnym projekcie rozporządzenia unijnego, definicja sztucznej inteligencji wskazana jest w załączniku do rozporządzenia. Może on być zmieniony w krótszej procedurze niż cały akt prawny. Dlaczego? Bo nie jesteśmy w stanie zagwarantować, że nadążymy za tym jak zmienia się ta definicja i postrzeganie sztucznej inteligencji, ewentualnie też ryzyk z nią związanych

Istotnym problemem, na który zwracali eksperci, jest globalne podejście do klasyfikacji AI, które przekłada się na regulacje. Z jednej strony jest amerykański system prawny, z drugiej europejski, a z trzeciej chiński. Bez odpowiedniego podejścia poszczególnych państw nie da się wypracować wspólnych zasad.

Koordynacji prac na rzecz wypracowania wspólnych zasad podjęły się kraje grupy G7 ze Stanami Zjednoczonymi na czele. W 2018 roku ogłosiły inicjatywę Global Partnership on Artificial Intelligence (GPAI). W 2020 roku dołączyły do niej niektóre kraje OBWE oraz UNESCO. Celem jest stworzenie i wypromowanie globalnych standardów podejścia do AI. Jednocześnie w 2021 roku Komisja Europejska zaproponowała swoje regulacje dotyczące AI.

Głównym celem proponowanych rozwiązań, które uwzględniają najważniejsze obszary ryzyka, jest zbudowanie zaufania obywateli do AI i większe wykorzystanie jej w biznesie.

Jakiekolwiek regulacje zostaną ostatecznie przyjęte muszą, podobnie jak wszystkie inne przepisy, być egzekwowalne. RODO wprowadziło prawo do bycia zapomnianym, ale „jak zwykły człowiek ma sprawdzić, czy cyfrowi dostawcy rzeczywiście skasowali dane?” – pytała Joanna Gałajda.

AI a naruszenia prywatności

Jednym z ryzyk, jakie niesie wdrażanie AI, jest naruszenie prywatności. Justyna Wilczyńska – Baraniak podczas debaty podkreśliła, że ludzie nie mają świadomości, jak bardzo sami ją poświęcamy chociażby w mediach społecznościowych. I chociaż absolutna prywatność nie istnieje, co podkreślał też Europejski Trybunał Praw Człowieka, to kwestia ta wymaga dodatkowego uregulowania.

Digital Market Act (DMA) oraz Digital Services Act (DSA), zaproponowane w 2020 roku przez Komisję Europejską, będą swoistą konstytucją internetową. Miejmy nadzieję, że wprowadzą obowiązek transparentnego i prostego informowania użytkowników o stopniu wykorzystywania ich danych osobowych.

Jakub Walarus zwracał uwagę, że należy patrzeć na zagadnienie prywatności nie tylko z perspektywy jednostki, ale także uzasadnionego interesu społecznego. „Musimy w pewnym momencie zadać sobie pytanie jako społeczeństwo czy chcemy czuć się zagrożeni trzymając wszystkie swoje dane tylko dla siebie w sejfie, czy jednak w jakimś stopniu je udostępnić i pozwolić przetwarzać na zewnątrz, tak by w zamian poczuć się bezpiecznie” – powiedział.

Maciej Bisch przypomniał, że dane są produktem sprzedawanym za miliardy dolarów. Przytoczył powiedzenie z lat 70. XX wieku, że jeśli coś jest za darmo, to człowiek jest produktem. „To się zmieniło. Dzisiaj jesteśmy świadomi tego, że jesteśmy produktem i godzimy się na to, o ile dostaniemy coś w zamian” – dodała Joanna Gałajda. Czasami personalizacja jest ważniejsza niż prywatność.



Podsumowanie

Zdaniem ekspertów trzeba szukać złotego środka polegającego na ochronie prywatności przy jednoczesnym dostarczaniu danych, które technologia wykorzysta na rzecz dobra jednostek i społeczeństw. A w międzyczasie – zanim świat wypracuje wspólne przepisy dotyczące AI – być może z pomocą standardów ISO stworzyć tymczasowe wytyczne.


Kontakt
Chcesz dowiedzieć się wiecej? Skontaktuj się z nami.

Informacje

Autorzy

Powiązane artykuły

Sztuczna inteligencja - czym jest? Czy AI wpłynie na sytuację na rynku pracy w Polsce?

Co to jest sztuczna inteligencja i w jaki sposób wpływa ona na strukturę współczesnych branż? Jak rozwój AI wpłynie na sytuację pracowników? Czy możemy spodziewać się redukcji etatów? Na te pytania odpowiadamy w artykule.