EY-ferfi-beszelget-egy-robottal-kep.jpg

Ki felel egy mesterséges intelligencia döntéseiért?


Kapcsolódó témák

A mesterséges intelligencia kockázatai. Szerző: Attila Schrettner, EY, Felelős Üzleti Működés Szolgáltatások.

2021 november 25-én az UNESCO  összes tagállama megállapodott egy, a mesterséges intelligencia (a továbbiakban: ”AI”) technológia egészséges fejlődését lehetővé tévő értékeket és alapelveket rögzítő dokumentum elfogadásáról . Hasonló módon fogadott el ajánlásokat az OECD  és a G20 is. De mi teszi szükségessé, hogy nemzetközi szintű megállapodások születhessenek ebben a témában, amely első érzésre még jövőszerűnek tűnik?

Az ok, hogy a gyakorlatban épp az ellenkezőjét látjuk ennek a megérzésnek. Nemzetközi szinten a vállalatok 86%-a válaszolta, hogy az AI – részben a COVID-nak is köszönhetően – mainstream technológiának számít. A cégek 67%-a, 2021-ben tovább fejlesztette ezt a területet. Ennek oka, hogy a technológiától elvárják a folyamatok hatékonyságának növelését (74%), azt, hogy új üzleti modelleket hozzon létre (55%) és támogassa innovatív termékek és szolgáltatások piacra kerülését (54%). 

A vállalatok
-a szerint az AI mainstream technológiának számít.

A fenti számok ismeretében látható, hogy a technológia ma is jelentős hatást fejt ki a globális és a magyar gazdaságra, valamint az emberek mindennapjaira. Így érdemes megvizsgálni, milyen etikai kérdései lehetnek az alkalmazásának.

Az Európai Parlament (EP) szakértői egy tizenkét elemből álló listában foglalták össze az AI kapcsán felmerülő etikai kérdéseket[1]. Ezek közül a vállalatok számára releváns lehet:

  • Munkaerőpiaci hatás – Hány munkahelyet teremt és veszélyeztet az AI egyre szélesebb körű alkalmazása? Milyen algoritmus és mintázatok mentén szűri az egy adott állásra jelentkező személyeket az AI? Milyen teljesítményértékelési döntéseket készít az AI a munkavállalókról?
  • Pénzügyi hatás – Milyen hatása van az AI által hozott döntéseknek a vállalatok eredményességére és más pénzügyi mutatóira?
  • Elszámoltathatóság és felelősség – Hogyan határozható meg, hogy ki egy adott AI által hozott döntés felelőse?
  • Megfelelés – Hogyan biztosítható, hogy az AI által hozott döntések megfeleljenek a mindenkori jogszabályoknak, szabályozói elvárásoknak, ajánlásoknak, standardokan, és jó gyakorlatoknak? Hogyan garantálható az AI által kezelt személyes adatok megfelelő (GDPR szerinti) kezelése?
  • Biztonság – Hogyan garantálható az AI informatikai környezetének biztonsága? Hogyan védhető az AI rendszer a csaló szándékú külső beavatkozásoktól?

Ezeket az aggodalmakat támasztja alá az EY felmérése is[2] a felhasználók körében. Habár a felhasználók túlnyomó része (~95%) tisztában van az AI fogalmával, de technológia működését alig harmaduk (~30%) érti. Ezen felül a felhasználók aggódnak, hogy a vállalatok szabálytalanul használják fel személyes adataikat, a vállalatok által használt technológiák nem transzparensek, és manipulálhatják a megatartásukat.

Új EU-s rendelettervezet

A felhasználói aggodalmakat a mérlegre helyezve az Európai Biztosság elkezdte egy új rendelet kidolgozását. Itt fontos hangsúlyozni, hogy a dokumentum jelenleg csak javaslat státuszban, van így a végleges elvárások pontos meghatározáshoz meg kell várni a végleges szöveg megjelenését. Azonban a szabályozás fő irányvonalai így is kiolvashatók.

A rendelet az irányítási rendszerek többségéhez hasonlóan kockázat lapú megközelítést alkalmaz, ezen belül pedig elfogadhatatlan-, nagy-, illetve alacsony vagy minimális kockázattal járó kategóriákba sorolja az AI rendszereket. 

Az elfogadhatatlan kockázatú megoldások közé tartozhatnak majd például:

  • Természetes személyek magatartásának szándékos befolyásolására, torzítására használt AI rendszerek
  • Természetes személyeket célzó, valós idejű, távoli biometrikus azonosítására használt AI rendszerek nyilvánosság számára hozzáférhető helyeken

A nagy kockázatú AI rendszerek közé pedig például az alábbiak:

  • Természetes személyek valós idejű és nem valós idejű, távoli, biometrikus azonosítására szolgáló AI rendszerek
  • Víz-, gáz-, fűtési és villamosenergia-szolgáltatás során használt AI rendszerek
  • Természetes személyek hitelképességének értékelésére vagy hitelpontszámuk megállapítására használt AI rendszerek
  • Természetes személyek toborzására vagy kiválasztására használt AI rendszerek

Az elfogadhatatlan kockázattal rendelkező mesterséges intelligencia alkalmazása főszabály szerint tilos lehet a rendelet jelenlegi szövegtervezete alapján. A nagy kockázatú rendszer esetén elvárás lehet – a teljesség igénye nélkül - egy sor kontroll és működési változás alkalmazása, többek közt:

  • Kockázatkezelési rendszer bevezetése
  • Minőségirányítási rendszer bevezetése
  • AI rendszerek folyamatos fejlesztése
  • Átláthatóság és felhasználó tájékoztatása
  • Emberi felügyelet garantálása
  • Adatkezelési gyakorlatok megfelelősége (beleértve a személyes adatokat is)
  • Cyber-biztonsági elvárások teljesítése
  • Naplózás biztosítása
  • Bejelentés felügyeleti hatóság felé
  • Műszaki dokumentáció összeállítása

A rendelet az únión kívüli vállaltokra is vonatkozhat, az EU-s állpolgárok is az általuk használt AI rendszerek hatálya alá esnek majd és büntetési tétele magasabb lehet a GDPR-nál , akár 30 millió EUR vagy az adott cégcsoport globális árbevételének 6%-a. 

Egy cégcsoport globális árbevételének akár
-át is elérheti, az AI rendszerek miatt kiszabott büntetések mértéke.

Látható a trend, hogy közeljövőben egyre több és szofisztikáltabb jó gyakorlat, standard és szabályozás fog megjelenni az AI rendszerek vonatkozásában. Erre pedig célszerű proaktív módon felkészülni a vállalatoknak. Első lépésben célszerű lehet megismerni a jó gyakorlatokat, standardokat és szabályozásokt. Következő lépésben a relevánsnak ítélt elvárásokat javasolt összevetni a vállalt saját képességeivel és felmérni az AI rendszerekhez kapcsolódó érintetteket és kockázatokat. Ezután az azonosított eltérések alapján megfogalmazható egy AI etikai stratégia, egy fejlesztési ütemterv és étre hozható az ezek végrehajtását lehetővé tévő irányítási rendszer kialakítása.

A cikk teljes terjedelmében a Belső Ellenőrök Magyarországi Közhasznú Szervezetének oldalán olvasható.


Összefoglalás

Az AI etikai, kockázati és irányítási kérdéseiben még nincs teljes szakmai konszenzus, jól látható azonban, hogy olyan szabályozás alakul, ami jelentősen befolyásolhatja, hogyan és milyen feltételek mellett lehet majd sikeresen alkalmazni a technológiát.


A cikkről

Related articles

Valóban kifizetődő az etikus működés?

Működésüket kényszerűségből visszafogó cégek, megszakadó beszállítói láncok, bizonytalan anyagi helyzet sok munkavállalónak – a COVID-19-járvány a cégek számára is számos változást hozott. Vajon mindez hogyan befolyásolta a cégek etikus működését Magyarországon? A terület szakértőjeként jó rálátásunk van a nemzetközi és hazai helyzetre – ezzel kapcsolatos tapasztalatainkról számolunk be cikkünkben.

Fújja meg a sípot, ha korrupciót lát!

A vállalati visszaélések hivatalos bejelentése, azaz whistleblowing mintegy fél évszázadnyi múltra tekint vissza, de jelentős változásokat csak az elmúlt évtized és az azzal járó technikai boom hozott a területen.