A fenti számok ismeretében látható, hogy a technológia ma is jelentős hatást fejt ki a globális és a magyar gazdaságra, valamint az emberek mindennapjaira. Így érdemes megvizsgálni, milyen etikai kérdései lehetnek az alkalmazásának.
Az Európai Parlament (EP) szakértői egy tizenkét elemből álló listában foglalták össze az AI kapcsán felmerülő etikai kérdéseket[1]. Ezek közül a vállalatok számára releváns lehet:
- Munkaerőpiaci hatás – Hány munkahelyet teremt és veszélyeztet az AI egyre szélesebb körű alkalmazása? Milyen algoritmus és mintázatok mentén szűri az egy adott állásra jelentkező személyeket az AI? Milyen teljesítményértékelési döntéseket készít az AI a munkavállalókról?
- Pénzügyi hatás – Milyen hatása van az AI által hozott döntéseknek a vállalatok eredményességére és más pénzügyi mutatóira?
- Elszámoltathatóság és felelősség – Hogyan határozható meg, hogy ki egy adott AI által hozott döntés felelőse?
- Megfelelés – Hogyan biztosítható, hogy az AI által hozott döntések megfeleljenek a mindenkori jogszabályoknak, szabályozói elvárásoknak, ajánlásoknak, standardokan, és jó gyakorlatoknak? Hogyan garantálható az AI által kezelt személyes adatok megfelelő (GDPR szerinti) kezelése?
- Biztonság – Hogyan garantálható az AI informatikai környezetének biztonsága? Hogyan védhető az AI rendszer a csaló szándékú külső beavatkozásoktól?
Ezeket az aggodalmakat támasztja alá az EY felmérése is[2] a felhasználók körében. Habár a felhasználók túlnyomó része (~95%) tisztában van az AI fogalmával, de technológia működését alig harmaduk (~30%) érti. Ezen felül a felhasználók aggódnak, hogy a vállalatok szabálytalanul használják fel személyes adataikat, a vállalatok által használt technológiák nem transzparensek, és manipulálhatják a megatartásukat.
Új EU-s rendelettervezet
A felhasználói aggodalmakat a mérlegre helyezve az Európai Biztosság elkezdte egy új rendelet kidolgozását. Itt fontos hangsúlyozni, hogy a dokumentum jelenleg csak javaslat státuszban, van így a végleges elvárások pontos meghatározáshoz meg kell várni a végleges szöveg megjelenését. Azonban a szabályozás fő irányvonalai így is kiolvashatók.
A rendelet az irányítási rendszerek többségéhez hasonlóan kockázat lapú megközelítést alkalmaz, ezen belül pedig elfogadhatatlan-, nagy-, illetve alacsony vagy minimális kockázattal járó kategóriákba sorolja az AI rendszereket.
Az elfogadhatatlan kockázatú megoldások közé tartozhatnak majd például:
- Természetes személyek magatartásának szándékos befolyásolására, torzítására használt AI rendszerek
- Természetes személyeket célzó, valós idejű, távoli biometrikus azonosítására használt AI rendszerek nyilvánosság számára hozzáférhető helyeken
A nagy kockázatú AI rendszerek közé pedig például az alábbiak:
- Természetes személyek valós idejű és nem valós idejű, távoli, biometrikus azonosítására szolgáló AI rendszerek
- Víz-, gáz-, fűtési és villamosenergia-szolgáltatás során használt AI rendszerek
- Természetes személyek hitelképességének értékelésére vagy hitelpontszámuk megállapítására használt AI rendszerek
- Természetes személyek toborzására vagy kiválasztására használt AI rendszerek
Az elfogadhatatlan kockázattal rendelkező mesterséges intelligencia alkalmazása főszabály szerint tilos lehet a rendelet jelenlegi szövegtervezete alapján. A nagy kockázatú rendszer esetén elvárás lehet – a teljesség igénye nélkül - egy sor kontroll és működési változás alkalmazása, többek közt:
- Kockázatkezelési rendszer bevezetése
- Minőségirányítási rendszer bevezetése
- AI rendszerek folyamatos fejlesztése
- Átláthatóság és felhasználó tájékoztatása
- Emberi felügyelet garantálása
- Adatkezelési gyakorlatok megfelelősége (beleértve a személyes adatokat is)
- Cyber-biztonsági elvárások teljesítése
- Naplózás biztosítása
- Bejelentés felügyeleti hatóság felé
- Műszaki dokumentáció összeállítása
A rendelet az únión kívüli vállaltokra is vonatkozhat, az EU-s állpolgárok is az általuk használt AI rendszerek hatálya alá esnek majd és büntetési tétele magasabb lehet a GDPR-nál , akár 30 millió EUR vagy az adott cégcsoport globális árbevételének 6%-a.