„Kiderült, hogy létrehozni egy istent – ahogy azt az elődeid is tanúsíthatják – nem egyszerű. Mindenekelőtt adatokra volt szükségünk. És ő volt a mi emberünk. Dempsey gazdag volt, arrogáns. Jó helyen volt, jó időben, az adatvédelmi törvények előtt. És a vállalata, az Incite rendelkezett a világ összes adatával.” (Westworld, 3. évad, 5. rész)

A mesterséges intelligencia (MI) fejlesztése és üzemeltetése kapcsán az elmúlt időszakban elkezdődött tudományos diskurzus – ha a társadalomtudományokat és azokon belül is a jogtudományt nézzük – még nem tudta teljes mértékben hátrahagyni azt a hozzáállást, amelyet az ismeretlentől való rettegés hat át. Való igaz, a jelek egyre biztatóbbak a naiv rettegés leküzdése terén, de

még mindig tetten érhető az ősfélelem, az autonóm, döntések meghozatalára képes szoftverek és gépek világától való rémület.

Emberi lényekként hajlamosak vagyunk arra, hogy a „gondolkodó gépet” egy ponton túl antropomorf, az élő szervezetekre jellemző tulajdonságokkal ruházzuk fel, végső soron pedig mint – felsőbbrendűnek hitt – új létformát az emberiségre veszélyt jelentő jelenségként azonosítsuk. Maszahiro Mori japán robotikakutató a hátborzongató völgy (uncanny valley) hasonlatával írta le ezt a jelenséget az 1970-es években. Ezek szerint amint egyre inkább emberszerűbbek lesznek a robotok, úgy nő velük szemben a rokonszenvünk – de egy ponton túl, amikor már nagyon emberszerűek, egyszer csak bizarrnak, hátborzongatónak és veszélyesnek látjuk őket.

Másrészt az MI által hozott döntések ma már a mindennapok részévé váltak, és az európai jogalkotó is felismerte mindennek társadalmi jelentőségét és a szabályozás szükségességét. Az MI a felhasználó viselkedését vizsgáló, személyre szabott szolgáltatásokat kínáló alkalmazások, önvezető járművek, virtuális asszisztensek vagy komplexebb számítógépes játékok révén jó pár éve már nem csak a sci-fi irodalom része. Az MI működésének vizsgálata szempontjából talán az egyik legfontosabb terület az úgynevezett „gépi tanulás” jelensége, amely során a szoftver a beletöltött adatok alapján „tanul”, és hoz meg különböző döntéseket. A gép által hozott döntés pedig akár egy adott személy törvényes jogaira, magánéletére, sőt akár testi épségére, egészségére is hatással lehet.

Ennek is köszönhető, hogy 2021. április 21-én az Európai Bizottság nyilvánosságra hozta rendelettervezetét, amely kódexszerűen valamennyi uniós tagállamban egységesen szabályozná az MI fejlesztését és üzemeltetését. A nyilvánosságra hozott kódex célja a Bizottság sajtóközleménye szerint, hogy Európa a megbízható MI globális központjává váljon.

A tervezet az MI-ként való besoroláshoz három feltétel együttes teljesülését írja elő. Először is az MI-nek meghatározott technológiákat kell alkalmaznia, másodszor az ember által kijelölt célokat önállóan kell követnie, végül pedig olyan kimeneteleket kell produkálnia, amelyekkel befolyásolja a környezetet. Ződi Zsolt „A mesterséges intelligencia (jogi) fogalma” című, az NKE Információs Társadalom Kutatóintézet blogján megjelent írása alapján az utóbbi két kritérium tulajdonképpen az „autonómia” pontos meghatározására tesz kísérletet. Az új kódex tervezetének egyébként a gépi tanuláson alapuló rendszereken kívül két másik technológiacsoportra, a tudásreprezentáción alapuló és a statisztikai rendszerekre is kiterjed a hatálya.

A Mona Lisa Van Gogh Csillagos éj című képének stílusában, készült a gépi tanulást alkalmazó algoritmussal (neurális hálózati stílusátvitel, Neural Style Transfer)
 

A szabályozás ezenkívül kockázatalapú megközelítéssel négy nagy kategóriába sorolja az MI-szoftvereket.

Az első az elfogadhatatlanul magas kockázatú rendszereket tartalmazza, amelyek egyértelműen veszélyeztetik az emberek biztonságát, megélhetését és jogait. Idesorolja a szabályozási koncepció például azokat az MI-rendszereket, amelyek a felhasználók szabad akaratának megkerülése érdekében manipulálják az emberi viselkedést.

Idetartoznak az olyan rendszerek is, amelyek lehetővé teszik a kormányok általi „társadalmi pontozást”. Ez utóbbit a tervezet tiltja is, amit minden bizonnyal a Kínai Népköztársaságban kifejlesztett és tesztelt társadalmi kreditrendszer ihletett.

A második, azaz magas kockázati kategóriába sorolja be a kódextervezet azon MI-technológiákat, amelyek az emberek egyes alapvető jogaira nézve jelentenek komoly veszélyt. Ezeket a rendszereket a kritikus infrastruktúrák (például közlekedés); az oktatás vagy szakképzés (például vizsgák pontozása); az egyes termékek biztonsági berendezései (például robotsebészet); a foglalkoztatás és munkavállalók irányítása (például munkaerő-felvételhez önéletrajz-válogatás); az alapvető magán- és közszolgáltatások (például hitelbesorolás); a bűnüldözés (például bizonyítékok megbízhatóságának értékelése); a menekültügy és határellenőrzés (például úti okmányok valódiságának ellenőrzése); az igazságszolgáltatás és a demokratikus folyamatok (például törvények konkrét tényállásra való alkalmazása); illetve a személyazonosítás terén alkalmazzák. Az összes távoli biometrikus azonosító rendszer magas kockázatúnak minősül, és használatuk bűnüldözési célból nyilvános helyeken, valós időben fő szabály szerint tilos.

Ezen tilalom alól néhány kivételes esetben enged csak eltérést a kódex (például eltűnt gyermek felkutatása, közvetlen terrorveszély vagy súlyos bűncselekmény megelőzése), és azt is bírói vagy más független hatósági engedélyhez kötné.

A fenti, magas kockázati kategóriába besorolt MI-rendszereknek a forgalomba hozataluk előtt szigorú követelményeknek kell megfelelniük. A tervezet előírja, hogy valamennyi ilyen rendszernek a fejlesztése során megfelelő kockázatértékelési és -csökkentési folyamatokon kell keresztülmennie. Az MI fejlesztése során használt adatkészleteknek kiváló minőségűeknek kell lenniük, és az eredmények nyomon követhetősége miatt minden tevékenységet naplózni kell, továbbá részletes dokumentációnak kell rendelkezésre állnia a megfelelőség értékelésével kapcsolatban. A tervezet előírja továbbá a felhasználók egyértelmű és érthető tájékoztatását, az emberi felügyelet szükségességét, valamint egyfajta alapelvi éllel a rendszer megbízhatóságát, pontosságát és biztonságos működésének követelményét.

A harmadik kategória tartalmazza a korlátozott kockázatú MI-ket. Idesorolja a kódex az olyan rendszereket, amelyek használata során a felhasználóknak tisztában kell lenniük azzal, hogy nem emberrel, hanem géppel kommunikálnak (például csevegőrobottal).
Erre az átláthatósági kötelezettségre valószínűleg azért van szükség, hogy a felhasználókat ne tévessze meg a program, és tisztában legyenek azzal, hogy nem egy másik ember van a „monitor túloldalán”.

A tervezet végül a negyedik, azaz minimális kockázati kategóriába sorolja be az MI-k legnagyobb részét kitevő olyan rendszereket, amelyek használata a felhasználók jogaira és biztonságára nézve szinte alig hordoz kockázatot. A kódex szabadon lehetővé teszi ezeknek a rendszereknek a használatát, és nem tartalmaz rájuk nézve beavatkozó intézkedéseket, így azokat gyakorlatilag kivonja a hatálya alól. Ilyen MI-re példa a spamszűrők vagy a számítógépes játékok használata.

A kódexről nemrég az Európai Adatvédelmi Testület is kifejtette véleményét, általában üdvözölve azt. Néhány területen azonban – így például a távoli biometrikus azonosítás terén – szigorítaná a szabályokat. Fő szabály szerint megtiltaná például az olyan távoli biometrikus azonosító rendszerek használatát, amelyek alkalmasak arra, hogy az érintetteket tulajdonságaik – származás, nem, szexuális orientáció – alapján kategóriákba sorolja, mivel ez könnyen vezethet hátrányos megkülönböztetéshez.

A rendelettervezet az elkövetkezendő időszakban minden bizonnyal igen sűrűn fogja alapját képezni további szakmai és tudományos diskurzusoknak, amíg azt teljesen el nem fogadja az Európai Unió. Általánosságban elmondható, hogy a kockázatalapú megközelítés és a tiltott, illetve magas kockázatúként besorolt rendszerek viszonylag szűk köre előremutató és kellően rugalmas szabályozást sejtet.

Szükség is van ilyen szabályozásra, hiszen ahogy a cikk – egyelőre csak képzelt helyzetet leíró – mottója is rávilágít, az MI-technológia komoly, a társadalmat alapvetően befolyásoló intézmények kiépítésére is alkalmas lehet. A Westworld című sorozatban a Föld valamennyi lakosának személyiségéről és szokásairól rendkívül pontos adatokkal rendelkező MI-rendszer előre képes látni az emberi sorsokat, és emiatt az embereknek nyújtott, információs társadalommal összefüggő szolgáltatásokon keresztül láthatatlanul igyekszik befolyásolni az életeket, megfosztva ezzel gyakorlatilag az emberiséget a szabad akarattól. Ezért is fontos már idejekorán elkezdeni az ilyen rendszerek jogi szabályozásáról a diskurzust.