Mesterséges intelligencia: hazai és európai stratégiák és szabályozási irányok
Ismert, gyakran használt AI-alkalmazások a fejlett internetes keresőmotorok (például a Google Search), az ajánlórendszerek (amelyeket a YouTube, az Amazon és a Netflix használ), az emberi beszéd mesterséges megértése (például az Amazon Alexa, a Google Asszisztens és az Apple-féle Siri digitális hangasszisztensekkel), az automatikus nyelvi fordítók (a Microsoft Translator, a Google Translate), az arcfelismerő programok (az Apple Face ID vagy a Microsoft DeepFace), továbbá a Facebook vagy az Apple által használt képcímkézés, de ebbe a körbe tartoznak az önvezető autók is (például Waymo). Érdemes említeni az automatizált döntés- és stratégiai játékrendszerek esetén (például a sakknál) alkalmazott mesterségesintelligenciát is. Ezenkívül számos iparág problémáinak megoldására használják, így például:az energiatárolás, az orvosi diagnosztika, továbbá a katonai logisztika vagy az ellátásilánc-menedzsment területén.
2020-ban Ibán García del Blanco spanyol európai parlamenti képviselő nyújtotta be azt a jogalkotási kezdeményezést, amely a Bizottságot arra kérte fel a mesterséges intelligenciára, a robotikára és más kapcsolódó technológiákra (szoftverekre, algoritmusokra és adatokra) épülő megoldások fejlesztése és alkalmazása kapcsán, hogy alkossanak egyértelmű etikai elveket és jogi kötelezettségeket. A javaslatot az Európai Parlament a képviselők 559 igen szavazatával, 44 nem ellenében és 88 tartózkodás mellett fogadta el.
A mesterséges intelligencián alapuló technológiákkal szembeni fontos elvárás lesz a jövőben az emberközpontúság, és hogy emberek hozzák létre őket. A technológiáknak társadalmi és környezeti szempontból fenntarthatónak, biztonságosnak, átláthatónak, elszámoltathatóna kkell lenniük, az alapvető jogok, az elfogultság- és megkülönböztetés-mentesség garantálása mellett. A nagyon kockázatosnak ítélt, például önálló tanulásra alkalmas technológiák felett meg kell őrizni az emberi felügyelet lehetőségét. Ha egy adott funkció használata súlyos etikai vétséget eredményezne vagy veszélyessé válhat az alkalmazása, módot kell nyújtani az önálló tanulás letiltására és az ember általi teljes irányításra.
Az Európai Unióban nemrég vitára bocsátott rendelettervezet az egyes alkalmazási területek kockázatait minimális, korlátozott, magas és elfogadhatatlan mértékű osztályokba sorolja. A magas kockázatú területeken szigorú szabályokkal, az elfogadhatatlan kockázatú területeken – a humán biztonság, a megélhetés, az emberi jogok védelme érdekében – a tiltást fogalmazza meg a tervezet. A tiltott kategóriába kerülne a személyek manipulálására, illetve az életkorból, testi vagy szellemi fogyatékosságból eredő sebezhetőség kihasználására irányuló használat. Tiltanák továbbá a személyek megbízhatóságának értékelését, osztályozását célzó alkalmazást is, ha az diszkriminatív jellegű. Tiltott lenne a valós idejű, a nyilvánosság számára hozzáférhető helyeken történő, tömeges biometrikus azonosítás is, amely alól – engedélyhez kötötten – az eltűnt személyek vagy különösen veszélyes bűnözők alkalmi keresése képezhetne kivételt.
A rendelet készítésében a Nemzeti Média- és Hírközlési Hatóság (NMHH) is fontos szerepet kapott, amely úgy látja, hogy a szabályozásban ki kell jelölni azokat a korlátokat, amelyeken túl a mesterséges intelligencia alkalmazása már nem segítséget jelent, hanem sokkal inkább kockázati kihívásként jelentkezik.
A szellemi termékek, szoftverek dologi minősége tekintetében lényeges vonatkozás, hogy a mesterséges intelligencia nem rendelkezik fizikai kiterjedéssel. Ennek kapcsán, ami a magyar szabályozást illeti, a Polgári Törvénykönyv (Ptk.) 5: 14. § (1) bekezdése a dolgot birtokba vehető testi tárgyként határozza meg. Továbbá, az AI-t mint emberi uralom alá hajtható erőt a modern korban emberi változtatások teremtették meg, ami példa nélkülinek mondható a régebbi történelemben. A mesterséges intelligencia dologi jellegének megítélése kapcsán az analógia alkalmazásának lehetősége – a felelősségi kérdések rendezésénél – relevanciával bírhat, bár ilyen szabályozás nincs a magyar jogban. Francia mintára a dolgok által okozott károkért annak őrzője felelhetne, így a technológia dologi megítélésekor – miként erre és az előbbi tényekre egy hazai tanulmány hívja fel a figyelmet – a meglévő felelősségi tényállások módosítása jelenthetne megoldást a felelősség kérdéseinek tisztázása tekintetében.
A mesterséges intelligencia szabályozása a közszféra erre a területre irányulószakpolitikáinak, illetve jogszabályainak a teljes kidolgozását foglalja (majd) magában. Ez tágabban értelmezve összefügg bármely, algoritmikus vagy speciális eljárási alapú – megengedett lépésekből álló – módszer és utasítás(sorozat) regulációjával. A mesterséges intelligencia szabályozási és szakpolitikai környezete hatásköri, illetve joghatósági kérdéseket is érinthet, ezért globális megoldási igényű kérdéskörként is érdemes vizsgálni. 2016 és 2020 között több mint 30 ország fogadott el külön stratégiát a mesterséges intelligenciáról, közöttük számos EU-tagállam, továbbá az Egyesült Államok, Kanada, Japán, Kína, India, Oroszország, Szaúd-Arábia, Vietnam és más államok is közzétették a saját nemzeti stratégiájukat.
Magyarországon 2020 szeptemberében jelentették be a 2030-ig szóló nemzeti stratégiát, amely az akkor 330 szervezetet tömörítő MI (Mesterséges Intelligencia) Koalíció több mint ezer szakértőjének bevonásával készült el. Ebben – iparági fókuszterületekre koncentrálva –kijelölték a felelősöket az első projektcsapatokkal annak érdekében, hogy a meghatározott célok a valós napi problémákra megoldást nyújtó projektekben szerepelhessenek (például az egészségügyben is elindult az adatbázisok elemzése). Fontos célként tűzte a nemzeti stratégia azt is, hogy 2030-ig egymillióan jussanak jól jövedelmező álláshoz a mesterséges intelligencia segítségével. A stratégia egyik kiemelt elemeként szerepelt továbbá a társadalmi tudatosítás fontossága.
Ekkor kezdte meg a működését a magyar adatvagyon kezeléséért felelős Nemzeti Adatvagyon Ügynökség (NAVÜ), majd elindult az MI Nemzeti Laboratórium (röviden MILAB) is, amely a mesterséges intelligenciával kapcsolatos k+f-ekre és innovációra, valamint az adatelemzésre fókuszálja tevékenységét.
Mindezek alapján, jogi szemszögből úgy is összegezhetjük a magyar nemzeti stratégia legfőbb céljait, hogy a mesterséges intelligenciát – és annak hazai szabályozását – az alapjogokkal és a demokratikus, illetve nemzeti értékekkel összhangban kell a jövőben fejleszteni, hogy így biztosítsák a széles nyilvánosság technológiába vetett bizalmát.