Évtizedek óta létezik, a mesterséges intelligencia képességei mégis mostanában, a számítási teljesítmény gyors növekedésével kezdenek igazán kibontakozni. Ma már látjuk, hogy az AI az egészségügytől kezdve a közlekedésen és a logisztikán, a gyártó- és az energiaiparon, a mezőgazdaságon és a turizmuson, a kereskedelmen és a médián át a kiberbiztonságig az élet minden területén új távlatokat nyit. Egyúttal azt is jobban értjük, hogy a technológia alkalmazása a hatalmas lehetőségekhez mérhető kockázatokat is hordoz.
Az Európai Unió a megbízható mesterséges intelligencia globális központjává válna, ezért a világon elsőként olyan jogi keretrendszert és koordinációs tervet készít, amely a tervek szerint garantálni fogja az emberek és a szervezetek biztonságát és alapvető jogait, miközben az AI további térhódítását, a technológiai beruházásokat és innovációt is elősegíti a tagállamokban.
Több mint két év előkészítő munka eredményeként az Európai Bizottság idén áprilisban tette közzé törvényjavaslatát (Proposal for a Regulation laying down harmonised rules on artificial intelligence - Artificial Intelligence Act), amely az AI-rendszerekben megjelenő, pontosan meghatározott kockázatok kezelését arányosan és rugalmasan szabályozza, ezáltal világszinten is meghatározó szabvánnyá válhat. A koordinációs terv (Coordinated Plan on Artificial Intelligence 2021 Review) pedig a törvénymódosításokat és beruházásokat körvonalazza tagállamok szintjén, amelyek szükségesek ahhoz, hogy Európa vezető helyet foglalhasson el az emberközpontú, fenntartható, biztonságos, befogadó és megbízható mesterséges intelligencia fejlesztésében.
Kockázatok négy szinten
Az uniós AI-törvény tervezete a mesterséges intelligenciára épülő rendszereket az elfogadhatatlantól a minimálisig négy kockázati szintre sorolja, és előírja, hogy a használatukra kialakított szabályokat minden tagállam egységesen alkalmazza.
Elfogadhatatlan kockázatokat hordoznak, ezért tiltottak lesznek azon AI-rendszerek, amelyek egyértelműen veszélyeztethetik az emberek biztonságát, megélhetését és jogait. Ebbe a kategóriába tartoznak az ember szabad akaratát befolyásoló vagy megkerülő, manipulatív alkalmazások (például játékok, amelyek hangalapú segítségnyújtással veszélyes viselkedésre bátoríthatnak kiskorúakat), valamint az olyan rendszerek, amelyeket a kormányok a polgárok "társadalmi" pontozására használhatnak.
Magas kockázati besorolást kapna a tervezet szerint az AI-rendszerek másik csoportja, amely szintén az emberek épségét veszélyeztetheti, illetve jogait csorbíthatja. A javaslat példákon mutatja be, hogy a törvény pontosan milyen alkalmazásokat sorolna erre a kockázati szintre. Ide tartoznának a kritikus infrastruktúrák, közöttük a közlekedés mesterséges intelligenciára épülő alkalmazásai és az olyan termékek biztonsági alkotóelemei, mint például a sebészeti robotok, amelyek nyilvánvalóan veszélyeztethetik az emberek életét vagy egészségét.
Velük egy csoportba kerülnének a különböző kérelmek - például felvételik, vizsgák, álláshirdetésekre és más pályázatokra beadott jelentkezések, hiteligénylések - elbírálását a köz- és a versenyszférában részben vagy teljesen automatizáló AI-rendszerek, mivel pontozásukkal, döntéseikkel közvetlenül befolyásolhatják az emberek életét, oktatáshoz, munkához és más lehetőségekhez, szolgáltatásokhoz való hozzáférését. Ugyancsak ebbe a kategóriába tartoznának a határvédelem és az idegenrendészet AI-alkalmazásai, amelyek az utazási dokumentumok hitelességét ellenőrzik és a menedékkérelmek elbírálását támogatják. Magas kockázati besorolásúak lennének továbbá az igazságszolgáltatásban és a demokratikus folyamatokban alkalmazott AI rendszerek is.
Forgalmazásuk engedélyezéséhez a magas kockázati besorolású AI-rendszereknek szigorú követelményeknek kell majd eleget tenniük. A kockázatok felméréséhez és kezeléséhez például megfelelő képességekkel kell bírniuk, és minőségi adatkészletekkel dolgozniuk az elfogulás, a hátrányos megkülönböztetés elkerüléséhez. Naplózniuk kell minden tevékenységet, hogy követhető legyen, miként jutnak adott eredményre, és megfelelő emberi felügyelet mellett lesznek alkalmazhatók. A hatóságoknak részletes dokumentációt kell kapniuk a megfelelőség ellenőrzéséhez, de a felhasználókat is világosan és kellő mértékben tájékoztatni kell a mesterséges intelligencia alkalmazásáról. Az AI-rendszerek kimagasló robusztussága, biztonságossága és pontossága is alapelvárás lesz ezen a szinten.
A távoli biometrikus azonosításra alkalmas AI-rendszereket a törvénytervezet külön is kiemeli ebben a magas kockázati kategóriában, és használatukat szigorú feltételekhez köti. Rendészeti célú, valós idejű alkalmazásuk a köztereken elvben tilos lesz. A hatóságok ettől csak kivételes esetekben és pontosan előírt módon térhetnek el - ha például elveszett gyermeket vagy veszélyes bűnözőt keresnek, illetve közvetlen terrorfenyegetés elhárításán dolgoznak. Azonban ilyen esetekben is bírói felhatalmazást vagy más független testület engedélyét kell kérniük, amely pontosan meghatározza, hogy hol és mennyi ideig, milyen adatbázisokban keresve végezhetnek ilyen megfigyelést.
Mérsékelten kockázatosnak minősülő AI-rendszereknek a javaslat szerint az átláthatóság tekintetében kell majd speciális követelményeknek megfelelniük. A csevegőrobotok (chatbotok) esetében például figyelmeztetni kell a felhasználókat, hogy géppel társalognak, és lehetővé tenni, hogy ennek ismeretében folytassák az interakciót vagy visszalépjenek. A törvényjavaslat a minimális kockázatot hordozó alkalmazások - például videójátékok, levélszemét-szűrők - szabad használatát engedi, mivel ezek nem, vagy csak elenyésző mértékben veszélyeztethetik az emberek jogait vagy biztonságát. Az AI-rendszerek nagy többsége ebbe a kategóriába tartozik.
Az Európai Bizottság javasolja, hogy az AI-törvény szabályainak betartását a tagállamokban kompetens piaci hatóságok figyeljék, és az Európai Mesterséges Intelligencia Tanács létrehozását is ajánlja, amely a megfelelés megkönnyítéséhez AI-szabványok kidolgozását kezdeményezné, az alacsony kockázati szintű mesterségesintelligencia-alkalmazások készítéséhez és használatához pedig önkéntes alapon követhető etikai kódex is készülne.
Precíziós szabályozás
Márciusban és áprilisban az IBM is az AI szabályozásának különböző vonatkozásait és lehetőségeit tárgyalta régiós sajtóbeszélgetésein, azonban a technológia egyik vezető szállítójaként a témával korábbról behatóan foglalkozik.
Bár a technológia kiterjedtebb szabályozásával az amerikaiak és az európaiak kevesebb mint 10 százaléka ért egyet, az Egyesült Államokban a megkérdezettek 60 százaléka, az Európai Unióban pedig a válaszadók 70 százaléka támogatja a mesterséges intelligencia - és más technológiák - célzott, precíziós regulázását, derült ki például a felmérésből, amelyet a Morning Consult tavaly készített az IBM Policy Lab megbízásából.
Az amerikaiak 74 százaléka és az uniós állampolgárok 85 százaléka szerint a mesterséges intelligenciának átláthatónak és megmagyarázhatónak kell lennie, és nagy többségük azzal is egyetért, hogy az AI-rendszereket fejlesztő és forgalmazó vállalatokat a megfelelő információk közzétételére kell kötelezni. Négy európai közül három és az amerikaiak kétharmada támogatja az olyan szabályok bevezetését, mint a kockázatfelmérés, a bevezetés előtti tesztelés az elfogultság, illetve a méltányosság ellenőrzésére, valamint a fogyasztók tájékoztatása a döntéshozatali folyamatban használt mesterséges intelligenciáról.
Tavaly januárban az IBM az AI-szabályozásról alkotott nézetét (Precision Regulation for Artificial Intelligence) is ismertette. Rámutatott többek között arra, hogy a piacra kerülő mesterségesintelligencia-megoldások életciklusának különböző szakaszaiban a vállalatok a kutatástól és fejlesztéstől kezdve a modellek tanításán, menedzselésén és üzemeltetésén át az AI gyakorlati, kereskedelmi alkalmazásáig más-más szerepet töltenek be - akár szállítók, akár birtoklók, azaz felhasználók, vagy mindkét kalapot hordják -, és ennek alapján az adott AI-rendszer kockázati szintjét alapul vevő precíziós szabályozást javasolt a terület számára.
Hasonló javaslatot fogalmazott meg az Európai Bizottság is az AI-törvény tervezetében, ami jó kiindulópontnak ígérkezik a szabályozás véglegesítéséig vezető úton. A leendő törvénynek megfelelésüket a szervezeteknek azonban tanúsítaniuk is kell majd, ezért ennek megkönnyítéséhez - és ettől függetlenül a méltányos, elfogulatlan és elszámoltatható mesterséges intelligencia fejlesztéséhez és használatához - az IBM nyílt forráskódú eszközkészleteket (AI 360 Toolkit) készített. AI FactSheet 360 kutatási projektjében pedig olyan tájékoztatókat állít össze partnereivel az AI-modellek és -szolgáltatások létrehozásához és bevezetéséhez, amelyek szintén a transzparencia, az irányíthatóság és a mesterséges intelligenciába vetett bizalom erősítését segítik a különböző használati esetekben. Ezek az AI-adatlapok - az újabbak készítéséhez kidolgozott módszertanhoz hasonlóan - szintén elérhetők az IBM felhőjében.
Cikkünk a Computerworld 2021/9. számában, május 12-én jelent meg.