A mesterséges intelligencia (AI) szabályozása számos nagyvállalati területet érint. Az adatbiztonság, az algoritmusok részrehajlás-mentessége, a megfelelés a törvényi feltételeknek és az etikus működés biztosítása komoly odafigyelést igényel, amit csak megfelelő felügyeleti rendszer kialakításával tudunk biztosítani. Nem szabad az informatikai vagy biztonsági szinten megrekedni: a szabályozási kérdések rendezése a cég legfelső vezetését is érinti.
Különleges területnek számít az egészségügy. Itt az AI-modelleknek szigorú ellenőrzésen kell átesniük, ámbár más iparágakban is léteznek komoly megfelelési szabályok, amelyek megsértése súlyos erkölcsi-anyagi veszteséggel jár. A vezetőségnek át kell gondolnia, milyen kockázatot vállal a mesterségesintelligencia-eszközök bevezetésével.
Természetesen nem minden cégnek kell minden területen saját AI-irányítási-ellenőrzési stratégiát kidolgoznia, ez inkább a nagyobb cégek feladata lesz. De így vagy úgy, előbb-utóbb minden szervezetnél felbukkannak az AI-technológiák, ha másképp nem, az általuk használt, külső fejlesztésű eszközökbe, szolgáltatásokba ágyazódva. Megfelelő felügyelet nélkül pedig a mesterséges intelligencia súlyos károkat okozhat az üzleti működésben, megsértheti az adatvédelmi törvényeket, az iparági szabályozásokat, és rossz színben tüntetheti fel a céget.
Mely szempontokat érdemes megfontolniuk az előrelátó vállalkozásoknak az AI-projektek indítása előtt?
Harag és elfogultság nélkül
Kevés terület vet fel annyi etikai kérdést, mint az arc- és alakfelismerés, amely hatalmas lehetőségeket nyújt a visszaélésszerű használatra. Nem véletlen, hogy azok a cégek, amelyek ilyen technológiákat kínálnak, általában kerülik a nyilvánosságot, és olykor még saját alkalmazottaik előtt sem teljesen őszinték. A technológia hihetetlen előnyöket kínál: a mai járványos időkben például segíthet azonosítani a maszkviselés szabályait felrúgó személyeket, vagy mozgás, viselkedés alapján kiszúrhatja a tömegben a potenciális merénylőket.
Egyik fő veszélye az arcfelismerési technológiáknak az algoritmikus torzításokban rejlik. A mesterséges intelligencia betanításához használt adatkészletek hagyományosan nem reprezentatívak, túlsúlyban vannak bennük a fehér férfiak. Bár a szakma tisztában van ezekkel az eltérésekkel, korrekciójuk sok munkát és odafigyelést igényel.
Például a fegyverviselést figyelő alkalmazások működéséhez elengedhetetlen, hogy a betanításhoz használt adathalmaz felépítésekor a fejlesztők tudatosan is a különböző előítéletek ellen dolgozzanak, hiszen a tömegben felbukkanó fegyveres megbízható detektálása a szó szoros értelmében élethalál kérdése. De ha a hiányos adatkészletek nem feltétlenül vezetnek is tragédiákhoz, működési vagy pénzügyi veszteséget okozhatnak a cégnek, amelyik a hibájuk miatt nem tud megfelelni a jogi előírásoknak.
Áttekinthető modellek
Azok a vállalkozások, amelyek a mesterséges intelligencia használatával kívánják javítani működésüket, hamarosan ráébrednek, hogy jó és megbízható információs architektúra nélkül nincs megbízhatóan működő AI. Másképp fogalmazva: megbízható modellek csak helyes adatokra épülhetnek. A hatékony, megbízható adatkezelés viszont magában foglalja a biztonsági, ellenőrzési, adatvédelmi, megfelelési és etikai kérdések rendezését. A cégnek minden kis adatmorzsáról tudnia kell, hol tárolják, mire használták és tervezik használni, megfelel-e az előírásoknak, mentes-e a torzításoktól.
Az adatok mellett az AI-modellek és -eredmények felügyeletét is ki kell alakítani, ami teljesen újszerű feladatot ró a vállalatokra, és a nagy cégeknél ebbe a munkába az AI- és adattudóscsapat mellett a vezetőséget is be kell vonni.
Sokféleképpen épülhet be az AI egy cég munkájába. Az igények előrejelzésével javíthatja annak alkupozícióit, a szállítást végző járművek útvonalának és menetrendjének hatékony megtervezésével időt és üzemanyagköltséget takaríthat meg, segítheti a versenyképes árak kikalkulálását. Ám ahhoz, hogy képességeit teljes mértékben kibontakoztathassa, torzulásmentes modellekre és algoritmusokra van szükség, amit viszont csak folyamatos ellenőrzéssel lehet elérni.
Különösen kritikus kérdés az AI-modellek pontossága az egészségügyi rendszerben, hiszen életek múlhatnak rajta, de ugyanilyen fontos az átláthatóság, illetve az adatok ellenőrizhetősége is. Ezért több szolgáltató nyílt forráskódú Python csomagot használ, amely megkönnyíti a gépi tanulási modellek tisztaságának és hitelességének ellenőrzését. Az AI-modellek átláthatósága erősíti a végfelhasználók bizalmát, egyúttal a szükséges javítások elvégzését is egyszerűbbé teszi.
Etikus intelligencia
Sokan a törvényhozóktól várják, hogy gondoskodjanak a mesterséges intelligencia tisztességes, etikus használatáról. Csakhogy a technológia olyan gazdagon rétegzett, a fejlődése annyira gyors, hogy ezzel semmilyen szabályozó testület nem tud lépést tartani. A gépi tanulási algoritmusok alkotóira vár a feladat, hogy etikus célokat és értékeket fogalmazzanak meg - még akkor is, ha ennek érdekében bizonyos előnyökről le kell mondaniuk, hogy inkább az óvatosság, a túlbiztosítás felé tévedjenek.
Egyre világosabban körvonalazódik az AI használatával ismerkedő vállalatok számára, hogy a technológia etikai veszélyekkel jár. Egyelőre még kevés cég rendelkezik olyan világos etikai kódexszel, amit a mesterségesintelligencia-projektekre, az adatforrásokra és a technológia használatára alkalmazhatna. Pedig erre mindinkább szükség lesz: a vállalkozásoknak ki kell dolgozniuk egy olyan erőteljes, kodifikált keretrendszert, amely kapaszkodókat nyújt a felmerülő kérdések kezelésében.
Irányadó lehet azon cégek stratégiája, amelyek arra törekszenek, hogy minimálisra csökkentsék a lehetséges (nem csak AI-val kapcsolatos), etikai természetű gondok kockázatát, és ezért a létszámcsökkentéssel szemben elsőbbséget adnak azoknak a projekteknek, amelyek a szolgáltatásokat és a fogyasztók támogatását javítják. Egy jól működő vállalkozásnál ugyanis nem a technológia, hanem a dolgozók vannak a középpontban, és a jól megválasztott AI-projekteknek is ezt a szemléletet kell tükrözniük. Nem az a lényeg, hogy a mesterséges intelligencia alkalmazása után humán munkaerőtől lehessen megszabadulni, hanem hogy javuljanak a munkakörülmények, és például a képfelismerési technológiák segítsenek megelőzni az üzemi baleseteket.
Régi receptek újragondolva
Az AI-felügyeleti és -irányítási megoldások voltaképpen nem teljesen újak az informatikai vezetők számára. A szoftverek és az algoritmusok fejlesztési elvei már vagy negyedszázada ismertek - ami új, az a fokozott adatsebesség és feldolgozási teljesítmény, illetve a tanulási algoritmusok megjelenése. Ugyanis az AI-rendszerek soha nem látott méretű adathalmazokkal dolgoznak, és a digitalizáció miatt ezek az adatok sokféle forrásból (webhelyek, hálózati érzékelők, IoT-eszközök stb.) érkeznek, mégpedig olyan sebességgel, amire korábban aligha volt példa.
Hála a szinte korlátlanul bővíthető felhőalapú erőforrásoknak, az adatok feldolgozása is drámaian felgyorsult. Végül szintén különbséget jelent az intelligens rendszerek visszacsatolásos jellege: az AI lényegében munka közben tanul, és ez a tanulás olyan váratlan irányokba viheti el, amire - pusztán a változás sebessége miatt - az emberek nem tudnak reagálni.
A korábbi időszakokból megörökölt irányítási, felügyeleti modellek tehát felülvizsgálatra szorulnak, de nem az alapelveken kell változtatni, csupán hozzá kell igazítani azokat a megváltozott körülményekhez.
Eddig, és ne tovább!
Mindez a gyakorlatban annyit jelent, hogy a fejlesztőknek automatikus védelmet kell beépíteniük az AI-rendszerekbe. Ha például egy modell előrejelzési pontossága eltér egy megadott értéktartománytól, vagy más szempontból mutat hiányosságokat, a rendszer jelzi, hogy ideje beavatkozni. Hasonlóképpen, ha a rendszerbe beérkező adatok többé nem tükrözik a kívánt tulajdonságokat, ugyancsak szükségessé válik a beavatkozás: érdemes újraértékelni az adatforrásokat, avagy olyan modellre váltani, amely jobban illeszkedik a befutó adatokhoz.
Vannak más megoldások is az AI-rendszerek monitorozására. Hasznos technika lehet a végső ajánlások tesztelése, és ma már léteznek olyan eszközök is - a Google és a Microsoft egyaránt rendelkezik ilyenekkel -, amelyek a modellek elfogultatlanságát ellenőrzik.
Végül minden jó AI-felügyelő program alapvető tulajdonsága az elszámoltathatóság: ismerni kell, hogy ki működteti, és ki az, aki az esetleges hibákért felelősséget vállal. Azok a vállalkozások, amelyek nem tisztázzák ezeket a kérdéseket, komoly kockázatnak teszik ki magukat.
A mesterséges intelligencia nagyszerű eszköz - de szüksége van az irányításra és a felügyeletre. Ne engedjük elszabadulni, mert a számlát nekünk kell állnunk!
Cikkünk a Computerworld 2021/8. számában, április 28-án jelent meg