Rekordbüntetést szabott ki a NAIH, melyet a március végén megjelent előző évi beszámolójában hozott nyilvánosságra. Amellett, hogy ez az eddigi legmagasabb adatvédelmi büntetés, egyben az első is, mely mesterséges intelligencia jogszerűtlen felhasználásából adódik.
A NAIH beszámolója szerint egy meg nem nevezett pénzintézeti szereplő (bank) mesterséges intelligenciával vezérelt szoftveres megoldást alkalmazott az ügyfelek érzelmi állapotának automatizált feldolgozására. A beszédjel-felismerő és értékelő rendszer az ügyfelek hangulati állapota alapján határozta meg, mely ügyfeleket szükséges visszahívni. A bank az alkalmazást panasz és ügyfélelvándorlás megelőzése érdekében üzemeltette. A NAIH utasította a bankot az érzelmi állapotok elemzésének abbahagyására, mivel az számos ponton sérti az Általános Adatvédelmi Rendeletet (GDPR).
A mesterséges intelligencia rendszerekkel kapcsolatos kutatások száma és a tanuláson alapuló alkalmazások üzleti felhasználása az előző évtizedben jelentősen megnövekedett. Ez nagyrészt a technológiai környezet megváltozásának köszönhető, azonban a hatályban lévő jogi szabályozása még várat magára. A mesterséges intelligencia rendszerek képesek többek között nyelvi elemek feldolgozására is, mely alkalmassá teszi az emberi beszéd és hangelemek kiértékelésére, így az érzelmi és hangulati ingadozások viszonylag pontos meghatározására. Az intelligens rendszerek efféle felhasználása számos kivetnivalót eredményezhet, mivel etikailag is megkérdőjelezhető felhasználásuk, rejtett előítéleteket tartalmazhat, ez pedig egyéb adatok felhasználásával diszkriminatív lehet az ügyfelekre nézve.
"Az eset számos problémát felvet; először is az ügyben érintett bank nem szerepeltette az adatvédelmi tájékoztatójában, hogy az adatkezelésnek többek közt ügyfélmegtartó szerepe is van, az ügyfelek tájékoztatás hiányában így tiltakozni sem tudtak ellene. Ezenfelül, az érdekmérlegelési tesztben nem vizsgálják az érintettek oldalát, nem részletezik a hangulati állapot elemzését és az adatvédelmi hatásvizsgálatban sem javasolnak érdemi megoldást ennek a nem elhanyagolható kockázatnak a csökkenésére" - elemzi az ügyet dr. Barta Gergő, a Deloitte Kockázatkezelési tanácsadás üzletágának szakértője.
A NAIH kötelezése felhívja a figyelmet az adatkezeléssel kapcsolatban az érintetti jogok megfelelő biztosítására, különösen, de nem kizárólagosan a megfelelő tájékoztatásra és a tiltakozáshoz való jognak a biztosítására. Az adatkezelésnek a szükségesre kell korlátozódnia, és ennek megfelelő tájékoztatást kell nyújtani az érintettek részére a kapcsolódó pontos következmények megjelölésével.
A jelen eset kapcsán érdemes megemlíteni, hogy az EU-s mesterséges intelligenciáról szóló rendelettervezet 52. cikke alapján az érzelemfelismerő rendszerek esetében a tervezet szigorú tájékoztatási kötelezettségeket állapít meg, amelyek megszegése esetén magas, tiltott gyakorlatok alkalmazása esetén, akár 30 millió eurós bírsággal kell számolni.
"Ez az ügy tökéletesen szemlélteti, hogy a mesterséges intelligenciára egy új típusú és fokozott kockázatú technológiaként kell gondolnunk, amit működési elvéből adódóan igen nehezen lehet átlátni és követni. A GDPR követelményei nem csak adminisztrációs feladatokat rónak az adatkezelőkre, a dokumentumokat nem elegendő csak formailag elkészíteni, a teendőt "kipipálni". Jogos érdek alkalmazása esetén ez azt jelenti, hogy az érintetteket fenyegető adatvédelmi kockázatokat teljeskörűen fel kell tárni, és ezek kezelésére alkalmas szervezeti és technológiai garanciákat kell az adatkezelőnek életbe léptetnie. Nem magától értetődő tehát, hogy az adatkezelő jogos érdekére alapítva minden esetben megvalósítható az adatkezelés csak azért, mert erről egy teszt készül" - tette hozzá dr. Albert Lili, a Deloitte Legal Technológia és Adatvédelmi Csoportjának jogi szakértője.