A kutatók megállapították, hogy egy mellrákos esetek megkülönböztetésére használt modellt hamisított, félrevezető képekkel is át lehet verni. A Nature Communications című folyóiratban megjelent tanulmány éppen azt vizsgálata, hogy a megtévesztő képek elegendőek-e egy diagnosztikai mesterséges intelligencia modell átverésére.
A Pittsburghi Egyetem kutatói képesek voltak szimulálni egy olyan támadást, amely meghamisította a mammográfiás képeket, ami az AI-modellt - és az emberi szakértőket - téves következtetések levonására késztette.
"Ezzel a tanulmányunkkal azt szeretnénk megmutatni, hogy az ilyen típusú támadások lehetségesek, és az AI-modelleket téves diagnózis felállítására késztethetik, ami nagy betegbiztonsági problémát jelent. Ha megértjük, hogyan viselkednek a mesterséges intelligenciamodellek ellenséges támadások esetén orvosi kontextusban, akkor elkezdhetünk azon gondolkodni, hogyan tehetjük ezeket a modelleket biztonságosabbá és robusztusabbá" - közölte a tanulmány vezető szerzője, Shandong Wu, az egyetem oktatója és kutatója.
A kutatók tapasztalatai szerint a diagnosztikai rendszerek egyre inkább támaszkodnak a mélytanulási modellekre, hogy kiegészítsék az emberi szakértelmet. Ennek érdekében szerintük "elengedhetetlen, hogy megbízható és biztonságos AI-rendszereket építsünk a klinikai alkalmazáshoz". Az ilyen biztonság mérésének egyik módja az, hogy értékeljük egy AI-modell viselkedését kibertámadások - nevezetesen "ellenséges képek" - esetén, amelyek célja, hogy a modelleket manipulált képek vagy más bemenetek felhasználásával becsapják.
Tanulmányukhoz a kutatócsoport mammográfiás képeket használt, hogy betanítson egy algoritmust, amely megkülönbözteti a mellrák-pozitív eseteket a negatív esetektől. Ezután a kutatók generátorokat fejlesztettek ki, hogy szándékosan félrevezető adatokat hozzanak létre azáltal, hogy rákos régiókat "illesztettek" a negatív képekbe, vagy "távolítottak el" régiókat a pozitív képekből. A trükk bevált, az AI-modell a hamis képek 69,1 százalékánál tévedett.
A kutatók ezután öt humán radiológust alkalmaztak arra, hogy kiszúrják, a képek valódiak vagy hamisak. Az eredmények eltérőek voltak, személytől függően a szakértők 29 és 71 százalék közötti pontossággal azonosították a képek hitelességét. "Bizonyos hamis képeket, amelyek becsapják a mesterséges intelligenciát, a radiológusok könnyen kiszúrhatnak. Azonban a vizsgálatban szereplő számos hamis kép nemcsak a modellt, hanem a tapasztalt szakembereket is becsapta. Az ilyen támadások potenciálisan nagyon károsak lehetnek a betegek számára, ha téves rákdiagnózishoz vezetnek" - mondta Wu.
A kutatók megjegyezték, hogy a nagy felbontású képek nagyobb eséllyel verték át a modellt, és a szakemberek számára is nehezebb volt kiszűrni, hogy hamisak. Megjegyezték, hogy a támadások motivációi között szerepel a pénzbeli haszonszerzés, a biztosítási csalás és a kedvező klinikai vizsgálati eredmények látszatának keltése. A csoport hangsúlyozta, hogy e miatt fontos a mesterséges intelligencia biztonságáról gondoskodó intézkedések megerősítése.
"Az egyik irány, amelyet vizsgálunk, az AI-modell 'ellenséges képek' elleni kiképzése. Ez magában foglalja az ellenséges képek előzetes generálását és a modell megtanítását arra, hogy ezeket a képeket manipulálják" - mondta Wu.
Mint a kutatócsoport kifejtette, az AI és a gépi tanulás alkalmazása az orvosi képalkotási adatok elemzésére az elmúlt években ugrásszerűen megnőtt. A terület azonban egyedi kihívásokat is hordoz. A Nature Communications cikkében felvetett biztonsági aggályok mellett a szakértők az adatok méretarányos összegyűjtésével, a változatos információk megszerzésével és a pontos címkézéssel kapcsolatos nehézségekre hivatkoztak.