A kínai Hszincsiangban 2016 és 2018 között a nagy fogolytáborok bővülését bemutató műholdfelvételek szolgáltatták a legerősebb bizonyítékot a több mint egymillió muszlim ellen irányuló kormányzati elnyomásról, ami nemzetközi elítélést és szankciókat váltott ki. Más légi felvételek - például az iráni nukleáris létesítményekről és az észak-koreai rakétakilövő helyekről - hasonló hatással voltak a világ eseményeire. Most a mesterséges intelligencia által lehetővé tett képmanipulációs eszközök megnehezíthetik, hogy az ilyen képeket egy az egyben elfogadjuk.
A múlt hónapban online közzétett tanulmányában Bo Zhao, a Washingtoni Egyetem professzora mesterséges intelligencia-technikákat alkalmazott több város műholdképének megváltoztatására. Zhao és kollégái felcserélték a Seattle-ről és Pekingről készült képek jellemzőit, hogy Seattle-ben épületeket jelenítsenek meg ott, ahol nincsenek, Pekingben pedig eltávolították az építményeket, és zöld felülettel helyettesítették őket. Ezzel a valóságosra kísértetiesen hasonlító hamis, úgynevezett deepfake látványt hoztak létre.
Zhao a CycleGAN nevű algoritmust használta a műholdképek manipulálására. A Berkeley Egyetem kutatói által kifejlesztett algoritmust széles körben használják mindenféle képi trükközésre. Kiképeztek egy mesterséges neurális hálózatot, hogy felismerje bizonyos képek kulcsfontosságú jellemzőit, például egy festészeti stílust vagy egy adott típusú térképen található jellemzőket. Ezután egy másik algoritmus segít finomítani az első algoritmus teljesítményét azzal, hogy megpróbálja felismerni, ha egy képet manipuláltak.
Ahogyan a deepfake videoklipek esetében is, amelyek állítólag kompromittáló helyzetekben lévő embereket mutatnak, az ilyen képek félrevezethetik a kormányokat, vagy elterjedhetnek a közösségi médiában, félretájékoztatást vagy kétségeket ébresztve a valós vizuális információkkal kapcsolatban.
"Abszolút úgy gondolom, hogy ez egy nagy probléma, amely lehet, hogy holnap még nem érinti az átlagpolgárt, de a következő évtizedben sokkal nagyobb szerepet fog játszani a színfalak mögött" - jelentette ki Grant McKenzie, a kanadai McGill Egyetem térbeli adattudományokkal foglalkozó oktatója, aki az említett kutatásokban nem volt érdekelt.
"Képzeljünk el egy olyan világot, ahol egy állami kormányzat vagy más szereplő reálisnak ható módon manipulálhatja a képeket, hogy az semmi érdemi információt ne mutasson, vagy egy másik elrendezést jelenítsen meg. Nem vagyok teljesen biztos benne, hogy jelenleg mit lehet tenni ennek megállítására" - mondta McKenzie.
Néhány durván manipulált műholdkép már vírusként terjedt a közösségi médiában, köztük egy olyan fotók, amely állítólag a hindu Diwali ünnepén kivilágított Indiát mutatja, és amelyet nyilvánvalóan kézzel változtattak meg. Talán csak idő kérdése, hogy sokkal kifinomultabb "deepfake" műholdképeket használjanak fel például fegyverraktárak elrejtésére vagy katonai akciók félrevezető igazolására.
Gabrielle Lim, a Harvard Egyetem médiamanipulációval foglalkozó kutatója szerint a térképeket mesterséges intelligencia nélkül is fel lehet használni félrevezetésre. Ilyenek már jelenleg is terjednek az interneten. A manipulált légi felvételeknek ráadásul kereskedelmi jelentősége is lehet, mivel az ilyen képek rendkívül értékesek a digitális térképezéshez, az időjárási rendszerek nyomon követéséhez és a beruházások irányításához.
Az amerikai hírszerzés elismerte, hogy a manipulált műholdképek egyre nagyobb fenyegetést jelentenek. "Az ellenfelek hamis vagy manipulált információkat használhatnak arra, hogy befolyásolják a világról alkotott képünket" - mondta a Pentagonhoz tartozó Nemzeti Tér- és Hírszerző Ügynökség szóvivője.
A szóvivő szerint a törvényszéki elemzés segíthet a hamisított képek azonosításában, de elismeri, hogy az automatizált hamisítások terjedése új megközelítéseket tehet szükségessé. A szoftverek képesek lehetnek azonosítani a manipuláció árulkodó jeleit, például a vizuális műtárgyakat vagy a fájlban lévő adatok megváltoztatását. A mesterséges intelligencia azonban megtanulhatja eltávolítani ezeket a jeleket, így macska-egér játék alakulhat ki a hamisítók és a hamisítványokat észlelők között.
"A forrásaink megismerésének, hitelesítésének és a bennük való bizalomnak a fontossága egyre csak nő, és a technológiának nagy szerepe van abban, hogy ezt elősegítsük" - mondja a szóvivő.
A mesterséges intelligenciával manipulált képek kiszűrése a tudományos, ipari és kormányzati kutatások egyik fő területévé vált. Az olyan nagy technológiai vállalatok, mint a Facebook, amelyek aggódnak a félretájékoztatás terjesztése miatt, támogatják a deepfake videók azonosításának automatizálására irányuló erőfeszítéseket.
Zhao a Washingtoni Egyetemen azt tervezi, hogy kidolgozza a deepfake műholdképek automatikus azonosításának lehetőségeit. Szerinte a felvételek időbeli és térbeli változásának tanulmányozása segíthet a gyanús jellemzők megjelölésében.
A kutató azonban úgy véli, hogy még ha a kormányzat rendelkezik is a hamisítványok kiszűréséhez szükséges technológiával, a nyilvánosságot a hamisítás váratlanul érheti. "Ha van egy műholdkép, amely széles körben elterjed a közösségi médiában, az problémát jelenthet" - állapította meg.