Világszerte 2024 az első olyan választási év, amelyben a mesterséges intelligencia széles körű befolyása a szavazat leadása előtt, alatt és után is megmutatkozik, beleértve a jelöltekről szóló nyilvános üzenetek készítését és terjesztését, valamint a választási folyamatokat.
Az amerikai Campaign Legal Center (CLC) különösen az olyan politikai hirdetések veszélyére hívta fel a figyelmet, amelyek a mesterséges intelligencia technológiáját megtévesztően valósághű hamis tartalmak - például a "deepfakes", azaz a manipulált média - létrehozására használják, hogy félrevezessék a nyilvánosságot, a jelöltek állításait, a témákkal kapcsolatos álláspontjukat, sőt azt is, hogy bizonyos események valóban megtörténtek-e. Ha nem ellenőrzik, a mesterséges intelligencia ilyen csalárd és megtévesztő felhasználása sértheti a választók alapvető jogát a tájékozott döntéshozatalhoz.
Amellett, hogy befolyásolhatják a választóknak a jelöltekről alkotott képét, a mesterséges intelligenciát a választások lebonyolításának manipulálására is felhasználhatják, többek között a választási részvétel visszaszorítása érdekében dezinformáció terjesztésével. A rosszhiszemű szereplők a mesterséges intelligencia eszközeivel meggyőzően hamis üzeneteket készíthetnek és terjeszthetnek arról, hogy hol és mikor kell szavazni, vagy hogy a választókat eleve eltántorítsák attól, hogy megjelenjenek a szavazóhelyiségben.
Például az USA-ban nem sokkal a 2024-es New Hampshire-i előválasztás előtt egy mesterséges intelligencia által generált automata telefonhívás Biden elnök hangját szimulálta, és arra buzdította a választókat, hogy ne vegyenek részt a választáson, hamisan azt sugallva, hogy a választóknak "tartalékolniuk" kellene a szavazatukat a 2024-es novemberi általános választásra.
Az átlagos választópolgár, aki meghallotta ezt az üzenetet, észszerűen arra a következtetésre juthatott, hogy Biden valóban rögzítette az üzenetet, és hogy eleget kell tennie a kérésének, különben gyakorlatilag elvesztené a szavazati jogát. Nem nehéz elképzelni, hogy milyen más, hamisított üzeneteket is felhasználnak arra, hogy lebeszéljék a polgárokat a szavazásról, csorbítsák szavazóképességüket, vagy hamis riasztást adjanak olyan vészhelyzetekről, mint például tűzvész vagy támadás, ami arra késztetné a választókat, hogy a választás napján otthon maradjanak.
A mesterséges intelligencia új lehetőségeket teremt a rosszhiszemű szereplők számára is, hogy aláássák a választási adminisztrációt, vagy indokolatlanul kétségbe vonják a választási eredményeket. A mesterséges intelligencia technológiákat könnyen fel lehet használni hamis képek és hamis bizonyítékok előállítására, például a szavazólapok meghamisítására vagy megsemmisítésére. Ez nemcsak a választási eredményekbe vetett közbizalmat ásná alá, hanem a választási adminisztrátorok elleni erőszakos fenyegetéseket is táplálhatná.
Az elmúlt években a pártonkívüli választási dolgozók már eddig is példátlan mértékű fenyegetésekkel és zaklatással szembesültek világszerte, miközben megpróbálták biztosítani a demokratikus folyamatok zökkenőmentes és tisztességes lebonyolítását. A mesterséges intelligencia technológia még rosszabbá teheti a helyzetüket.
Még az összes szavazat leadása után is felhasználható lenne a mesterséges intelligencia arra, hogy hangfelvételt készítsen egy jelöltről, azt állítva, hogy manipulálta az eredményeket, vagy egyéb félretájékoztatást generáljon, amely meggyőzheti egy sikertelen kampány támogatóit, hogy megzavarják a szavazatszámlálási és hitelesítési eljárásokat, amelyek már most is egyre inkább átpolitizáltak.
A mesterséges intelligenciával készített deepfake elemeket már használták Argentínában és Szlovákiában is a jelentősebb választások befolyásolására.
Hogy egyértelmű legyen, a választási manipuláció, a szavazók elhallgattatása és a félretájékoztatás kockázatai mind megelőzték a mesterséges intelligencia alapú médiaeszközök megjelenését. A mesterséges intelligencia azonban kétségtelenül könnyű hozzáférést biztosít a rosszhiszemű szereplők számára az új eszközökhöz, amelyekkel könnyebben és hatékonyabban károsíthatják demokráciánkat, ami még sürgetőbbé teszi a határozott válaszlépéseket. Sok szükséges megoldás túlmutat az új technológiák szabályozásán, és a jogszabályok gyakran még a jól bevált technológiákhoz képest is lemaradnak.
Számos állam már elkezdett lépéseket tenni, törvényjavaslatokat fogadtak el és terjesztettek elő, amelyek a kötelező nyilatkozattételtől kezdve a választók tájékoztatásán át a választásokon használt mesterséges intelligencia használatáról szóló törvényekig terjednek, egészen a politikai deepfake-ek betiltásáig. Az USA-ban szövetségi szinten a Kongresszusban kétpárti törvényjavaslatot nyújtottak be, amely megtiltaná az AI által generált megtévesztő tartalmak terjesztését választások befolyásolása vagy adománygyűjtés céljából.
A szövetségi ügynökségek is mérlegelik, hogy mit tehetnek demokráciánk védelme érdekében a mesterséges intelligencia korában, és vannak olyan javaslatok, amelyek túlmutatnak a választásokon, de mégis segítenek a választókat fenyegető konkrét kockázatok kezelésében. Emellett új oktatási erőfeszítések vannak folyamatban, amelyek célja, hogy egyszerűen felkészítsék a nyilvánosságot arra, hogy a mesterséges intelligencia által generált médiát a választások befolyásolására és esetleges manipulálására használják, ami remélhetőleg segíteni fog a legrosszabb hatások enyhítésében.
Valójában 20 nagy technológiai vállalat, köztük a Google, a Meta (a Facebook és az Instagram anyavállalata), az OpenAI, az X (korábban Twitter) és a TikTok, nemrég ígéretet tett arra, hogy konkrét lépéseket tesz a deepfake és más választási beavatkozási kísérletek felderítésére, nyomon követésére és leküzdésére. Természetesen ezeket az ígéreteket be is kell tartaniuk.
Bár biztató, hogy széles körű érdeklődés mutatkozik a mesterséges intelligencia alapú választási manipuláció megakadályozása iránt, sok javasolt megoldás még messze van attól, hogy kézzelfogható védelmet nyújtson a választók és a választási folyamat számára.
Miután az Európa Tanács (ET) elfogadta az első olyan nemzetközi, jogilag kötelező érvényű szerződést, amelynek célja, hogy a mesterséges intelligenciát (MI) használó rendszerek alkalmazása során biztosítsa az emberi jogok, a jogállamiság és a demokrácia jogi normáinak tiszteletben tartását, elfogadtak egy, a mesterséges intelligenciával (MI) kapcsolatos rendeletet is, mely az EU egységes piacán "mind a magán-, mind a közszereplők körében elő kívánja mozdítani a biztonságos és megbízható MI-rendszerek fejlesztését és elterjedését az alapvető állampolgári jogok tiszteletben tartásának szavatolása mellett". Május végén pedig az Európai Bizottság a mesterséges intelligenciát (MI) felügyelő hivatalt hozott létre, amelynek feladata az MI alkalmazásának szabályozása lesz az új átfogó európai uniós rendelet keretében.