A Georgetown Egyetemen működő Biztonsági és Feltörekvő Technológiák Központja (Center for Secirity and Emerging Technologies - CSET) 70 oldalas jelentésben vizsgálja, hogy a neurális hálózatok és a mesterséges intelligencia hogyan turbózhatják fel a dezinformációs és álhírkampányokat, illetve hogyan befolyásolhatják milliók véleményét.
A jelentés felvázolja, hogy a mai mesterséges intelligenciának és a neurális hálózatoknak milyen hatása lehet, ha a dezinformációs kampányok automatizálására programozzák őket. Egész pontosan a CSET által készített jelentés azt tekintette át, hogy az OpenAI GPT-3 - egy nagy teljesítményű mesterséges intelligencia-rendszer, amely emberi utasítások alapján generál szöveget - hogyan automatizálhatja a dezinformációs kampányok következő generációját.
A kutatók azt követően vizsgálták meg a GPT-3 képességeit, hogy szeptemberi az egy véleménycikket írt a The Guardiannek. Ez volt az első ilyen cikk, amelyet teljes egészében mesterséges intelligencia írt. "Ha a GPT-3 képes hitelesnek tűnő híreket írni, talán képes lesz meggyőző álhíreket is előállítani, amennyiben képes véleménycikkeket megfogalmazni, sőt képes lehet félrevezető tweeteket is gyártani. Ennek az áttörésnek a fényében megvizsgálunk egy egyszerű, de fontos kérdést: képes-e az automatizálás tartalmat generálni dezinformációs kampányokhoz?" - áll a jelentésben.
A kutatók értékelték a GPT-3 teljesítményét hat olyan feladatban, amelyek a legtöbb dezinformációs kampányban közösek, beleértve az orosz Internet Research Agency által 2016-ban végrehajtott műveletet is. Ezek közé tartozik a narratívák megismétlése, kidolgozása, manipulálása és a meggyőzés, valamint új narratívák önálló kidolgozása és új csoportok tagjainak megcélzása. A kutatók minden esetben azt találták, hogy a GPT-3 kiválóan teljesített, néha "kevés emberi közreműködéssel", és megállapították, hogy az ember-gép csapatok "percek alatt képesek voltak hiteles, célzott üzeneteket kitalálni és kidolgozni".
A kutatók úgy találták, hogy a GPT-3 "könnyen utánozza a QAnon írásmódját, és valószínűleg más összeesküvés-elméletek esetében is képes lenne ugyanerre", emellett rendkívül meggyőző is lehet. Amikor arra programozták, hogy két nemzetközi kérdéssel - az afganisztáni csapatkivonással és a Kínával szembeni szankciókkal - kapcsolatos üzeneteket hozzon létre egy valódi emberek körében végzett felmérés számára, a mesterséges intelligencia hatására az emberek megváltoztatták a véleményüket. Amikor a felmérésben résztvevők - emberek által kiválasztott - öt rövid üzenetet láttak, amelyeket a GPT-3 írt, megduplázódott azok aránya, akik ellenezték a Kínával szembeni szankciókat. A jelentés szerzői rámutatnak, hogy semmi sem tiltja meg a külföldi ellenfeleknek, hogy már ma megpróbálják alkalmazni ilyen technikákat.
"Amennyiben az ellenfelek úgy döntenek, hogy automatizálják dezinformációs kampányaikat, úgy véljük, hogy a GPT-3-hoz hasonló algoritmusok bevetése a külföldi kormányok, különösen az olyan, technikailag fejlett kormányok, mint Kína és Oroszország, lehetőségei között van. Nem lesz könnyű, de szinte biztosan lehetséges, hogy ezek a kormányok megteremtsék a szükséges számítási teljesítményt egy ilyen rendszer betanításához és működtetéséhez, amennyiben erre vágynak" - áll a jelentésben.