Érzékelhető mértékben felgyorsult a mesterséges intelligencián (AI) alapuló robotok fejlesztése az utóbbi hónapokban: nincs olyan hét, amikor ne kapnánk hírt valamilyen figyelemreméltó szerkezetről. Érzelmeket mutató és érzékelő személyi robot, amely az irodában is otthonosan mozog; négy lábon járó felderítő műkutya és csótányt utánzó kémrobot; távol lévő tulajdonosának iPhone-t vásárló, guruló telepresence robot - hogy csak az elmúlt pár hét újdonságait említsük. Ahogy az már lenni szokott, a robotok elszaporodása láttán sokaknak nem csak egy szép új világ képe jelenik meg a lelki szemei előtt, amelyben a kemény, fáradtságos és unalmas munkát gépek végzik majd helyettünk, s amelyben minden korábbinál nagyobb kényelemben és jólétben élhetünk. Jórészt a témát változatos formában feldolgozó hollywoodi kasszasikereknek köszönhetően megelevenedik képzeletünkben egy sötét, apokaliptikus jövő is, amelyben az öntudatra ébredő robotok átveszik a hatalmat, kiirtják vagy rabszolgasorsba taszítják az őket megalkotó emberiséget, eltanulva tőle a pusztítás képességét.
Elnézve napjaink nehézkesen kommunikáló, sután mozgó, imbolyogva járó robotjait, nem túlzás azt állítani, hogy ettől azért még jó ideig nem kell tartanunk. Ahhoz azonban, hogy katasztrófákat okozzon a mesterséges intelligencia alkalmazása, egyáltalán nem szükséges a gépek gonosszá válása, elég, ha készítőiknek vannak rossz szándékaik. Sőt még a legjobb szándékkal létrehozott eszközök is veszélyesekké válhatnak, ha kiberbűnözők átveszik felettük az ellenőrzést: az elmúlt hetekben özönlöttek a hírek a legkülönfélébb típusú intelligens autók és okoseszközök meghackeléséről. Nem beszélve arról, hogy már pusztán a vezérlőszoftverek és -rendszerek hibás működése katasztrófahelyzetet teremthet. Gondoljunk csak az előrejelzések szerint pár éven belül üzembe álló önjáró autókra - mi lesz, ha egy hiba következtében ámokfutásba kezdenek az utakon?
Felhívás az önálló fegyverrendszerek betiltásáért
A probléma olyannyira összetett, hogy a tudományos világ és a technológiai ipar is meglehetősen megosztott a tekintetben, hogy áldás vagy átok a mesterségesintelligencia-alapú rendszerek térhódítása. Híres tudósok és vállalkozók - köztük Stephen Hawking elméleti fizikus, Elon Musk, a Tesla Motors és a SpaceX vezérigazgatója, valamint Steve Wozniak, az Apple társalapítója - támogatásával a mesterségesintelligencia-kutatók egy csoportja július végén nyílt levelet tett közzé (ezt eddig több mint húszezren írták alá), amelyben a teljesen automatikus fegyverrendszerek fejlesztésének betiltását követelik. Ezek a korszerű harci eszközök emberi beavatkozás nélkül választják ki és semmisítik meg célpontjaikat. Ebbe a kategóriába tartoznak például az olyan felfegyverzett quadrokopterek, amelyek előre megadott kritériumok alapján felkutatják és megölik az embereket, ugyanakkor nem tartoznak ide a távvezérelt drónok és rakéták, amelyeknél emberek határozzák meg a célpontokat.
A nyílt levél megfogalmazása szerint "a mesterségesintelligencia-technológia fejlődése elérkezett ahhoz a ponthoz, hogy az ilyen rendszerek bevezetése pár éven belül megvalósíthatóvá válik, nem kellenek hozzá évtizedek, és a tét óriási: a teljesen önálló fegyverek bevetését a hadviselés harmadik forradalmaként emlegetik, az első kettő a puskapor és a nukleáris fegyverek felfedezése volt."
A levél kitér arra: támogatóik az automatikus fegyverrendszerek előnyeként említik, hogy helyettesítik a katonákat, s ezáltal csökkentik az emberveszteségeket. Ugyanakkor jogosan merül fel a kérdés a dokumentum szerint, hogy ezzel az indokkal belekezdjen-e az emberiség egy újabb fegyverkezési versenybe a mesterséges intelligencia területén, vagy pedig az szolgálja-e jobban az érdekünket, ha csírájában fojtjuk el ezt a technológiai rivalizálást. De vajon egymagában egy ilyen nyílt levél megakadályozhatja-e, hogy a katonai nagyhatalmak folytassák a mesterséges intelligencián alapuló fegyverek fejlesztését?
A levelet író tudósok teljes joggal attól is tartanak, hogy az új típusú fegyverek feltűnnek majd a feketepiacon, és terroristák kezébe kerülnek, ami beláthatatlan következményekkel járhat. Úgy gondolják tehát, hogy ez a fegyverkezési verseny nem szolgálja az emberiség javát, és a mesterségesintelligencia-technológiát nem gyilkológépek kifejlesztésére kellene használni, hanem a civil áldozatok számának csökkentésére.
A mesterséges intelligencia kutatásával foglalkozó tudósok nyílt levelük végén kijelentik, hogy nem kívánnak részt venni fegyverek kifejlesztésében, mint ahogy a kémikusok és biológusok sem érdekeltek biológiai és vegyi fegyverek gyártásában. Hitet tesznek továbbá amellett, hogy a mesterséges intelligencia óriási lehetőséget kínál az emberiség életkörülményeinek javítására, és követelik a teljesen önálló, emberi irányítás nélküli támadó fegyverek betiltását.
Hawking már januárban is komoly figyelmeztetést küldött a világnak, amikor egy sajtókonferencián azt mondta: "a teljesen önálló mesterségesintelligencia-rendszerek kifejlesztése az emberi faj pusztulásához vezethet". Hozzátette: bár tisztában van a jelenlegi AI-megoldások előnyeivel - a betegsége miatt beszélni képtelen fizikus is olyan szoftvert használ a kommunikációhoz, amely korábbi szavaiból kikövetkezteti, mit akar közölni, így 20 százalékkal kevesebbet kell gépelnie -, a jövő gépei képesek lesznek áttervezni magukat, méghozzá egyre gyorsuló ütemben, a lassú biológiai evolúcióra korlátozott emberek pedig képtelenek lesznek ezzel versenyezni, s végül alulmaradnak.
Optimistább hangok
Más kutatók ugyanakkor azt mondják: a legijesztőbb dolog az lenne, ha leállítanák vagy korlátoznák a mesterséges intelligenciával kapcsolatos kutatásokat, mert az a lehetőségek elszalasztásához vezetne. Yolanda Gil, a Dél-Kaliforniai Egyetem kutatója a DARPA (az Egyesült Államok Védelmi Minisztériumának kutatásokért felelős részlege) szeptember elején megrendezett Wait, What? technológiai fórumán tartott előadásában úgy fogalmazott: "ha egyáltalán félnem kell valamitől, akkor az emberektől jobban félek, mint a gépektől". A rendezvény résztvevői a mesterséges intelligencia lehetséges veszélyeit vitatták meg, és megpróbáltak közös nevezőre jutnak abban, milyen óvintézkedések bevezetésére van szükség most ahhoz, hogy a fenyegetések évtizedek múlva ne váljanak valóra.
Az amerikai Computerworldnek nyilatkozó Trevor Darrell, a berkeley-i Kaliforniai Egyetem számítógép-tudományi professzora úgy véli, az átlagember több mesterséges intelligenciával kapcsolatos fejlesztéssel fog találkozni az elkövetkezendő tíz évben, mint az elmúlt ötvenben. Öt-tíz éven belül olyan gépeket fogunk használni, amelyek egyre jobban képesek lesznek megérteni az embereket és kommunikálni velük, továbbá alapvető ismeretekkel rendelkeznek majd a környezetükről. Olyasmit kérhetünk majd intelligens autónktól, hogy vigyen el minket kedvenc kávézóláncunknak abba az üzletébe, ahol a legrövidebb a sor.
Attól félünk, hogy elveszítjük az ellenőrzést az AI-rendszerek felett, fogalmazta meg az emberek aggályait Tom Dietterich, az Oregoni Állami Egyetem Intelligent Systems részlegének igazgatója. Mi történik ugyanis, ha egy hiba következtében törni-zúzni kezdenek, és nem tudjuk leállítani őket? Ezért feltétlenül képesnek kell lennünk az irányításukra, bármi történjék is. Meg kell tudni akadályoznunk továbbá, hogy a mesterségesintelligencia-rendszereket kibertámadások érjék, módszereket kell kidolgozni arra, miképpen lehet figyelmeztetni a hálózatot - mind az embereket, mind a gépeket -, ha támadás van kibontakozóban. Dietterich szerint a mesterségesintelligencia-rendszereket nem szabad teljesen önálló működésűvé tenni, az emberek ugyanis nem kerülhetnek olyan helyzetbe, hogy a gépeknél legyen a teljes irányítás.
Hasonlóan vélekedik Darrell is, aki szerint emberi és gépi rendszereknek egyaránt folyamatosan felügyelniük kell, mi történik. Ugyanúgy, ahogy meg akarjuk akadályozni, hogy hackerek irányításuk alá vonják az okosautókat és tömegkatasztrófát okozzanak velük, korlátokat kell állítanunk a mesterségesintelligencia-rendszerek számára is.