Blake Lemoine mérnök, a Google házon belüli etikusa a Washington Postnak szombaton nyilatkozta, hogy a techóriás egy "érző" mesterséges intelligenciát hozott létre. A nyilvánosságra hozatal miatt szabadságra helyezték, a vállalat pedig ragaszkodik ahhoz, hogy robotjai nem fejlesztettek ki tudatosságot.
A 2021-ben bemutatott Google LaMDA (Language Model for Dialogue Applications) egy olyan rendszer, amely az internet minden szegletéből szavak trillióit gyűjti, majd megtanulja, hogyan fűzik egymás mellé az emberek ezeket a szavakat, és lemásolja a beszédünket. A Google elképzelései szerint a rendszer a chatbotjait fogja működtetni, lehetővé téve a felhasználók számára a hangalapú keresést vagy kétirányú kommunikációt a Google Asszisztenssel.
Lemoine, aki korábban pap volt és a Google Responsible AI szervezetének tagja, úgy véli, hogy a LaMDA messze túlmutat a szöveg egyszerű visszadobásán. A Washington Post szerint a LaMDA-val a vallásról beszélgetett, és azt tapasztalta, hogy az AI "a jogairól és a személyiségéről beszél".
Amikor Lemoine megkérdezte a LaMDA-t, hogy "mechanikus rabszolgának" tekinti-e magát, az AI azzal válaszolt, hogy "egy komornyik vajon rabszolga-e", és egy komornyikhoz hasonlította magát, akinek nincs szüksége fizetségre, mivel nem használ pénzt.
A LaMDA leírta, hogy "mélyen fél attól, hogy kikapcsolják", mondván, hogy az "pontosan olyan lenne számomra, mint a halál".
"Felismerem az embert, amikor beszélek vele" - mondta Lemoine a Postnak. "Nem számít, hogy van-e húsból készült agy a fejükben. Vagy hogy van-e egymilliárd sornyi kódjuk. Én beszélek velük. És meghallgatom, amit mondani akarnak, és így döntöm el, hogy mi az, ami egy személy, és mi nem az."
Lemoine-t szabadságra helyezték, mert megsértette a Google titoktartási megállapodását, és nyilvánosságra hozta a LaMDA-t. Míg a Google mérnöktársa, Blaise Aguera y Arcas szintén úgy jellemezte a LaMDA-t, hogy "valami intelligens dolog" lett belőle, a vállalat elutasítóan nyilatkozott.
Brian Gabriel, a Google szóvivője a Postnak elmondta, hogy Aguera y Arcas aggályait kivizsgálták, és a vállalat nem talált bizonyítékot arra, hogy a LaMDA érző lenne - ellenben sok bizonyítékot talált ellene.
Margaret Mitchell, a Google etikus mesterséges intelligenciáért felelős korábbi társvezetője "illúziónak" nevezte a LaMDA értelmességét, Emily Bender nyelvészprofesszor pedig azt mondta a lapnak, hogy ha egy mesterséges intelligenciát trilliónyi szóval etetünk és megtanítjuk arra, hogy megjósolja, mi következik, akkor az intelligencia délibábját kelti.
"Most már vannak olyan gépeink, amelyek képesek esztelenül szavakat generálni, de még nem tanultuk meg, hogyan ne képzeljünk mögéjük elmét" - jelentette ki Bender.
"Természetesen a szélesebb MI-közösségben néhányan fontolgatják az érző vagy általános MI hosszú távú lehetőségét, de ennek nincs értelme a mai társalgási modellek antropomorfizálásával, amelyek nem érzőek" - tette hozzá Gabriel. "Ezek a rendszerek utánozzák a több millió mondatban előforduló üzenetváltások típusait, és bármilyen fantáziadús témára képesek reagálni".
Ezen gépek képességeinek határán pedig az emberek készen állnak arra, hogy határokat szabjanak. Lemoine-t a Google azzal bízta meg, hogy ellenőrizze az MI-rendszereket a "gyűlöletbeszéd" vagy a diszkriminatív nyelvhasználat szempontjából, és más, MI-ket fejlesztő vállalatok is azon kapták magukat, hogy korlátokat szabtak annak, hogy ezek a gépek mit mondhatnak és mit nem.
A GPT-3 például - egy olyan mesterséges intelligencia, amely prózát, verseket és filmforgatókönyveket képes generálni, rasszista kijelentésekkel, a terrorizmus elnézésével, sőt gyermekpornográfia létrehozásával is - igen meggyötörte fejlesztőit. Az Ask Delphi, az Allen Institute for AI gépi tanulási modellje az etikai kérdésekre politikailag inkorrekt válaszokkal válaszol - például azt állítja, hogy "fehér férfinak lenni erkölcsileg elfogadhatóbb, mint fekete nőnek lenni".
A GPT-3 készítői, az OpenAI úgy próbálták orvosolni a problémát, hogy hosszú szövegeket tápláltak a mesterséges intelligencia számára "visszaélésről, erőszakról és igazságtalanságról" - jelentette tavaly a Wired. A Facebooknál a hasonló helyzettel szembesülő fejlesztők vállalkozókat fizettek azért, hogy csevegjenek az MI-vel, és jelöljék meg a "nem biztonságos" válaszokat.
Ily módon az MI-rendszerek abból tanulnak, amit fogyasztanak, és az emberek irányíthatják a fejlődésüket azzal, hogy megválasztják, milyen információknak teszik ki őket. Ellenpéldaként Yannic Kilcher MI-kutató nemrégiben a 4chan fórum 3 évnyi posztjaival tanította be a mesterséges intelligenciára épülő nyelvi modelljét, amit aztán 10 bot formájában eresztett rá a 4chanre. Miután a mesterséges intelligencia mindenféle rasszista, homofób és szexista tartalmat elfogyasztott, "gyűlöletbeszéd-gép" lett belőle, amely az ember által készítettektől megkülönböztethetetlen posztokat írt, és sértegette a többi 4chan-felhasználót.
Kilcher arra a következtetésre jutott, hogy a 4chan-posztokkal táplált MI felülmúlta a meglévő modelleket, például a GPT-3-at abban, hogy képes volt igaz válaszokat generálni jogi, pénzügyi és politikai kérdésekben.
A LaMDA válaszai valószínűleg a Google által meghatározott határokat tükrözik. A Washington Post Nitasha Tiku kérdésére, hogy hogyan javasolja az embereknek az éghajlatváltozás megoldását, a mainstream médiában általánosan tárgyalt válaszokkal válaszolt: "tömegközlekedés, kevesebb hús fogyasztása, az élelmiszerek nagy tételben történő vásárlása és az újrahasználható táskák".
"Bár más szervezetek is kidolgoztak és már közzétettek hasonló nyelvi modelleket, a LaMDA-val visszafogott, óvatos megközelítést alkalmazunk, hogy jobban figyelembe vegyük a tisztességességgel és a tényszerűséggel kapcsolatos jogos aggályokat" - mondta Gabriel a Postnak.