Don't be evil, azaz "ne légy gonosz" - ezzel kezdődött a Google üzletviteli szabályzata már a cég 2004-es tőzsdére lépésekor is. Ám a vállalat a héten tovább távolodott híres mottójától, amikor módosította mesterséges intelligenciával (AI) kapcsolatos irányelveit, eltávolítva azt a részt, amely elkötelezte magát a fegyverkezési vagy megfigyelési célú felhasználás ellen. Ez a döntés komoly kockázatokat rejthet magában - figyelmeztetett Lars Hilse kiberbiztonsági szakértő.
Hilse szerint az AI rendszerek kiszámíthatatlan módon léphetnek interakcióba más hálózati infrastruktúrákkal, ami olyan "villámháborúk" kialakulásához vezethet, amelyek gyorsabban eszkalálódnak, mint ahogy az emberi elme képes lenne felfogni vagy beavatkozni. "Az emberiség még csak most kezdi megérteni az AI fegyveres alkalmazásának veszélyeit és ismeretlen kockázatait" - figyelmeztetett a szakértő. Szerinte a jelenlegi globális feszültségek közepette bölcsebb lenne ezt a "szellemet még egy ideig a palackban tartani."
A döntés azonban nem meglepő, mivel a piac és a geopolitikai helyzet diktálja az irányváltást. A védelmi iparág rendkívül jövedelmező, és a Google így versenyelőnyre tehet szert mind az amerikai, mind a globális AI-fejlesztések terén, különösen Kínával szemben.
"Ez az irányváltás része annak a szélesebb körű átrendeződésnek, amelyben a Szilícium-völgy egyre inkább igazodik a nemzetbiztonsági érdekekhez" - mondta Hilse. Szerinte ez azt is jelezheti, hogy az iparág korábbi etikai korlátait fokozatosan lebontják annak érdekében, hogy gyorsabban reagálhassanak a piac változásaira ebben a rendkívül jövedelmező, eddig nagyrészt feltáratlan üzleti területen.
A Google döntése így nem csupán technológiai, hanem geopolitikai és stratégiai következményekkel is járhat - a kérdés az, hogy az AI fegyveres alkalmazása valóban elkerülhetetlen-e, vagy még van lehetőség a kontroll megőrzésére.