Nemcsak együtt nyilatkoztak, hanem egyet is értettek – mindketten optimisták, kitüntetett jelentőségűnek tartják a gépi intelligencia szerepét a jövő technológiai fejlődésében. Az MI jelenéről és a szerteágazó tudományterületben rejlő lehetőségekről beszéltek – a legnagyobb potenciált a gépi tanulásban látják. Peter Norvig, a Google kutatási igazgatója hazai terepen mozgott, hiszen Stuart Russell társaságában ő jegyzi az immár három kiadást megélt, a világ számos felsőoktatási intézményében tankönyvként használt, rendkívül sikeres Mesterséges intelligencia – modern megközelítésben című művet (1995, 2003, 2009). Eric Horvitz, a Microsoft egyik vezető kutatója elsősorban a bizonytalan körülmények melletti érzékeléssel, tanulással, döntéshozással, azok számítógépes modellezésével és alkalmazásaikkal foglalkozik, úgyhogy ő is a saját szakterületéről nyilatkozott.
Megtanulhatna mindent a mesterséges intelligencia?
Mindketten kiemelték a gépi tanulás utóbbi években tapasztalt gyors fejlődését, hogy a különböző programok miként boldogulnak az egyre csak terebélyesedő adatmennyiséggel, szövegek átírásával és fordításával. Norvig ahhoz hasonlítja ezt a tevékenységet, mintha a lámpaoszlop alatt keresnénk a zsebünkből kiesett kulcsot. A fény ugyan segít, így a szöveg és a beszéd már most is jól működik, ám a mondatok nyelvtani elemekre bontása és elemzése mindig nehéz feladat, soha nem természetes folyamat, ami esetleg úgy kerülhető meg, hogy rájön, az online szöveg melyik részének vannak (a mondatban betöltött helyére utaló) kapcsolatai. Horvitz abból indult ki, hogy amennyiben létezne az összes szóbeli kérelmet (és a válaszokat) rögzítő felhőszolgáltatás, a mesterséges intelligencia megtanulhatna mindent. De miután nincs ilyen, megfelelve a kényes privacy kritériumoknak, meg kell találni az adatrögzítés erre alkalmas módjait.
A tanulásra szánt adatok jelentős része nincs se felcímkézve, se elmagyarázva, úgyhogy a folyamat kifejezetten nehéz feladat egy gépnek. Viszont nincs is szükség teljes felcímkézésre – az úgynevezett „félig irányított tanulás” már akkor is eredményre vezet, ha a címkék csak az adatok egy százalékára vonatkoznak. Ennyi már elég ahhoz, hogy a rendszer megértse a többi részt. Az Amazon mechanikus törökjét és egyéb crowdsourcing kezdeményezéseket idéző másik alternatíva humán közösségi erőforrások bevonása a címkézésbe az MI számára értelmezhetetlen esetekben. Megoldás lehet az is, ha az információ értékét megértő és ennek alapján a következő legjobb kérdést automatikusan kiszámító vagy az emberi közreműködők által szolgáltatott pluszcímkékből a legtöbbet „kihozó” rendszert hoznak létre.
Norvig szerint sem kell mindent tudnia egy tanulórendszernek – ő a „megerősített tanulásra” hivatkozott, amely a feladat végén jutalmazza vagy bünteti a gépi nebulót. Például elveszít egy sakkjátszmát, de senki nem mondja meg neki, hogy hol rontott, hanem magától kell rájönnie, és csak akkor részesül jutalomban, ha nyer. A korábban sikertelennek tűnt „nem ellenőrzött” gépi tanulásról annyit mondott el, hogy jelenleg a Stanfordon folynak ígéretes kutatások, és amennyiben eredménnyel járnak, a gépek minden előzetes ismeret nélkül is tanulhatnak, „intelligenssé” válhatnak. A példa alapján való tanulás ugyancsak ígéretes – Horvitz szintén egy Stanford projekttel szemléltetett: a helikopter humán szakértőtől sajátítja el a fordítva – háton – való manőverezést…
Ezek a rendszerek cselekvésekhez következtethetnek ki magas szintű szituációs szabályokat, például diagnózissal állhatnak elő fiziológiai szimptómák és teszteredmények alapján. Csakhogy még ebben az estben sem beszélhetünk az intelligencia általános szabályairól, olyan szabályokról, amelyekkel az 1950-es és 60-as években indult legendás kutatók (Marvin Minsky, John McCarthy és követőik) működő MI-ket képzeltek el létrehozni. Horvitz a bizonytalanság melletti döntéshozásra, a valószínűségalapú megközelítésre hívja fel a figyelmet. Norvig komoly perspektívát lát a két koncepció szintézisében, már csak azért is, mert a korábbi elvek alapján a különböző programokat, rendszereket csak igen szűk skálán („igaz”, „hamis”) lehetett megítélni, amivel a felhasználási körük is korlátozódott.
A hétköznapi megoldások
A hétköznapokban (és nemcsak laboratóriumi körülmények között) működő, felhasználók által elfogadott MI-megoldások, mint például a Siri, tervezési problémákat is felvetnek – úgy kell tervezni őket, hogy „kellemesek” legyenek, megfeleljenek az emberi intelligencia elvárásainak. Norvig szerint többszintű problémasorról van szó: a kutatók egyrészt ismerik az emberi látórendszert, tudják, mitől más a különböző gombok színe. Magasabb szinten viszont már a rendszer viselkedésével, hozzánk fűződő viszonyával kapcsolatos elvárások jelentkeznek vele szemben. Itt kapcsolódik az MI jövőjéhez a számítógépekről való gondolkodás, pszichológiai hatásuk, az ember–számítógép interakció szakterülete: mivel intelligens tárgyak és az ember egyre gyakrabban dolgoznak együtt, közel kerülnek egymáshoz, új módszereket kell kitalálni arra, hogy minél kevesebb probléma adódjon a találkozási pontokon, hogy az MI-megoldások kompatibilisebbek legyenek az emberrel.
Horvitz kutatócsoportja például arra törekszik, hogy a számítógépek rendszerszinten értsék meg az emberi figyelmet, és tudják, melyik a legjobb pillanat a felhasználó aktivitásának megszakítására. Norvig az emberi test jobb megértésére figyelmeztet: ha a gép többet ért a testbeszédből, könnyebben „megfejti” viselkedésünket. A Microsoft Kinectjét, az Xbox 360 játékkonzol mozgásérzékelő eszközét hozza fel példaként. Horvitz elmondása alapján a fejlesztés során sok gépi tanulást „vittek bele.” Véleménye szerint az MI csúcstechnológiával felszerelt széles körű fogyasztásra szánt termék nagyon jó eladási mutatói egyértelműen jelzik az MI-alkalmazásokban rejlő kereskedelmi potenciált. De a gépi tanulás a Bingben és a Google keresőjében is fontos szerepet tölt be, „azaz, mindennapos netezés közben is használunk MI-t.”