Az IBM Research bemutatta az új "mesterséges intelligencia egységet", amelyet arra terveztek, hogy mélytanulási modelleket futtasson szinte bármilyen vállalati alkalmazáshoz.
A körülötte lévő nagy zaj azt harsogja, hogy a mesterséges intelligencia (MI) már mindenhol jelen van, de a valóságban az azt működtető technológia még mindig csak most fejlődik. Számos MI-alkalmazás olyan chipekkel működik, amelyeket nem MI-re terveztek, ehelyett a videójátékokhoz kifejlesztett általános célú CPU-kra és GPU-kra támaszkodik. Emiatt az olyan technológiai óriások, mint az IBM, az Intel és a Google, valamint a startupok és a kockázati tőkések rengeteg befektetést indítottak kifejezetten az MI-munkaterhelésekhez tervezett új chipek tervezésébe.
Ahogy a technológia fejlődik, a vállalati befektetések is biztosan követni fogják. A Gartner szerint az MI-chipekből származó bevétel 2021-ben több mint 34 milliárd dollárt tett ki, és 2026-ra várhatóan 86 milliárd dollárra nő. Emellett a kutatócég szerint 2020-ban az adatközpontok szervereinek kevesebb mint 3 százaléka tartalmazott munkaterhelés-gyorsítókat, míg 2026-ra várhatóan több mint 15 százalékuk.
Az IBM Research a maga részéről most mutatta be a mesterséges intelligencia egység (AIU) prototípusát, egy mesterséges intelligenciára specializált chipet. "Kifogyunk a számítási teljesítményből. Az MI-modellek száma exponenciálisan növekszik, de a hardver, amely ezeket a behemótokat betanítja és futtatja a felhőben lévő szervereken vagy az olyan peremeszközökön, mint az okostelefonok és érzékelők, nem fejlődött ilyen gyorsan" - közölte az IBM.
Az AIU az IBM Research AI Hardware Center első olyan komplett System-on-a-chip (SoC) rendszere, amelyet kifejezetten vállalati MI mélytanulási modellek futtatására terveztek. Az IBM azzal érvel, hogy a "hagyományos számítástechnika munkagépét", más néven CPU-t még a mélytanulás megjelenése előtt tervezték. Míg a CPU-k általános célú alkalmazásokhoz jók, a tömegesen párhuzamos MI-műveleteket igénylő mélytanulási modellek képzéséhez és futtatásához nem annyira jók.
"Számunkra nem kérdés, hogy az MI hosszú-hosszú ideig az informatikai megoldások alapvető mozgatórugója lesz. Nagyon széles körben és diffúz módon fog átjárni a számítástechnika területét, ezeket a bonyolult vállalati IT-infrastruktúrákat és megoldásokat" - mondta a ZDNET-nek Jeff Burns, az IBM Research AI Compute igazgatója.
Burns szerint az IBM számára az a legcélszerűbb, ha olyan teljes megoldásokat építünk, amelyek gyakorlatilag univerzálisak, "így ezeket a képességeket integrálni tudjuk a különböző számítási platformokba, és támogatni tudjuk a vállalati MI-igények nagyon-nagyon széles skáláját".
Az AIU egy alkalmazásspecifikus integrált áramkör (ASIC), de bármilyen típusú mélytanulási feladat futtatására programozható. A chip 32 feldolgozómagot tartalmaz, amelyek 5 nm-es technológiával készültek, és 23 milliárd tranzisztort tartalmaz. Az elrendezés egyszerűbb, mint egy CPU-é, úgy tervezték, hogy az adatokat közvetlenül az egyik számítási processzorról a másikra küldje, ami energiatakarékosabbá teszi. Úgy tervezték, hogy ugyanolyan könnyen használható legyen, mint egy grafikus kártya, és bármely PCIe-slottal szerelt számítógépbe vagy szerverbe csatlakoztatható.
Az energia- és erőforrás-takarékosság érdekében az AIU a közelítő számítást használja, egy olyan technikát, amelyet az IBM fejlesztett ki, hogy a számítási pontosságot a hatékonyság javára cserélje. A számítás hagyományosan a 64 és 32 bites lebegőpontos aritmetikára támaszkodik, hogy olyan pontosságot adjon, amely hasznos a pénzügyekben, a tudományos számításokban és más olyan alkalmazásokban, ahol a részletes pontosság számít. Ez a pontossági szint azonban a mesterséges intelligencia-alkalmazások túlnyomó többségéhez nem igazán szükséges.
"Ha egy autonóm jármű pályájának megrajzolására gondolunk, nincs olyan pontos pozíció a sávban, ahol az autónak lennie kell. A sávban többféle elfogadható hely van" - magyarázza Burns
A neurális hálózatok alapvetően nem pontosak egy kimenetet állítanak elő egy bizonyos valószínűséggel. Egy számítógépes látóprogram például 98 százalékos biztonsággal mondhatja, hogy egy macska képét látja. Ennek ellenére a neurális hálózatokat kezdetben még mindig nagy pontosságú aritmetikával képezték ki, ami jelentős energiát és időt emésztett fel. Az AIU közelítő számítási technikája lehetővé teszi, hogy a 32 bites lebegőpontos aritmetikáról a negyedannyi információt tartalmazó bitformátumokra térjen át.
Annak érdekében, hogy a chip valóban univerzális legyen, az IBM Research nem csak a hardveres újításokra összpontosított, hanem nagy hangsúlyt fektetett az alapmodellekre, amelyeken nagyjából 400-500 fős csapat dolgozik. Az egy adott feladatra épített mesterséges intelligencia-modellekkel ellentétben az alapmodelleket címkézetlen adatok széles halmazán képzik ki, így egy gigantikus adatbázishoz hasonló erőforrást hoznak létre. Ezután, amikor egy konkrét feladathoz kell egy modell, az alapmodell viszonylag kis mennyiségű címkézett adat felhasználásával újra betanítható.
Ezzel a megközelítéssel az IBM különböző vertikális területeket és különböző MI-felhasználási eseteket kíván kezelni. Van néhány olyan terület, amelyre a vállalat alapmodelleket épít. Ezek a felhasználási esetek olyan területeket fednek le, mint a kémia és az idősoros adatok. Az idősoros adatok, amelyek egyszerűen a rendszeres időközönként gyűjtött adatokra utalnak, kritikus fontosságúak az ipari vállalatok számára, amelyeknek meg kell figyelniük, hogyan működnek a berendezéseik. Miután néhány kulcsfontosságú területre alapmodelleket építettek, az IBM specifikusabb, vertikális irányultságú ajánlatokat dolgozhat ki. A csapat gondoskodott arról is, hogy az AIU szoftvere teljes mértékben kompatibilis legyen az IBM tulajdonában lévő Red Hat szoftvercsomagjával.