A HPE nyilvános felhőben futó GreenLake for Large Language Models (LLMs) szuperszámítógépes szolgáltatásával a vállalatok önállóan taníthatnak, finomhangolhatnak és vezethetnek be nagyméretű AI modelleket. A szállító már a szolgáltatás idén júniusi bejelentésekor jelezte, hogy a mesterséges intelligencia életciklusát felgyorsító megoldások kínálatát hamarosan bővíteni fogja - és novemberben megtartott Discover Barcelona 2023 konferenciáján ezt máris megtette.
- A generatív mesterséges intelligencia megjelenésével a vállalatok felismerték, hogy az AI modellek hatékony futtatásához szükséges adatok és számítási igények alapvetően más technológiai megközelítést igényelnek - mondta nyitó előadásában Antonio Neri, a HPE elnök-vezérigazgatója. - A HPE piacvezető hibrid felhős, szuperszámítógépes és AI képességeit a vállalatok széles körében tesszük hozzáférhetővé, hogy elősegítsük mesterséges intelligenciával vezérelt átalakulásukat, és lehetővé tegyük számukra, hogy a transzformációhoz szükséges AI modelleket saját adataikon, biztonságosan fejleszthessék. AI-natív és hibrid felhős megoldásainkkal a szervezetek teljes mértékben kiaknázhatják a lehetőségeket, amelyeket az adataikból nyert felismerések tárnak fel előttük, forradalmasíthatják termékinnovációjukat, szorosabbra fonhatják ügyfélkapcsolataikat, és általában hasznosíthatják a generatív AI minden erejét az üzlet és az iparágak további átalakításában.
AI-natív architektúra hibrid környezetben
A nyílt és átfogó AI-natív architektúra Barcelonában most bejelentett, újabb megoldásai is olyan válogatott szoftverekből és hardverekből épülnek fel, amelyek kifejezetten a mesterséges intelligencia életciklusának felgyorsítását szolgálják. Segítségükkel a szervezetek hatékonyabban taníthatják, finomhangolhatják és futtathatják élő adataikon AI modelljeiket bárhol, a peremhálózattól kezdve a felhőig, mondta a szállító.
A HPE és az NVIDIA például egy előre konfigurált számítógépes megoldást épít a generatív mesterséges intelligencia munkaterheléseihez. A finomhangolást és inferenciát támogató megoldással nemcsak a nagyvállalatok, hanem mérettől függetlenül a kisebb szervezetek is gyorsan testre szabhatják az alapmodelleket saját adataikkal, így AI alkalmazásaikat hamarabb bevezethetik a kívánt környezetben.
A technológia minden rétegét átfogó (full-stack) megoldás a két gyártó meglévő együttműködését bővíti ki, amely dobozból készen kivehető AI megoldások szállítását célozza, és a HPE Ezmeral szoftvereit, ProLiant szervereit és Cray szuperszámítógépeit az NVIDIA AI Enterprise szoftvercsomagjával, benne a NeMo keretrendszerrel ötvözi. A generatív mesterséges intelligenciára szabott, most bejelentett számítógépes megoldásra a vállalatok 2024 első negyedétől adhatnak majd megrendeléseket.
Két héttel korábban, a november közepén Denverben megtartott SC23 konferencián a HPE egy kifejezetten nagyvállalatok, kutatóintézetek és kormányzati szervezetek számára épített szuperszámítógépes megoldást is bejelentett, amellyel a célcsoportba tartozó felhasználók szintén rövidebb idő alatt taníthatnak és finomhangolhatnak AI és ML modelleket saját adatkészleteiken, fejleszthetnek generatív mesterséges intelligenciára épülő alkalmazásokat. A kulcsrakész megoldás szoftveres komponenseit a HPE Cray EX szuperszámítógépes technológiájával integrálta - így ugyanarra az architektúrára épül, mint a világ jelenlegi két leggyorsabb szuperszámítógépe, a Frontier és az Aurora -, a feldolgozási teljesítményt pedig az NVIDIA Grace Hopper GH200 Superchip processzorok biztosítják.
A HPE GreenLake for File Storage pedig a nem strukturált adatok egységes és hatékony menedzselését, monitorozását és védelmét szolgáló, hibrid felhős all-flash tárolóplatformként mutatkozott be. Új képességeivel kifejezetten a nagyméretű AI munkaterhelések futtatását, az AI modellek - közöttük a generatív mesterséges intelligencia nagy nyelvi modelljeinek - gyorsabb tanítását és finomhangolását, valamint az adatok összegyűjtését és előkészítését segíti. A 30 terabájtos NVMe SSD tárakapacitást és az NVIDIA grafikus processzoros feldolgozáshoz fejlesztett, felhőnatív Quantum-2 InfiniBand szuperszámítógépes platformját támogató HPE GreenLake for File Storage már rendelhető, de 2024 első felében újabb képességekkel gyarapodik, amelyek kapacitássűrűségét és átviteli teljesítményét is hétszeresen továbbnövelik, mondta a szállító.
Szoftverek és szolgáltatások generatív AI-ra szabva
Mostantól elérhető a HPE Machine Learning Development Environment Software felhőalapú menedzselt szolgáltatása is AI és ML modellek tanításához. Segítségével a vállalatok a generatív mesterséges intelligencia alkalmazását célzó kezdeményezéseiket gyorsan és biztonságosan - a szállító szerint mindössze napok leforgása alatt - megvalósíthatják, mivel a menedzselt szolgáltatás a munka minden szakaszát támogatja. A Machine Learning Development Environment Software csökkenti a modelltanítás komplexitását, és rugalmasságával megkönnyíti a változó igények kiszolgálását, jövőbiztossá teszi az infrastruktúrát.
A HPE Ezmeral Software platform konferencián bemutatott, új képességei a vállalati adatok, analitikai és AI munkaterhelések kezelését segítik hibrid és többfelhős környezetekben. A vállalatok például egy GPU-kra és CPU-kra optimalizált, hibrid adattóház (data lakehouse) erejével gyorsíthatják fel a teljes analitikai életciklust, és adataikat bármely NFS- vagy S3-kompatibilis megoldáson keresztül menedzselhetik, elérhetik és elemezhetik.
A szállító és az NVIDIA generatív mesterséges intelligenciára szabott, most bejelentett számítógépes megoldása HPE GreenLake Flex Solution változatban is elérhető, amely a HPE GreenLake for File Storage platformot a Zerto Cyber Resilience Vault szoftverrel ötvözi az AI modellek és adatforrások fokozott védelméhez. A konfiguráció része az OpsRamp szoftver is, amely több szállító megoldásaiból felépülő, többfelhős környezetekben ad nagyobb rálátást és kiterjedt automatizációs képességeket az AI életciklusán keresztül.
A HPE Services mostantól ugyancsak a mesterséges intelligenciára összpontosító tanácsadói, oktatási és bevezetési szolgáltatások széles portfólióját kínálja. Az új AI szolgáltatások a generatív mesterséges intelligencia és a nagy nyelvi modellek felfedezésétől kezdve az optimális működési modellek kiválasztásán és a hibrid felhős stratégiák kidolgozásán át a megoldások építéséig, bevezetéséig és skálázásáig végigvezetik a szervezeteket az út minden szakaszán. Az átfogó szolgáltatásokat a HPE adatokra és mesterséges intelligenciára szakosodott, globális kiválósági központjai támogatják, amelyek közül kettő Európában, Spanyolországban és Bulgáriában található.
Ezek az AI szolgáltatások - csakúgy, mint a HPE Machine Learning Development Environment Software menedzselt szolgáltatásai és a HPE Ezmeral Software frissítései - bejelentésüktől kezdve általánosan elérhetők.
Karbonsemleges adatközpontok
A Taiga Cloud - a frankfurti székhelyű Northern Data Group tagja - a generatív mesterséges intelligencia első és legnagyobb felhőszolgáltatója Európában. Karl Havard, a Taiga Cloud ügyvezető igazgatója a barcelonai konferencia nyitó előadásának vendégeként bejelentette, hogy vállalata az NVIDIA H100 Tensor Core grafikus processzoraival konfigurált HPE Cray XD szuperszámítógépeken fog felhőszolgáltatásokat indítani nagyméretű AI kezdeményezések támogatásához.
Több mint 330 millió euró értékű beruházásával a Taiga Cloud a HPE Cray XD szuperszámítógépek 384 szekrényét fogja telepíteni, amelyekben mintegy 8200 darab H100 Tensor Core GPU kap helyet. A HPE Cray szuperszámítógépek nemcsak gyorsaságukról és számítási teljesítményükről, hanem energiahatékonyságukról is ismertek - a világ jelenlegi 10 legnagyobb energiahatékonyságú szuperszámítógépe közül hatot ugyanis a HPE épített.
A Taiga Cloud teljes felhője szintén 100 százalékban karbonsemleges, a Generative AI Cloud adatközpontjainak energiahatékonyságát 1,2-nél kisebb PUE-érték mutatja. A szolgáltató tiszta energiával működő európai adatközpontjai így a nagy számítási kapacitás, az alacsony késleltetésű elérés és az adatszuverenitás mellett a fenntarthatósági célok elérésében is segítik a vállalatokat.
Ez a cikkünk a Computerworld magazin 2023. december 6-ai nyomtatott számában jelent meg. A teljes lapszámot itt tudja elolvasni >>>