Hirdetés
. Hirdetés

HPE Discover 2024 - Kulcsrakész AI-magánfelhő

|

Egyszerűsítené és gyorsítaná a generatív AI vállalati bevezetését a HPE és az NVIDIA most bejelentett, közösen fejlesztett megoldásaival. Discover konferenciáján a szállító IT üzemeltetői copilot alkalmazást és a mesterséges intelligencia fenntarthatóságát növelő, moduláris adatközponti megoldásokat is bemutatott.

Hirdetés

A generatív mesterséges intelligencia hatalmas lehetőség a digitálisan átalakuló vállalatoknak, széttöredezettsége és összetettsége miatt a technológia azonban túl sok kockázatot és akadályt rejt magában, amelyek nemcsak hátráltatják széles körű elfogadását, hanem akár veszélyeztethetik a szervezetek legértékesebb tulajdonát, az adatvagyont - mondta nyitó előadásában Antonio Neri, a HPE elnök-vezérigazgatója. - Az NVIDIA-val közösen fejlesztett, kulcsrakész magánfelhős megoldásainkkal a vállalatok könnyebben kiaknázhatják a generatív AI óriási potenciálját, erőforrásaikkal ugyanis az új használati esetek kidolgozására, termelékenységük növelésére és új bevételi források feltárására összpontosíthatnak.

A Las Vegasban júniusban megtartott Discover 2024 konferencián bejelentett, közös fejlesztésű portfólió központi eleme a HPE Private Cloud AI, amely az NVIDIA AI hardver- és szoftvertechnológiája, valamint a HPE AI adattárolói, szerverei és GreenLake felhője közötti, eddigi legmélyebb integrációt képviseli. Az új megoldásokkal a vállalatok mérettől függetlenül gyorsan, rugalmasan és energiahatékony, fenntartható módon haladhatnak előre a generatív mesterséges intelligenciára épülő alkalmazások fejlesztésében és bevezetésében, mondta a két szállító. A különböző AI munkaterhelésekhez és használati esetekhez a szervezetek a HPE Private Cloud AI négyféle konfigurációja közül választhatnak, amelyek használatát az önkiszolgálás felhőélménye, a teljes körű életciklus-kezelés, valamint az IT üzemeltetést támogató, szintén új OpsRamp AI copilot digitális asszisztens segíti.

Antonio Neri, a HPE elnök-vezérigazgatója

Ebből épül fel a HPE Private Cloud AI

Felhőalapú felhasználói élményével a HPE Private Cloud AI felgyorsítja az innovációt és a beruházások megtérülését, miközben a mesterséges intelligencia alkalmazását kísérő kockázatok kezelésében is segíti a vállalatokat, demonstrálták a konferencia előadói. A magánfelhős megoldás többek között támogatja a következtetéseket (inferenciát), a finomhangolást és a RAG (retrieval-augmented generation) AI munkaterheléseket a szervezetek saját adatain, továbbá vállalati szinten ellenőrizhetővé teszi az adatvédelemmel, biztonsággal, transzparenciával és irányítással kapcsolatos követelmények teljesítését. ITOps és AIOps képességeivel növeli a termelékenységet és a hatékonyságot, rugalmasságánál fogva könnyebbé teszi a jövőbeni AI lehetőségek gyors kiaknázását és igények kiszolgálását, és mindehhez a szoftverek gondosan összeállított készletét kínálja magánfelhőben.

A szoftverkészlet az NVIDIA AI Enterprise szoftverplatformjára épül, amely az adatkutatás munkafolyamatait, valamint az éles környezetben bevezethető copilotok és más generatív AI alkalmazások fejlesztését és telepítését egyaránt felgyorsítja. A platform részét képező NVIDIA NIM inferencia mikroszolgáltatások pedig konténerezéssel teszik zökkenőmentessé a prototípusként fejlesztett AI modellek biztonságos bevezetését a különféle használati esetekben.

Mindezt a HPE AI Essentials szoftvere egészíti ki, amely egységes kezelőfelületen elérhető, használatra kész eszközöket és szolgáltatásokat kínál az adatokkal és a modellekkel összefüggő folyamatok irányításához, a mesterséges intelligencia életciklus-kezeléséhez, törvényi követelményeknek megfelelő, megmagyarázható és megismételhető használatához.

Hirdetés

A működés optimális teljesítményét a HPE Private Cloud AI teljesen integrált infrastruktúrája biztosítja, amely az NVIDIA Spectrum-X Ethernet hálózati eszközeiből, a HPE GreenLake for File Storage adattárolóiból, valamint az NVIDIA processzorait és platformjait, közöttük a legújabb szuperchipeket és architektúrákat támogató HPE ProLiant szerverekből épül fel.

Másodpilóta AI-megfigyeléshez

A HPE GreenLake felhőjén keresztül a vállalatok önkiszolgáló módon használhatják a HPE Private Cloud AI megoldást. A felhőszolgáltatásokkal a felhasználók egyetlen, platformalapú felületen menedzselhetik, hangolhatják össze, automatizálhatják és figyelhetik meg a végpontokat, a munkaterheléseket és az adatokat a hibrid környezetekben - beleértve a működés fenntarthatóságának mérését is.

A GreenLake felhőben a HPE OpsRamp obszervációs platformja biztosít ITOps, AIOps és más észlelési-megfigyelési képességeket a szállító termékeihez és szolgáltatásaihoz. Mostantól az OpsRamp ezen képességei az NVIDIA számításgyorsító technológiájára is végponttól végpontig kiterjednek, beleértve az említett NIM és AI szoftvereket, a Tensor Core GPU-kat és AI klasztereket, valamin az NVIDIA Quantum InfiniBand és Spectrum Ethernet hálózati kapcsolókat is. A vállalati rendszergazdák így hibrid és többfelhős környezetekben is átfogóan monitorozhatják AI infrastruktúrájukat és munkaterheléseiket, és azonnal észlelhetik a rendellenes működésre utaló jeleket.

A szintén új OpsRamp üzemeltetési copilot párbeszédalapú kezelőfelülettel teszi könnyebbé a nagy adatkészletek elemzését, intelligens digitális asszisztensként jelentősen növeli az IT felügyelet hatékonyságát. OpsRamp platformját a HPE emellett a CrowdStrike API-jával is integrálni fogja, a vállalatok így egységes szolgáltatástérképen kísérhetik figyelemmel végpontjaik biztonsági állapotát teljes infrastruktúra- és alkalmazáskörnyezetükben.

HPE Discover 2024: nyitó előadás a Las Vegas Sphere arénában

Discover 2024 konferenciáján a szállító újabb virtualizációs képességgel is bővítette HPE GreenLake portfólióját, amely az iparági szabványnak számító KVM hypervisor vállalati használatra kész változatát saját klaszter-orkesztrációs szoftverével kombinálja a nagy teljesítményt és magas rendelkezésre állást követelő munkaterhelések támogatásához. A virtualizációs képesség a HPE Ezmeral szoftverének konténerszolgáltatásait egészíti ki.

Az NVIDIA AI Computing by HPE portfóliót alkotó termékeket és szolgáltatásokat a két szállító közös piacra lépési stratégiával támogatja. Az értékesítési csapatok és a viszonteladó partnerek mellett ebben a nagy rendszerintegrátor cégek - közöttük a Deloitte, a HCLTech, az Infosys, a TCS és a WIPRO - is részt vesznek, amelyek számos iparág szereplőit segítik az összetett AI munkaterhelések futtatásában.

A HPE Private Cloud AI magánfelhős megoldás megjelenése idén őszre várható, csakúgy, mint az NVIDIA processzorokkal konfigurált, tizenkettedik generációs HPE ProLiant DL380a és ProLiant DL384 szervereké. A szupergyors NVIDIA H200 NVL grafikus processzorokkal konfigurált HPE Cray XD670 szerver azonban már a nyári hónapoktól elérhető lesz.

×××

Moduláris adatközpontok kis szénlábnyommal

A szervezetek gyors ütemben építik be a mesterséges intelligencia technológiáit informatikai környezetük minden rétegébe, ez azonban drámai mértékben növelheti energiaigényüket, ha infrastruktúrájukat nem optimalizálják az AI munkaterhelések futtatására. A HPE ezért a dániai székhelyű Danfoss multinacionális céggel közösen új szolgáltatást jelentett be, amely az IT vezetőket és az adatközpontokat üzemeltető piaci szereplőket energiafogyasztásuk csökkentésében segítheti. A HPE IT Sustainability Services - Data Center Heat Recovery szolgáltatás például olyan, polcról levehető, használatra kész hővisszanyerő modult tartalmaz, amellyel a szervezetek mérhetik és kezelhetik az IT létesítményekben keletkező, felesleges hőt.

A Discover 2024 konferencián bemutatott, energiahatékony adatközponti megoldások egyike a skálázható HPE Modular Data Center (MDC), amelyet a vállalatok rendkívül nagy kW/rack teljesítménysűrűségű, ugyanakkor kis lábnyomú, fizikai konténerek formájában szinte bárhol háromszor gyorsabban telepíthetnek, mint egy hagyományos kialakítású adatközpontot. Az akár 6 hónap alatt üzembe állítható és többek között direkt folyadékhűtéssel működő MDC-vel a vállalatok 20 százalékkal csökkenthetik energiafogyasztásukat.

A moduláris adatközpontok energiahatékonyságát 1,1-es PUE-értékük is mutatja, ugyanakkor alkalmasak a leginkább energiaigényes architektúrák, például a HPE Cray Supercomputing EX4000 befogadására is. Segítségükkel a kritikus fontosságú és számításigényes, szuperszámítógépes és AI munkaterheléseket futtató vállalatok, kutatóközpontok és egyetemek gyorsabban és fenntarthatóbb módon juthatnak eredményekre, mondta a két szállító.

Hővisszanyerő moduljaival és más, innovatív megoldásaival a Danfoss a többlethő újrahasznosításában is segíti a szervezeteket, Turbocor olajmentes kompresszorai pedig akár 30 százalékkal növelik az adatközponti hűtés hatékonyságát.

Cikkünk a ComputerTrends magazin 2024. július 10-ei nyomtatott lapszámában jelent meg.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.