Az Nvidia olyan technológiai óriásokkal együttműködve, mint a Google, a Microsoft és az Oracle, előrelépéseket tesz az MI képzés, a telepítés, a félvezetők, a szoftverkönyvtárak, a rendszerek és a felhőszolgáltatások terén. További partnerségeket és fejlesztéseket jelentettek be többek között az Adobe, az AT&T és a BYD járműgyártó céggel.
Huang számos példát említett az Nvidia ökoszisztémájának működésére. Például a Microsoft 365 és Azure felhasználóknak hozzáférést adnak a virtuális világok építésére szolgáló platformhoz, az Amazon pedig szimulációs képességeket használ autonóm raktári robotok betanítására. Megemlítette a generatív MI-szolgáltatások, például a ChatGPT gyors térnyerését is, és a sikert a "mesterséges intelligencia iPhone-pillanatának" nevezte - számolt be a TechSpot.
Huang az Nvidia Hopper architektúráján alapuló új GPU-t jelentett be H100 NVL kódnéven. Ez kettős GPU-konfigurációban működik NVLinkkel, hogy kielégítse az MI és a nagy nyelvi modellek (LLM) iránti növekvő igényt. A GPU a GPT-hez hasonló modellek feldolgozására tervezett Transformer Engine-t tartalmaz, amely csökkenti az LLM feldolgozási költségeit. A GPT-3 feldolgozására szolgáló HGX A100-hoz képest egy négy pár H100 NVL-t tartalmazó szerver akár 10x gyorsabb lehet - állítja a vállalat.
Mivel a felhőalapú számítástechnika 1 billió dolláros iparággá vált, az Nvidia kifejlesztette az Arm-alapú Grace CPU-t az MI és a felhőalapú munkaterhelésekhez. A cég állítása szerint 2x nagyobb teljesítményt nyújt az x86-os processzorokhoz képest, azonos energiafogyasztás mellett, a főbb adatközponti alkalmazásokban. Ezután a Grace Hopper szuperchip egyesíti a Grace CPU-t és a Hopper GPU-t, az MI adatbázisokban és a nagy nyelvi modellekben gyakran előforduló óriási adathalmazok feldolgozására.
Az Nvidia vezérigazgatója továbbá azt állítja, hogy a nyolc Nvidia H100 GPU-t tartalmazó DGX H100 platformjuk az AI-infrastruktúra kiépítésének tervévé vált. Több nagy felhőszolgáltató, köztük az Oracle Cloud, az AWS és a Microsoft Azure is bejelentette, hogy tervezi a H100 GPU-k bevezetését a kínálatába. Az olyan szervergyártók, mint a Dell, a Cisco és a Lenovo szintén készítenek Nvidia H100 GPU-kkal működő rendszereket.
Mivel egyértelműen a generatív MI-modellek a menők, az Nvidia új hardvertermékeket kínál a következtetési platformok hatékonyabb futtatására szolgáló speciális felhasználási esetekkel is. Az új L4 Tensor Core GPU egy univerzális gyorsító, amely videóra optimalizált, és a CPU-khoz képest 120-szor jobb AI-alapú videóteljesítményt és 99 százalékkal jobb energiahatékonyságot kínál, míg az L40 for Image Generation grafikára és MI-alapú 2D, videó és 3D képgenerálásra optimalizált.
Az Nvidia Omniverse jelen van az autóipar modernizálásában is. Az iparág 2030-ra az elektromos járművek, az új gyárak és az akkumulátor megagyárak felé történő elmozdulást jelzi. Az Nvidia szerint az Omniverse-t a nagy autómárkák különböző feladatokra alkalmazzák. A Lotus a virtuális hegesztőállomások összeszereléséhez, a Mercedes-Benz a szerelősorok tervezéséhez és optimalizálásához, a Lucid Motors pedig a pontos tervezési adatokkal ellátott digitális áruházak építéséhez használja. A BMW együttműködik az idealworksszel a gyári robotok képzéséhez és egy elektromos járműgyár teljes egészében az Omniverse-ben történő megtervezéséhez.
Az Nvidia áttörést jelentett be a chipgyártás sebessége és energiahatékonysága terén a "cuLitho" bevezetésével, amely egy olyan szoftverkönyvtár, amely a számítási litográfiát akár 40-szeresére gyorsítja. Jensen kifejtette, hogy a cuLitho drasztikusan csökkentheti a chiptervezés és -gyártás során szükséges kiterjedt számításokat és adatfeldolgozást. Ez jelentősen alacsonyabb áram- és erőforrás-fogyasztást eredményezne. A TSMC és a félvezető berendezéseket szállító ASML azt tervezi, hogy a cuLitho-t beépítik gyártási folyamataikba.