Kompletní řešení datového centra na klíč zrychluje dodávku pro kritické podnikové případy a eliminuje složitost budování velkého clusteru, což dříve bylo možné pouze prostřednictvím intenzivního ladění návrhu a časově náročné optimalizace superpočítačů.
Nejvyšší výpočetní hustota
S 32 NVIDIA HGX H100/H200 8-GPU, 4U kapalinou chlazených serverů (256 GPU) v 5 rozvaděčích
- Zdvojnásobení hustoty výpočtů pomocí vlastního řešení kapalinového chlazení Supermicro s až 40% úsporou nákladů na elektřinu pro datové centrum
- 256 GPU NVIDIA H100/H200 v jedné škálovatelné jednotce
- 20 TB HBM3 s H100 nebo 36 TB HBM3e s H200 v jedné škálovatelné jednotce
- 1:1 síťování ke každému GPU pro umožnění NVIDIA GPUDirect RDMA a Storage pro trénink velkých jazykových modelů s až trilióny parametry
- Přizpůsobitelná infrastruktura úložiště pro datové AI pipeline s předními možnostmi paralelního souborového systému
- Připraveno na software NVIDIA AI Enterprise
Prověřený design
S 32 NVIDIA HGX H100/H200 8-GPU, 8U vzduchem chlazených serverů (256 GPU) v 9 rozvaděčích
- Osvědčená špičková architektura pro nasazení infrastruktury AI ve velkém měřítku
- 256 GPU NVIDIA H100/H200 v jedné škálovatelné jednotce
- 20 TB HBM3 s H100 nebo 36 TB HBM3e s H200 v jedné škálovatelné jednotce
- 1:1 síťování ke každému GPU pro umožnění NVIDIA GPUDirect RDMA a Storage pro trénink velkých jazykových modelů s až trilióny parametry
- Přizpůsobitelná infrastruktura úložiště pro datové potrubí AI s předními možnostmi paralelního souborového systému
- Připraveno na software NVIDIA AI Enterprise
Inference ve škále cloudu
S 256 NVIDIA GH200 Grace Hopper Superčipy, 1U MGX servery v 9 rozvaděčích
- Sjednocená paměť GPU a CPU pro cloudové vysokoobjemové inference s nízkou latencí a vysokou velikostí dávky
- 1U vzduchem chlazené systémy NVIDIA MGX v 9 racích, 256 superčipů NVIDIA GH200 Grace Hopper v jedné škálovatelné jednotce
- Až 144 GB HBM3e + 480 GB LPDDR5X, dostatek kapacity na umístění modelu s více než 70B parametry do jednoho uzlu
- Síťování bez blokování 400 Gb/s InfiniBand nebo Ethernet připojené k síťové infrastruktuře typu spine-leaf
- Přizpůsobitelná infrastruktura úložiště pro datové potrubí AI s předními možnostmi paralelního souborového systému
- Připraveno na software NVIDIA AI Enterprise
Chcete se dozvědět více?
Neváhejte se obrátit na náš obchodní tým, který vám poskytne kompletní informace a podporu.