Supermicro推出配備NVIDIA HGX及PCIe型H100 8-GPU尖端服務器系統
2023-03-27
來源:Supermicro
【2023 年 3 月 21 日美國加州圣何塞訊】Super Micro Computer, Inc. (NASDAQ:SMCI) 為AI/ML、云端、存儲和5G/智能邊緣應用的全方位IT解決方案供應商,宣布其配備最新NVIDIA HGX H100 8-GPU系統的頂級全新GPU服務器開始出貨。該服務器整合了最新的NVIDIA L4 Tensor Core GPU至從邊緣到數據中心的各種應用優化服務器中。
Supermicro總裁暨首席執行官梁見后(Charles Liang)表示:“Supermicro提供業界最全面的 GPU系統產品組合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服務器,并支持全系列新NVIDIA H100 GPU的工作站和SuperBlade系統。 通過這款NVIDIA HGX H100 Delta-Next 服務器,客戶將獲得相較上一代 AI 訓練應用9倍的性能提升。 我們的GPU服務器采用創新的氣流設計,能全面降低風扇轉速、噪音和功耗,進而降低總擁有成本(TCO)。 此外,對于正在尋找符合未來需求的數據中心的客戶,我們也為其提供完整的機柜級(rack-scale)液冷選項。 ”
Supermicro的高性能新型8U GPU服務器現已大量出貨。 這款全新 Supermicro 8U 服務器特別針對AI、DL、ML和HPC工作負載進行了優化,搭載能達到高GPU-to-GPU通信的NVIDIA HGX H100 8-GPU,使用高速NVIDIA NVLink? 4.0技術、NVSwitch 互連,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 以太網,從而大幅突破 AI 的障礙。 此外,Supermicro還提供多種性能優化的GPU服務器配置,包括直連/單根(single-root)/ 雙根(dual-root) CPU-to-GPU,另外還有前置或后置 I/O 機型,在標準和OCP DC機柜 配置中使用AC與DC 電源。 Supermicro X13 SuperBlade? 機殼可在一個 8U 機殼內放入 20 個 NVIDIA H100 Tensor Core PCIe GPU 或 40 個 NVIDIA L40 GPU,6U機殼則最多可使用10個NVIDIA H100 PCIe GPU或20個NVIDIA L4 TensorCore GPU。 這些新系統為運行NVIDIA AI 平臺軟件層 NVIDIA AI Enterprise提供理想的優化加速功能。
此類服務器內置的液冷系統也適用于其他眾多GPU 服務器。 此外,Supermicro 發布了一款液冷式 AI 開發系統 (塔式或機架式配置皆可),內含兩個 CPU 和四個NVIDIA A100 Tensor Core GPU,適合辦公室和家庭辦公環境,并能部署在部門和企業集群中。
Supermicro系統支持新的 NVIDIA L4 GPU,與前幾代產品相比,加速和能效均提升數倍。 此系統同樣適用于企業、云和邊緣的 AI 推理、視頻流、虛擬工作站和圖形應用程序。 L4 采用NVIDIA的AI平臺和全堆疊方法,經過優化調整,適合進行各種 AI 應用程序的大規模推理,包括推薦、語音型 AI 虛擬人物助理、聊天機器人、視覺搜索和客服中心自動化等,能提供出色的個性化體驗。 L4是適用于主流服務器的高效NVIDIA加速器,擁有高達4倍的AI性能、更高的能源使用效率,還有3倍以上的視頻流容量與效率,因此能支持 AV1 編碼/解碼。 L4 GPU擁有多樣化的推理和可視化功能,加上輕巧、節能、單插槽、薄型、72W的低功耗規格,是包括邊緣位置在內全局部署的理想選擇。
NVIDIA 加速計算產品主管Dave Salvator 表示:“Supermicro 服務器配備新的 NVIDIA L4 Tensor Core GPU,擁有無與倫比的強大性能,讓客戶能高效且可持續地加快工作負載速度。 NVIDIA L4經過優化,適合用于主流部署,加上外型輕薄,可在72W的低功耗范圍內作業,將邊緣AI性能和效率提升至全新境界。”
Supermicro最新的PCIe加速解決方案支持打造3D世界、數字孿生、3D模擬模型和工業元宇宙。 除了支持前幾代NVIDIA OVX?系統,Supermicro也提供OVX 3.0 配置,配備四個NVIDIA L40 GPU、兩個NVIDIA ConnectX-7? SmartNIC、一個NVIDIA BlueField-3? DPU及新的NVIDIA Omniverse Enterprise?。
更多精彩內容歡迎點擊==>>電子技術應用-AET<<