《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業界動態 > Supermicro推出機柜級即插即用液冷AI SuperCluster

Supermicro推出機柜級即插即用液冷AI SuperCluster

適配NVIDIA Blackwell和NVIDIA HGX H100/H200的
2024-06-12
來源:Supermicro
關鍵詞: Supermicro AI 數據中心

  生成式AI SuperCluster與NVIDIA AI Enterprise、NIM微服務整合,并通過大規模可擴展的計算單元,提供立即性投資報酬率效益和更低的AI運行成本,進而簡化AI以利快速部署

  【2024 年 6 月 7 日,加州圣何塞及臺北訊】Supermicro, Inc.(NASDAQ:SMCI)作為AI、云端、儲存和 5G/邊緣領域的全方位IT解決方案制造商,推出可立即部署式液冷型AI數據中心。此數據中心專為云原生解決方案而設計,通過SuperCluster加速各界企業對生成式AI的運用,并針對NVIDIA AI Enterprise 軟件平臺優化,適用于生成式AI的開發與部署。通過Supermicro的4U液冷技術,NVIDIA近期推出的Blackwell GPU 能在單一GPU上充分發揮20 PetaFLOPS的AI性能,且與較早的GPU相比,能提供4倍的AI訓練性能與30倍的推理性能,并節省額外成本。配合此率先上市的策略,Supermicro近期推出基于NVIDIA Blackwell架構的完善產品系列,支持新型NVIDIA HGX? B100、B200和GB200 Grace Blackwell Superchip 。

  Supermicro總裁兼首席執行官梁見后表示:“Supermicro 在打造與部署具有機柜級液冷技術的AI解決方案方面持續領先業界。數據中心的液冷配置設計可幾近免費,并通過能持續降低用電量的優勢為客戶提供額外價值。我們的解決方案針對NVIDIA AI Enterprise軟件優化,滿足各行各業的客戶需求,并提供世界規模級效率的全球制造產能。因此我們得以縮短交付時間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案的可立即使用型液冷或氣冷計算叢集。從液冷板到CDU乃至冷卻塔,我們的機柜級全方位液冷解決方案最大可以降低數據中心40%的持續用電量。”

  在臺北國際計算機展(COMPUTEX 2024)上,Supermicro展示了即將推出,并針對NVIDIA Blackwell GPU優化的系統,包括基于NVIDIA HGX B200的10U氣冷系統和4U液冷系統。此外,Supermicro也將提供8U氣冷型NVIDIA HGX B100系統、NVIDIA GB200 NVL72機柜(具有72個通過NVIDIA NVLink 交換器 互連的GPU)與新型 NVIDIA MGX?系統(支持NVIDIA H200 NVL PCIe GPU與最新發布的NVIDIA GB200 NVL2架構)。

  NVIDIA創始人兼首席執行官黃仁勛表示:“生成式AI正在推動整個計算堆棧的重置,新的數據中心將會通過GPU進行計算加速,并針對AI優化。Supermicro設計了頂尖的NVIDIA加速計算和網絡解決方案,使價值數兆美元的全球數據中心能夠針對AI時代優化。”

  隨著大語言模型(Large Language Model,LLM)的快速發展以及Meta的Llama-3和Mistral的Mixtral 8x22B等開源模型不斷推出,企業更容易取得并使用當今最先進的AI模型。簡化AI基礎設施并以最具成本效益的方式提供存取能力,對于支持目前的急速AI變革至關重要。Supermicro云原生AI SuperCluster使實時存取的云端便利性和可移植性之間得以連結,并通過NVIDIA AI Enterprise讓任何規模的AI項目從評估測試階段無縫順暢地進行到實際作業階段。這提供了能在任何地方運行并安全管理數據的靈活性,包括自架系統或本地大型數據中心。

  隨著各界企業急速進行生成式AI的實驗性使用,Supermicro與NVIDIA密切合作,確保無縫且靈活地從AI應用的實驗和評估試行推動至作業部署和大規模數據中心AI。此順暢流程是借由NVIDIA AI Enterprise軟件平臺的機柜、叢集級優化而實現,能使從初步探索至可擴展AI落地的過程更流暢無阻。

  托管服務涉及基礎架構的選擇、數據共享和生成式AI策略控管。NVIDIA NIM微服務作為 NVIDIA AI Enterprise的一部分,可在無缺陷情況下提供托管生成式AI和開源部署優勢。其多功能推理運行環境通過微服務,可加速從開源模型到NVIDIA基礎模型等各類型生成式AI的部署。此外,NVIDIA NeMo?可實現通過數據管理、進階自定義和檢索增強生成(Retrieval-Augmented Generation,RAG)的客制模型開發,以實現企業級解決方案。與搭配NVIDIA AI Enterprise的Supermicro SuperCluster整合后,NVIDIA NIM能為可擴展、加速型生成式AI作業的部署提供最快途徑。

  Supermicro目前的生成式AI SuperCluster產品包括:

  ●液冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個H100/H200 GPU,為5個機柜規模的可擴展計算單元(包括 1 個專用網絡機柜)

  ●氣冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個HGX H100/H200 GPU,為9個機柜規模的可擴展計算單元(包括1個專用網絡機柜)

  ●Supermicro NVIDIA MGX GH200 SuperCluster,具有256個GH200 GraceTM Hopper Superchip,為9個機柜規模的可擴展計算單元(包括1個專用網絡機柜)

  Supermicro的SuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務和NVIDIA NeMo平臺,能實現端對端生成式AI客制,并針對NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網速的新型NVIDIA Spectrum-X以太網絡平臺優化,可擴展到具有數萬個GPU的大型計算叢集。

  Supermicro即將推出的SuperCluster產品包括:

  ●Supermicro NVIDIA HGX B200 SuperCluster,液冷型

  ●Supermicro NVIDIA HGX B100/B200 SuperCluster,氣冷型

  ●Supermicro NVIDIA GB200 NVL72 或 NVL36 SuperCluster,液冷型

  Supermicro的SuperCluster解決方案針對LLM訓練、深度學習以及大規模與大批量推理優化。Supermicro的L11和L12驗證測試及現場部署服務可為客戶提供無縫順暢體驗。客戶收到即插即用的可擴充單元后即可在數據中心輕松部署,進而更快取得效益。

20.JPG




更多精彩內容歡迎點擊==>>電子技術應用-AET<<

3952966954c9c6c308355d1d28d750b.jpg

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 久久精品视频6 | 欧美巨大另类极品video | 国产自产自拍 | 免费人成网555www | 欧美乱一级在线观看 | 最近2019中文 | 狠狠色狠狠干 | 亚洲精品一二三四区 | 亚洲欧美日韩在线一区 | 国产福利微拍精品一区二区 | 免费在线亚洲 | 久久综合视频网 | 最近2019年中文字幕大全视频 | 日韩精品成人免费观看 | 国产精品亚洲欧美 | 天天做天天爱夜夜大爽完整 | www.深夜福利 | 精品手机在线 | 欧美在线网 | h片在线播放免费高清 | 一级毛片免费 | 青草草视频在线观看 | 一本大道香一蕉久在线影院 | 日韩久久网 | 国产成人深夜福利短视频99 | 亚洲视频99 | 日本天堂网在线 | 国产高清美女一级a毛片久久w | 日韩精品一区二区三区中文在线 | 一级做a爰全过程免费视频 一级做a爰片鸭王 | 最新啪啪 | 一级欧美一级日韩 | 精品成人免费视频 | 欧美成人eee在线 | 很黄的网站在线观看 | 欧美一区二区三区在线 | 国产一区二区精品久久91 | 国产成人a在一区线观看高清 | 亚洲国产精久久小蝌蚪 | 看真人视频一一级毛片 | 亚欧免费视频 |