12月4消息,亞馬遜網絡服務(AWS)于當地時間周二在“re:Invent”大會上發布了其下一代人工智能加速器 Trainium3,該加速器將于2025年年底上市,性能將比上一代產品高 4 倍。
不過,在 re:Invent 大會上,AWS官方卻并未公布關于該芯片的具體細節,但此前AWS 安納普爾納實驗室團隊的產品與客戶工程總監 Gadi Hutt 在接受The Register采訪時表示,預計 Trainium3 將成為第一款基于 3nm 工藝節點構建的專用機器學習加速器,與 Trainium2 相比,其效率將提高 40%。
在性能方面,亞馬遜對Trainium3 的實際性能數據也含糊其辭:Trainium3 基于完整的“UltraServer”配置可以帶來 4 倍性能提升,而該配置仍在開發中。
資料顯示,Trainium2 UltraServer 總共配備了 64 個加速器,可提供 83.2 petaFLOPS 的密集 FP8 性能。因此,理論上,Trainium3 UltraServer 應該可以提供 332.8 petaFLOPS 的計算能力,盡管目前尚不清楚其精度是多少。
考慮到稀疏性,假設 Trainium3 也支持與其處理器相同的 4 倍乘數,亞馬遜的下一代 UltraServer 可能會提供超過 1.3 exaFLOPS 的 AI 計算能力。
這些性能聲明指的是峰值計算性能(即 FLOPS),而不是一些模糊的 AI 基準。這是一個重要的細節,因為根據 AI 工作負載,性能取決于許多因素,而不僅僅是 FLOPS。例如,內存帶寬的增加可以大大提高大型語言模型 (LLM) 推理性能,之前在 Nvidia 帶寬增強的 H200 芯片上就看到過這種情況。
盡管亞馬遜愿意透露性能和效率指標,但尚未透露該芯片內存負載的詳細信息。
Trainium2 蓄勢待發
在亞馬遜官方公布有關 Trainium3 的更多細節之前,亞馬遜正在將其 Trainium2 計算服務推向大眾市場。
Trainium2 在去年的 re:Invent 大會上亮相,它既是訓練芯片又是推理芯片,具有 1.3 petaFLOPS 的密集 FP8 計算能力和 96 GB 的高帶寬內存,每個內存可提供 2.9 TBps 的帶寬。
作為參考,單個擁有H100擁有略低于 2 petaFLOPS 的密集 FP8 性能、80GB 的 HBM 和 3.35 TBps 的帶寬。
該芯片本身由一對 5nm 計算芯片組成,采用臺積電的晶圓基板上芯片 (CoWoS) 封裝技術與四個 24GB HBM 堆棧集成。
與谷歌的張量處理單元 (TPU) 類似,這些加速器被捆綁到機架級集群中。64 個 Trainium2 部件分布在兩個互連的機架上。
正如我們前面提到的,這種 Trn2 UltraServer 配置能夠產生 83.2 petaFLOPS 的密集 FP8 性能,或者在啟用 4x 稀疏模式的情況下產生 332.8 petaFLOPS。
如果您需要更多的計算能力,亞馬遜還提供配備 16 個加速器和約 20.8 petaFLOPS 密集計算能力的Trainium2 實例。
據亞馬遜稱,這些實例比 EC2 上當前一代基于 GPU 的實例(特別是基于英偉達H200 的 P5e 和 P5en 實例)的性價比高出 30% 到 40%。
對于那些使用芯片訓練模型的人來說,Trainium2 可以擴展到擁有 100,000 個或更多芯片的更大集群。這正是 AWS 和模型構建者 Anthropic 在 Rainier 項目下計劃做的事情,該項目將涉及將“數十萬”個 Trainium2 芯片放入集群中進行 AI 訓練。該超級計算系統將于 2025 年全面啟動,據說能夠產生“用于訓練 [Anthropic] 最新一代 AI 模型的 5 倍 exaFLOPS 數量”。
Trainium2 在實例現已在 AWS 美國東部(俄亥俄州)推出,不久的將來還將在其他地區推出。同時,更大的Trainium2 UltraServer 配置目前已推出預覽版。