根據TrendForce集邦咨詢最新發表的服務器報告指出,近幾年受到新興應用的激勵,加速了人工智能及高效能運算的發展,且伴隨著仰賴機器學習及推論的需求提升,建構出的模型復雜度也隨著需求的精細程度有所增加,因此在計算時須處理的數據量亦隨之增大。在此情境下,龐大的數據處理量受硬件效能局限,導致使用者在設備的建置面臨了效能、容量、延遲度以及成本間的取舍問題,從而刺激HBM(High Bandwidth Memory)及CXL(Compute Express Link)的出現。功能上來說,HBM為新形態存儲器,主要協助更多元、高復雜運算而需要的I/O作輔助,而CXL則為使存儲器資源共享的協定,提供xPU更為便捷的應用。
現行DRAM架構垂直堆棧,HBM突破現有解決方案的頻寬限制
為了不受限于傳統存儲器的頻寬束縛,存儲器原廠開發了HBM,其結構為基本邏輯顆粒上連接數層的DRAM裸晶,而DRAM裸晶之間以硅通孔及微凸塊3D堆棧達到高頻寬設計,層數又以4層及8層為主流。而以現行世代來看,HBM2e為目前最新的量產世代,單層16GB的裸晶堆棧4層或8層,使得單顆容量分別為8GB及16GB,頻寬可達410-460GB/s,而下一代HBM3已進入機構件送樣階段,可望于2022年量產。
根據TrendForce集邦咨詢觀察,2021年HBM位元需求占整體DRAM市場仍未達1%,主要包含兩大原因:首先是消費級應用因成本考量下幾乎未采用HBM,其次是服務器市場中作為AI功能的建置低于1%,即服務器搭載相關AI運算卡的比重仍小于1%,且多數存儲器仍使用GDDR5(x)、GDDR6來支持其算力。
展望未來,雖然HBM仍在發展期,但隨著應用對AI的依賴度增加(包含模型復雜化來優化AI精準度),需要HBM的加入來支援硬件。其中,以與AI最相關的FPGA和ASIC來看,FPGA產品有英特爾(Intel)的Stratix、Agilex-M以及賽靈思(Xilinx)的Versal HBM導入HBM;而ASIC方面,多數數據中心在AI的建置中,逐漸以自研的ASIC芯片作為發展方向,例如谷歌(Google)的TPU、騰訊(Tencent)的邃思、百度(Baidu)的昆侖皆使用HBM。再者,英特爾(Intel)的server CPU Sapphire Rapids亦規劃于2022年底釋出帶HBM的高端版本。TrendForce集邦咨詢認為,HBM有助于突破AI發展中受限的硬件頻寬瓶頸,未來市場上將出現更多相關應用。
高速運算催生的新協定,CXL將更有效整合系統中的運算資源
CXL則是基于PCIe Gen5規格演變的協定,讓CPU及其他加速器(例如GPU、FPGA等之間)建立高速、低延遲的互聯性,使其各自的存儲器模擬成一個共享的空間,允許存儲器資源共享,從而降低系統成本并獲得更高的性能,因此有利于解決AI及HPC的工作負載。
而市場上類似概念的存儲器資源共享協定并非只有CXL提出,英偉達(NVIDIA)的NVLink、超威半導體(AMD)及賽靈思(Xilinx)的Gen-Z,皆凸顯大廠對系統資源整合的重視。然而,TrendForce集邦咨詢認為,CXL能由眾多協定中脫穎而出的主要原因,來自于其協定為英特爾提出,而該公司在CPU市場占有高采用率的優勢,英特爾CPU支援的號召能使得CXL及其相關硬設備商得以自上而下的統合,因此相繼獲得超威半導體、ARM、英偉達、谷歌、微軟、Facebook、阿里巴巴、戴爾等公司的加入,成為目前呼聲最高的存儲器協定。
在允許CPU及其他硬件進行存儲器資源整合下,利于降低各硬件間的通信延遲,也能提高AI及HPC發展需要的計算性能。為此,英特爾將在下一代服務器CPU Sapphire Rapids中支援CXL,而存儲器原廠亦規劃支援CXL的產品方案,其中,三星(Samsung)宣布將推出支援CXL的DDR5模塊,用以擴張服務器存儲器容量,滿足AI運算需要的龐大存儲器需求。未來CXL亦有機會推及至NAND Flash的方案支援,使得DRAM及NAND Flash雙雙受惠。
HBM及CXL交互合作有利于AI發展,實際應用于2023年將更有能見度
TrendForce集邦咨詢認為,CXL導入將隨著未來CPU內建CXL功能而普及化,而未來AI服務器的硬件建置,將能見到更多同時采用HBM及CXL的設計。其中HBM能分別增加CPU及加速器各自的頻寬,加速數據處理速度;CXL則建立彼此間溝通的高速互聯性,兩者交互有助于擴展AI算力從而加速AI發展。
在存儲器資源共享下,模型的設計能擺脫硬件瓶頸,持續往更復雜的架構建設。TrendForce集邦咨詢預估,隨著支援CXL的英特爾CPU Sapphire Rapids導入達一定覆蓋率,以及存儲器原廠陸續量產更高頻寬的HBM3及具備CXL功能的DRAM與SSD,2023年可望于市場上見到更多HBM及CXL合作使用的應用。