3月12日消息,據路透社引述2名知情人士的話報道稱,Meta正在測試第一顆自主研發的用于訓練AI系統的RISC-V構架芯片,這款定制化設計的芯片將符合Meta自身的運算需求,并降低對于英偉達(NVIDIA)等AI芯片大廠的依賴。
據了解,Meta這款自研AI芯片的測試,是在芯片完成設計定案(即所謂tape-out)后展開的。一次tape-out成本可達數千萬美元,大約需要3~6個月完成,且無法保證測試必定成功。萬一失敗,Meta需要找出芯片設計問題并重新tape-out步驟。
Meta 之前曾在一次小規模測試部署中,推出一款自研的AI推理芯片,但由于表現不佳而取消,轉而在2022年下單采購數十億美元的英偉達GPU。自此之后,Meta 成為NVIDIA一大客戶,累積大量GPU用于訓練模型,包括用于內容推薦與廣告系統、以及大型語言模型Llama,同時也為每天使用Meta旗下社交媒體平臺體超過30億用戶執行推理工作。但是這也使得Meta在采購英偉達GPU上耗費了大量的資金。因此,Meta還是希望通過自研AI芯片來降低成本。
一名知情人士表示,不同于Meta此前推出的MTIA系列AI推理芯片,Meta 最新曝光的這款自研的AI芯片,是專門為AI訓練任務所設計,預期還將整合HBM3或HBM3E內存。由于是定制化設計,因此這款芯片的尺寸、功耗及性能可以實現最優化,有望比用于同樣AI工作負載的GPU更高效。預計其每瓦性能表現可以與英偉達最新的GPU(如H200、B200,甚至是下一代B300等)競爭。
另一知情人士則稱,Meta這款自研的AI芯片將交由臺積電代工。
對此傳聞,Meta與臺積電均拒絕發表任何評論。
值得注意的是,自研芯片是Meta長期計劃的一部分,目的是降低AI基礎設施所帶來的成本。實際上,Meta 預估2025年總支出介于1,140~1,190億美元之間,其中資本支出上看650億美元,主要用于AI基礎設施建設,其中就包括自研AI芯片。
2023年,Meta就曾推出了首款自研AI芯片MTIA(MTIA v1),采用的是臺積電7nm制程。而在2024年推出的第二代MTIA同樣是交由臺積電代工,不過制程工藝升級到了5nm,配備更多處理核心,片內存儲(on-chip memory)也翻倍到了256MB(MTIA v1 僅有128MB),off-chip LPDDR5也提高到了128GB(MTIA v1 為 64GB),主頻也從800MHz上升到了1.35GHz,當然功耗也增加到了90W(MTIA v1 為 25W)。需要指出的是,這兩代MTIA芯片都主要用于推理應用。
△MTIA v2
Meta當時曾透露,第二代MTIA已投入16個數據中心區域使用,主要用于決定Facebook與Instagram動態消息顯示的內容推薦系統。Meta也承認,第二代MTIA不會取代目前用于訓練模型的GPU,而是補充運算資源。
Meta首席產品官Chris Cox在上周舉行的摩根士丹利科技、媒體和電信大會表示,“我們正在研究如何訓練推薦系統,最終考慮如何對生成式AI進行訓練和推理”。他形容Meta的芯片開發任務目前處于“從走路到爬行再到奔跑”的階段,內部認為用于內容推薦系統的第一代推理芯片是一大成功。Meta希望2026年開始在AI訓練階段使用自研芯片。
顯然,這也意味著此次曝光的Meta自研的AI訓練芯片如果獲得成功的話,可能將會在2026年進入大規模部署。