Meta攜手博通打造自研AI算力體系
Meta在AI算力布局上採多軌策略,一方面依賴外部GPU與雲端資源,另一方面也與博通合作投入自研MTIA晶片,於不同AI工作負載中選擇最適合的加速器,以在效能與總持有成本之間取得最佳平衡。
根據雙方所揭露的規畫,此次合作涵蓋了晶片開發、系統架構與大規模部署等層面。其中,雙方將共同開發多個世代的MTIA晶片,包括推理與生成式AI等工作負載,並導入先進製程(如2奈米),以提升效能與能效比。除晶片外,合作亦延伸至先進封裝與高速網路,透過博通的乙太網與XPU平臺,建構可支援大規模運算叢集的低延遲、高頻寬架構。
整體系統將以GW等級部署為目標,從初期超過1GW起步,逐步擴展至多GW規模。該合作預計延續至2029年,目標為支撐Meta在WhatsApp、Instagram與Threads等平臺上的生成式AI與推薦系統運作。
博通解釋,雙方的合作將建立在該公司的XPU(客製化加速器)平臺之上,協助Meta進行多世代MTIA晶片的協同設計,並整合晶片邏輯、記憶體與高速I/O,以支援不同世代的AI運算需求。博通也將提供乙太網路、交換器、光通訊與高速互連等技術,用於建構可支援大規模AI運算叢集的網路架構,並確保在高負載情境下仍能維持低延遲與高頻寬的資料傳輸能力。
博通為AI基礎設施關鍵供應商,提供客製化晶片與高速網路技術,長期參與Google自研AI晶片TPU的開發,亦為OpenAI與Anthropic的合作夥伴。這一次進一步深化與Meta合作,原任Meta董事的博通執行長Hock Tan亦將轉任顧問,協助規畫客製化晶片發展藍圖。
Comments (0)