Skip to main content

台灣大哥大與GMI Cloud合作在桃園打造25MW的AI算力中心,PUE小於1.2

Posted in 業界新聞
新聞

GMI Cloud為Nvidia 的NCP雲端服務夥伴,為少數獲得Nvidia Reference Platform認證的雲端供應商之一。去年11月GMI Cloud大動作宣布將在臺灣投入約160億元,以7,000顆GB300打造大型AI Factory, 當時預告於今年第一季完成。

台灣大哥大周三對外說明今年營運策略,其中在企業服務方面,揭示在桃園建置25MW的AI算力中心,該算力中心將會採用符合UPTime Tier III規格設計,採用N+1備援架構,其PUE低於1.2,可支援單櫃散熱達135kW+,並採用模組化設計,以及最新的液冷技術。

根據台灣大哥大先前的資料,與GMI Cloud的合作,涵蓋主流的H100、H200、GB200,預計年中再上線的最高規格的Blackwell GB300 NVL72超級晶片。

台灣大哥大企業服務事業商務長朱曉幸曾指出,隨著企業專屬LLM落地部署、數位孿生、高階邊緣運算的需求爆發,加上高敏感產業對資料主權與低延遲的需求,台灣大哥大AIDC將鎖定政府、金融、製造、醫療四大領域,預期AIDC營收將有倍數成長。

由於資料中心用電量大,台電早在2023年限制桃園以北地區的資料中心停止申請5MW以上的用電申請。台灣大哥大在桃園的資料中心則在限制之前通過取得25MW用電容量,此次與GMI Cloud的合作改建為新的AI算力中心,得以突破限制使用較大的電容量。台灣大哥大預告該算力中心目前預售期已100%售罄。

在AI資料中心受限於用電限制移往中南部地區之下,這座AI Factory也是國內少數在北部建置的大型AI算力中心,資料中心位於桃園地區,在交通上可配合多設置於北部的企業總部,人員、設備交通往返比較方便。

GMI身為Nvidia的雲端合作夥伴,具有優先配貨權,未來取得的GB300,其效能為GB200的1.5倍,為H200的7.5倍。

去年在對外活動中,GMI Cloud預告在臺灣建立的AI Factory,將會採用7,000顆Blackwell GB300,搭配NVLink高速連接,相當於一秒可處理200萬token的超級電腦。

GMI Cloud執行長葉威廷當時比喻,7,000顆GB300的算力相當於10萬顆H100,Llama 3花費6個月的時間訓練完成,這座AI Factory只要2周就能完成。

該資料中心將鎖定大規模推論、模型訓練及AI應用開發,此外,也可供需要複雜運算的科學研究使用,像是預測未來災害的發展,例如預測模擬颱風的動向。

Preview image for GMI Cloud將在臺以7千顆Nvidia GPU建置AI Factory,明年第一季啟用

GMI Cloud將在臺以7千顆Nvidia GPU建置AI Factory,明年第一季啟用

這是GMI Cloud自2023年成立以來全球第9個資料中心,也是該公司首個AI Factory,這座AI Factory將與台灣大哥大合作,座落於桃園的機房,將採用Blackwell GB300,提供模型訓練開發到服務,提供企業到個人的AI應用。

www.ithome.com.tw
View original 0 Likes 0 Boosts

Comments (0)

No comments yet.