ADVERTISEMENT
運算智慧財產公司Arm首度推出自有品牌量產晶片產品,針對資料中心的代理式AI工作負載推出Arm AGI CPU處理器,提供兼顧效能、效率、可擴充性的解決方案。
代理式AI推升CPU運算需求
Arm執行長Rene Haas於Arm Everywhere 2026大會的演說中以Arm晶片可觀的出貨量作為引言,採用Arm架構晶片的總出貨量已經超過3500億顆,達到有史以來地球上曾經存在的人類總數的3倍(1170億人),也是7倍於所有非Arm處理器的總和,每個家庭平均具有160顆Arm晶片,可見得其普及率相當高。
延伸閱讀:
Arm Unlocked Taipei 2025:從雲端到邊緣的AI運算平台策略
Arm Unlocked Taipei 2025:模組化小晶片架構加速客製化設計,滿足變化快速的市場需求
Arm策略暨生態系執行副總裁Drew Henry分享趨勢觀點,改善運算平台延續「經濟摩爾定律」
Arm更新Neoverse產品路線圖,推出Neoverse CSS N3、V3等全新第3代Neoverse IP
Rene Haas提到在代理式AI(Agentic AI)發展趨勢的推動下,AI代理(AI Agent)會在接收並分析使用者的指令之後,根據指令自主運作甚至是操作多種應用程式,因此過程除了會因為AI運算需求而增加GPU(繪圖處理器)或AI加速器的運算量之外,也會推高CPU(處理器)的運算需求。
舉例來說,使用者可以跟AI代理說「幫我規劃一個 3 天的東京自由行行程,預算中等,想吃好吃的、也想逛美術館」,AI代理可能會透過瀏覽器查詢餐廳評價、美術館開放時間,並透過App查詢天氣以及地鐵路線並計算交通時間
這個過程可能會使用數種應用程式,而通常每個程式都會占用1個處理器核心,若資料中心的GPU、AI加速器資源充足,但CPU資源較少的話,就會發生效能瓶頸,讓CPU限制整個工作流程完成的速度,進而影響資料中心的收益。上週NVIDIA執行長黃仁勳在GTC 2026大會宣布推出全新Vera CPU機櫃,也是為了解決這個問題。










單一機櫃45,696組核心
根據Arm的預測,資料中心每GW功耗規模的CPU核心需求將從3,000萬組成長至1.2億組,預期成長幅度將超過4倍,代表必須在相同的功耗限制下大幅提升運算能力,Arm架構處理器具有優異效能、高電力效率等優勢,同時其精簡的架構設計可以避免x86架構處理器的虛耗與複雜性,是解決這個問題的理想方案。
Arm雲端AI事業部執行副總裁Mohamed Awad也在Arm Everywhere 2026大會說明Arm AGI CPU的規格,它採用TSMC(台積電)3nm節點製程,每顆CPU由2組小晶片(Chiplet)構成,最多具有136組時脈達3.7 GHz的Arm Neoverse V3架構核心,每個核心具有專屬2 MB L2快取記憶體,TDP(熱設計功耗)為300 W,但不支援多執行緒(SMT)技術,以利在持續高負載下提供可預測的效能,並避免效能降頻(Throttling)與閒置執行緒問題。
Arm AGI CPU支援DDR5-8800記憶體,並提供96條PCIe Gen 6通道,支援CXL 3.0池化記憶體擴充,以及AMBA CHI擴充連接。
在使用1U高度氣冷散熱機架的情況,每組機架可容納2顆CPU,每個機櫃最高可容納8,160組核心,而採用液冷散熱方案的機櫃則可提供高達45,696組核心。













捨棄SMT以追求更好效率
Rene Haas與Mohamed Awad在發表會後與媒體進行訪談,其中Mohamed Awad特別提到不支援多執行緒的因素,在於多執行緒適合應用於低頻寬、高運算負載的使用情境,恰好與代理式AI的特性背道而馳,因此每個核心僅具有1組執行緒,避免造成瓜分I/O頻寬的情況,並追求更高的持續效能輸出、持續執行緒數與電力效率,同時也有助於節省晶片面積。
Arm也於會場展示Arm AGI CPU對應的機架與機櫃,筆者將照片整理於下。





Arm表示Arm AGI CPU能夠提高工作負載密度、改善AI加速器的資源利用率,以及在資料中心的功耗限制下,提供更多可用的運算資源與核心數,這些優勢將在AI基礎建設以及代理式AI的發展下相當重要。相較於x86架構處理器,Arm AGI CPU能在每機櫃提供超過2倍的效能輸出,並可在GW規模的AI資料中心節省高達100億美元的資本支出(CAPEX)。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!