FB 建議貼文

選取貼文複製成功(包含文章連結)!

AMD 聯手 Intel 釋出 ACE 白皮書:AI 運算密度飆升 16 倍,硬剛專用加速器方案

AMD 聯手 Intel 釋出 ACE 白皮書:AI 運算密度飆升 16 倍,硬剛專用加速器方案

面對 ARM 架構與各種 AI 專用加速器的步步進逼,x86 陣營終於拿出了反擊的殺手鐧。AMD 與 Intel 近日聯合發表了「ACE(x86 標準矩陣加速架構)」指令集白皮書,旨在讓傳統 CPU 在執行大語言模型與神經網絡運算時,效能能實現數量級的躍升。這不僅是一場技術革新,更是兩大宿敵為了守護 x86 生態系完整性,而發起的罕見戰略結盟。

ACE 核心機制:衝破 AVX10 的運算瓶頸

ACE 的核心目標非常直接:讓 x86 晶片的矩陣乘法效能實現進化。

矩陣乘法是當前 AI 運算的基礎單元,現有的 AVX10 指令集雖能處理,但在計算密度與擴展性上已面臨瓶頸。ACE 透過引入基於「外積運算」的矩陣加速機制,在相同的向量輸入前提下,計算密度可達現行 AVX10 的 16 倍。此外,ACE 原生支援 INT8、BF16 以及最新的 OCP FP8 等主流 AI 資料格式,確保了與主流模型的無縫銜接。

AMD 聯手 Intel 釋出 ACE 白皮書:AI 運算密度飆升 16 倍,硬剛專用加速器方案

這種設計邏輯反映了 x86 陣營的「低摩擦」策略。不同於將 AI 任務丟給專用的 NPU 或 GPU,ACE 讓處理器本身就能具備高效能的矩陣處理能力。

對於開發者而言,這意味著在進行 AI 推論時,無需針對特定硬體重新編寫大量程式碼,只需透過標準指令集即可調用算力。這種「通用性」是 x86 陣營最強大的護城河,也是其對抗 ARM 碎片化生態的最大優勢。

為了確保 ACE 指令集能快速落地,AMD 與 Intel 已啟動了規模龐大的軟體適配計畫。

目前包括 NumPy、SciPy 等科學計算庫,以及 PyTorch 和 TensorFlow 等主流機器學習框架都已開始集成工作。這項舉措的核心意義在於,未來不論是用戶手上的筆記型電腦,還是數據中心裡的超級電腦,只要搭載支援 ACE 的處理器,就能在不更換軟體架構的前提下,直接獲得巨大的 AI 加速紅利。

這與目前許多廠商力推的「專用 AI 加速器」方案形成了鮮明對比。專用加速器雖然在特定任務上表現優異,但往往伴隨著高昂的代碼遷移與硬體適配成本。AMD 與 Intel 強調,ACE 的設計理念是讓 AI 計算成為 CPU 的「原生技能」,而非「外掛組件」。當開發者發現只需微調代碼就能獲得 16 倍的效能提升時,x86 生態的黏性將會進一步增強,進而鞏固其在運算市場的統治地位。

x86 巨頭求生與「通用運算」復興

AMD 與 Intel 的罕見結盟,反映出傳統晶片巨頭在 AI 浪潮下的強烈危機感。在 Nvidia 與 ARM 紛紛建立專屬壁壘的今天,x86 陣營意識到,單打獨鬥已無法維持競爭優勢。

ACE 白皮書的釋出,實際上是在向開發者傳遞一個明確訊號:x86 架構依然具備自我進化的生命力。這種透過指令集革新來彌補硬體架構天然缺陷的作法,是典型的「以軟助硬」策略,旨在將 AI 算力的門檻降至最低。

長遠來看,ACE 的成功與否將決定「通用運算」在 AI 時代的定位。如果 ACE 能在筆電與伺服器端證明其效能優勢,我們可能會看到 AI 計算從「邊緣外掛」回歸到「中央核心」。

這不僅能減少系統複雜度,更能大幅優化能效比。兩大巨頭的這場合作,本質上是在與時間賽跑,試圖在 AI 專用晶片完全統治市場之前,定義出一套屬於 x86 時代的 AI 運算標準。這場 ACE 之戰,才剛剛開始。

 

 

科客網
作者

一個富有活力的科技資訊網站。設置資訊、酷玩、視頻、評測等頻道,網羅全球最新鮮的科技資訊,探討科技的現在與未來。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則