FB 建議貼文

選取貼文複製成功(包含文章連結)!

輝達次世代「Vera Rubin」AI 系統棄用美光 HBM4?傳 SK 海力士與三星瓜分訂單

輝達次世代「Vera Rubin」AI 系統棄用美光 HBM4?傳 SK 海力士與三星瓜分訂單

ADVERTISEMENT

輝達(NVIDIA)下一代代號為「Vera Rubin」的 AI 系統,預計將在今年夏末正式出貨。首批產品將以 VR200 NVL72 機櫃級解決方案的形式登場,專門鎖定新一代大型語言模型的訓練與推論需求。不過在關鍵的 HBM4 高頻寬記憶體供應商名單上,傳出輝達最終只選定 SK 海力士與三星,美光(Micron)則遺憾出局。

根據產業鏈研究機構 SemiAnalysis 釋出的報告顯示,在 VR200 NVL72 系統的 HBM4 訂單分配中,SK 海力士預計將吃下約 70% 的份額,剩下的 30% 則由三星拿下,而美光目前在 HBM4 方面尚未獲得任何供貨承諾。這也意味著,在高階 AI 伺服器記憶體市場上,SK 海力士與三星將繼續維持雙寡頭地位,主導輝達的旗艦平台供應鏈。

雖然痛失 HBM4 大單,但美光在「Vera Rubin」平台中並非完全缺席。報導指出,美光將負責為「Vera」CPU 提供 LPDDR5X 記憶體,單顆 CPU 最高可搭配 1.5 TB 容量,藉此彌補 HBM4 訂單落空的損失。隨著輝達有意將 Vera CPU 作為獨立產品,正面對決 Intel Xeon 與 AMD EPYC 伺服器處理器,採用 SOCAMM2 封裝技術的 LPDDR5X 記憶體需求也將隨之放量,美光很有可能成為這類記憶體的主要、甚至是獨家供應商。

從技術演進來看,VR200 NVL72 系統的頻寬規格在過去一年內經歷了顯著提升。輝達最初在 2025 年 3 月設定的目標頻寬為 13 TB/s,同年 9 月上調至 20.5 TB/s。而在今年 CES 2026 展會上,輝達更進一步確認實際頻寬已達到 22 TB/s,較最初目標提升了近 70%。這種跳躍式的升級,主要來自輝達對記憶體規格的激進要求,也迫使供應商在頻率、堆疊技術與訊號完整性上必須不斷突破。

業界普遍解讀,美光這次未能擠進 HBM4 供應名單,主因可能是產品尚未完全達到輝達最新一輪系統升級所需的極致性能與可靠性門檻。不過,憑藉在 LPDDR5X 與 SOCAMM2 封裝技術上的佈局,美光仍是「Vera Rubin」生態系的重要一員。對輝達來說,將高頻寬記憶體(HBM)與低功耗大容量記憶體(LPDDR5X)交由不同廠商供應,既能分散供應鏈風險,也能加劇上游廠商在 AI 伺服器市場的競爭態勢。

 

 

NetEase
作者

網易科技,有態度的科技門戶!關注微信公眾號(tech_163),看有態度的深度內容。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則