HBM3E記憶體成AI加速晶片標配,NVIDIA為Hopper H200下大單搶購

HBM3E記憶體成AI加速晶片標配,NVIDIA為Hopper H200下大單搶購

NVIDIA將用下一代 Hopper H200 和 Blackwell B100 GPU 助力 2024 年的人工智慧競賽,為確保 HBM3E 記憶體供應,公司已下達價值數十億美元的訂單。韓國媒體《北韓日報》披露,NVIDIA已向 SK hynix 和美光等公司訂購了大量 HBM3E 記憶體,為其面向人工智慧領域的下一代產品做準備。

在即將要到來的AI PC時代,記憶體頻寬成為越來越重要的關鍵,同樣在AI伺服器這邊也是一樣。韓國媒體稱,NVIDIA已為 HBM3E 記憶體預付了約 7000 億至 1 兆韓元的費用,這一數字不一,但考慮到業界的巨大需求,實際金額大約將接近兆韓元大關。僅預付款就約為 7.75 億美元,實際數字可能超過 10 億美元。這種大舉砸錢的做法限制了其他公司的訂貨量,甚至使它們無法獲得這些資源。

據業內人士12月 26 日透露,據瞭解,SK 海力士和美光分別從NVIDIA收到了 7000 億到 1 兆韓元的預付款,用於供應尖端記憶體產品。

NVIDIA 的大筆預付款導致了正在努力擴大 HBM 產能的記憶體半導體公司的投資行動,特別是最大的供應商 SK Hynix。據悉,該公司正計畫將從NVIDIA獲得的預付款集中投資於擴大 TSV 裝置,而 TSV 裝置阻礙了 HBM 產能的提高。去年第三季度,建立新 TSV 生產線的相關工作順利開展就是明證。同樣,美光公司在 TSV 設施方面的投資也有望得到推動。

與此同時,據悉三星電子最近還與NVIDIA完成了 HBM3 和 HBM3E 產品適用性測試,並簽署了供應合同。

HBM3E記憶體成AI加速晶片標配,NVIDIA為Hopper H200下大單搶購

人工智慧產業發展迅速,英特爾和 AMD 等公司都在加緊研發,以追趕NVIDIA在該領域的發展,因此綠隊必須採取「先發制人」的措施,以保持其主導地位。

NVIDIA計畫在下一代 Blackwell AI GPU 中首次採用 HBM3e,據傳最終產品將於 2024 年第二季度推出,在性能方面,透過採用 chiplet 設計,它將在每瓦性能方面帶來決定性的提升。此外,NVIDIA的Hopper H200 GPU還將配備世界上最快的HBM3E記憶體,因此該解決方案對於NVIDIA在人工智慧和高性能計算市場取得成功意義重大。

NVIDIA對資料中心領域的創收抱有很大期望,因此他們顯然要比別人領先一步。NVIDIA計畫到 2027 年將人工智慧驅動的銷售收入提升到 3000 億美元,因此確保向客戶穩定供應人工智慧 GPU 是他們的首要目標。另一個有趣的事實是,收購 HBM3E 將為 HBM 行業帶來巨大的推動力,尤其是在擴建設施方面,因為訂單積壓一直是 SK hynix 和美光等公司面臨的一個大問題,因此預先測量的供應意味著 HBM 的交付將變得更加容易。

NVIDIA目前處於主導地位,而且看起來還不會放棄自己的寶座,該公司在其 CUDA 平台上取得的進步以及其硬體部門已經徹底改變了市場現狀,我們拭目以待未來的發展。

 

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則