GTC 22春季展開幕演說,NVIDIA發表全新Hopper架構GPU,並更新超過60款API

GTC 22春季展開幕演說,NVIDIA發表全新Hopper架構GPU,並更新超過60款API

ADVERTISEMENT

NVIDIA創辦人兼執行長黃仁勳在GTC 22春季展開幕演說中,發表了次世代採用全新Hopper架構的H100 GPU,並推出、更新眾多軟體與API,為AI運算注入龐大動能。

全新硬體蓄勢待發

在開幕演說中,黃仁勳表示身為加速運算的先驅,NVIDIA將運算堆疊(Computing Stack)分為硬體、系統軟體、平台軟體和應用程式等4個層次,並推出對應的產品。

在最底層的硬體部分,GTC 22最重要的資訊末過於採用全新Hopper架構的H100 GPU,以及它極具彈性的多元組態,H100不但具有較前代A100 GPU更高的運算效能(例如在人工智慧處理方面,H100的FP8資料類型的效能為A100 FP16的6 倍),而且全新的Transformer Engine、DPX指令等軟體層面的功能也能大幅提升執行效率,讓原先需要數週的AI運算工作時間能夠降低至短短幾天,大幅節省企業營運的成本並提升效率。

更多關於Hopper架構與H100 GPU的詳細資訊,請參考《NVIDIA於GTC 2022發表全新Hopper GPU架構,還可與Grace合體變身超級晶片》一文。

NVIDIA也於GTC 22發表了多樣伺服器、網路交換器等硬體產品,其中比較值得關注的重點之一就是專為數位孿生設計的OVX電腦。

傳統資料中心在運作時侵向以最短時間處理資料,而非精確時間,但是對於數位孿生而言,其模擬涉及在同一空間、時間內互動的多套自主系統,因此對應的軟體和電腦需要能夠擴充、低延遲,並支援精確時間,因此有必要建立同步資料中心。

這次發表的第一代NVIDIA OVX Omniverse電腦由8個NVIDIA A40 RTX GPU、3 張 CX6 200 Gbps NIC以及2個Intel Ice Lake中央處理器組成,並搭配NVIDIA Spectrum-3 200 Gbps交換器,能夠連接32台OVX電腦組成OVX SuperPOD。其中最重要的部分為網路與電腦使用精確時間協定 (Precision Timing Protocol) 進行同步,並採用遠端直接記憶體存取(RDMA)盡量減少封包傳輸延遲,以滿足數位孿生應用需求。

▲I am AI展示影片與AI萌娘在GTC 22春季展又經強化,讀者不妨與先前版本比較一下。(完整演說重播請點我

採用Hopper架構的H100 GPU絕對是這場演說的最大亮點。

專為數位孿生設計的第一代NVIDIA OVX Omniverse電腦由8個NVIDIA A40 RTX GPU、3 張 CX6 200 Gbps NIC以及2個Intel Ice Lake中央處理器組成。

OVX SuperPOD透過NVIDIA Spectrum-3 200 Gbps交換器串接32台OVX電腦組成。

軟體方面也有提升

黃仁勳也在演說中提到,除了4大層面之外,百萬倍運算加速、Transformer Engine加速人工智慧發展、資料中心成為人工智慧工廠、對機器人系統的需求大幅上升,以及新一代人工智慧的數位孿生等5大動力,也將成為人工智慧發展的趨勢。

NVIDIA也提出許多如Hyperion 9自駕車平台、DRIVE Map、Omniverse Cloud、Clara Holoscan MGX、Jetson AGX Orin等軟體、硬體、服務等多樣產品,筆者將會於於日後陸續更新精選報導。

百萬倍運算加速、Transformer Engine、人工智慧工廠、機器人系統、數位孿生等5大動力將成為人工智慧發展的趨勢。

目前GTC22正在進行中,錯過開幕演說的讀者可以在此觀賞完整重播,更多關於GTC22的報導請點此連結

國寶大師 李文恩
作者

電腦王特約作者,專門負責硬派內容,從處理器、主機板到開發板、零組件,尖端科技都一手包辦,最近的研究計畫則包括Windows 98復活與AI圖像生成。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則