FB 建議貼文

選取貼文複製成功(包含文章連結)!

【NVIDIA GTC DC 2025】黃仁勳:當 AI 摩爾定律放緩,就用加速運算與外部擴展解決問題

【NVIDIA GTC DC 2025】黃仁勳:當 AI 摩爾定律放緩,就用加速運算與外部擴展解決問題

ADVERTISEMENT

NVIDIA於美國華盛頓特區展開GTC DC大會,執行長黃仁勳除了分享對AI發展的趨勢分析,也介紹多樣技術資訊,並在舞台上展示Vera Rubin Superchip。

透過GPU加速各種運算

黃仁勳在GTC DC大會的開幕演說中,以摩爾定律放緩為引。隨著半導體製程技術漸漸碰觸到物理極限,電晶體的尺寸難以持續縮小,造成單一晶片的效能成長也隨之放緩,為了解決這個問題,黃仁勳表示透過GPU進行加速運算就是個明確的解方。

延伸閱讀:
【NVIDIA GTC DC 2025】黃仁勳:當 AI 摩爾定律放緩,就用加速運算與外部擴展解決問題
NVIDIA於GTC DC 2025大會(下):Vera Rubin Superchip登場,打造超級資料中心數位孿生與物理AI(工作中)
Hot Chips 2025:NVIDIA發表Spectrum-XGS Ethernet,實現Scale-Across分散式運算
NVIDIA於AI Infra Summit 2025發表Rubin CPX GPU,透過分離運算提升6倍AI推論效能
NVIDIA於GTC 2023春季展發表多樣AI技術,帶來更多生成式AI還能用AI加速晶片設計與生產

黃仁勳表示NVIDIA提供多款以CUDA運算架構為基礎的加速運算API(應用程式介面),並以與Nokia合作的ARC(Aerial RAN Computer,無線電接入網天線電腦)為例,透過AI協助6G網路基礎系統強化無線頻譜、束波成型的管理,以提升通訊品質。

另一方面NVIDIA也發表NVQLink連接量子電腦的量子處理器(QPU),透過繪圖處理器(GPU)強大的平行運算能力為量子位元進行即時錯誤校正。

隨著半導體製程技術漸漸碰觸到物理極限造成效能成長放緩,黃仁勳表示能夠透過GPU加速運算解決問題。

NVIDIA提供多款以CUDA運算架構為基礎的加速運算API。

NVIDIA發表與Nokia合作的ARC,透過AI協助6G網路基礎系統強化無線頻譜、束波成型的管理,以提升通訊品質。

NVQLink是款能夠連接量子電腦的量子處理器(QPU)的互連技術。

如此一來能夠透過GPU強大的平行運算能力為量子位元進行即時錯誤校正。

目前已經有多間合作夥伴與NVIDIA在量子運算領域上展開合作。

透過Scale-Across彌補摩爾定律放緩

黃仁勳也重提AI運算的3個擴展法則,其中預訓練(Pre-Training)為透過大量資料進行AI基礎模型的訓練,而後訓練(Post-Training)則是針對使用需求,輸入特定專業領域的資料對模型進行微調,而推論中思考(Test-Time Training)則指所謂的長思考或是推理式AI,在AI推論運算的過程中,透過思維鏈(Chain of Thoght)的方式讓AI系統反覆進行思考推論,以提高答案的精準度。

另一方面,黃仁勳也分析了AI生態系統的循環趨勢。當企業透過AI服務營利之後,將利潤投入擴建AI基礎設施,如此一來就能提高服務品質以及同時上線的使用者人數,以賺取更多利潤。

至於另一個解決摩爾定律放緩的方式,就是透過外部擴展解決問題。傳統上擴產電腦效能的方式有Scale-Up與Scale-Out,前者可以理解為更換效能更強的運算單元,以提高單一伺服器的效能,後者則是串聯多台伺服器,提高整體效能輸出。

以NVIDIA的產品為例,Grace Blackwell NVL72機櫃內整合72組Blackwell GPU,彼此透過NVLink互聯技術整合為單一運算叢集,對軟體與應用程式而言它就像是1顆效能優異的超大型GPU,發揮類似於Scale-Up的效果。而各機櫃還可以透過InfiniBand或Ethernet(乙太網路)等方式進行Scale-Out擴展。

黃仁勳則再次重申先前在Hot Chips 2025大會提到的Scale-Across分散式運算概念。透過超低延遲、高頻寬的資料交換技術,串聯位於不同地理位置的資料中心,將多座獨立的資料中心整合為單一超級AI工廠,以滿足超大量體(Giga-Scale)AI運算需求。

黃仁勳表示AI的一切基礎是能源,並透過GPU以及AI資料中心的基礎設施,搭配AI模型與應用程式提供多種功能與服務。

AI運算的3個擴展法則為預訓練、後訓練、推論中思考等環節,而生態系統的「永動機」循環則為透過AI服務獲取營利,然後將利潤投入擴建AI基礎設施,再提供更優質的服務。

Scale-Across概念為透過網路串聯多個位於不同地理位置的資料中心的運算節點,進一步提升整體運算效能。。

Grace Blackwell NVL72是將72組GPU透過NVLink互聯技術整合為單一大型GPU。黃仁勳手中的「矽盾」為具像化的舞台道具。

NVLink的強大之處在於可以讓多顆GPU整合為單一運算節點,簡化軟體開發流程,並提高整體運作效率。

黃仁勳也在演說中提到Vera Rubin Superchip與相關產品,並介紹了超級資料中新數位孿生與物理AI等技術進展,筆者將在下篇文章中繼續說明。讀者可以參考文首的延伸閱讀連結。

國寶大師 李文恩
作者

電腦王特約作者,專門負責硬派內容,從處理器、主機板到開發板、零組件,尖端科技都一手包辦,最近的研究計畫則包括Windows 98復活與AI圖像生成。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則