NVIDIA發表新版MLPerf 3.0測試成績,加入大型語言模型與推薦系統基準測試

NVIDIA發表新版MLPerf 3.0測試成績,加入大型語言模型與推薦系統基準測試

ADVERTISEMENT

NVIDIA公開透過H100 GPU執行MLPerf 3.0測試的新成績,也在新加入的大型語言模型與推薦系統項目拿下好成績。

新項目領先對手3.6倍

NVIDIA在最新發布的MLPerf訓練基準測試中,透過H100 GPU在所有8組測試項目中打破記錄,此外也說明與雲端服務供應商CoreWeave與新創公司Inflection AI共同開發,並由CoreWeave負責營運的3,584個H100 GPU叢集在不到11分鐘的時間內完成了大規模的GPT-3訓練基準測試。

NVIDIA表示,這次提交的成績包括使用數百個到數千個H100 GPU,展現出整體技術堆疊的最佳化成果,並在嚴苛的LLM測試中實現了近線性的效能擴展。此外CoreWeave從雲端提供的性能與NVIDIA在本地資料中心運行的AI超級電腦提供相近的效性能表現,證明了CoreWeave所使用的NVIDIA Quantum-2 InfiniBand網路具備低延遲網路性能。

MLPerf 3.0測試成績加入大型語言模型與推薦系統基準測試。

新加入的大型語言模型為具有1,750億組參數的GPT-3模型,推薦系統則為DLRM-DCNv2模型。

在這次新加入的測試中,NVIDIA提交了所有成績,而競爭對手Intel僅提交由Habana Gaudi 2執行GPT-3訓練的成績,2者之間的效能表現有3.6倍的差距。

在訓練花費的時間方面(越低越好),NVIDIA H100系統大約花11分鐘,而Habana Gaudi 2系統花費312分鐘。

CoreWeave打造由3,584個H100 GPU組成的運算叢集,表現相當亮眼。

CoreWeave聯合創辦人暨技術長Brian Venturo表示: 「由於我們在快速、低延遲 InfiniBand 網路上運行數千個 H100 GPU,我們的客戶如今能大規模地構建最先進的生成式人工智慧和大型語言模型。我們與NVIDIA一同提交的MLPerf成果清楚顯示了我們的客戶享受到的卓越效能。」

國寶大師 李文恩
作者

電腦王特約作者,專門負責硬派內容,從處理器、主機板到開發板、零組件,尖端科技都一手包辦,最近的研究計畫則包括Windows 98復活與AI圖像生成。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則