NVIDIA公布最新MLPerf成績,加入Stable Diffusion測試,成績依然穩坐第一

NVIDIA公布最新MLPerf成績,加入Stable Diffusion測試,成績依然穩坐第一

ADVERTISEMENT

MLPerf AI效能的測試基準在3.1更新版中加入Stable Diffusion訓練測試,而NVIDIA也在最新公布的結果取得好成績。

沒有最強只有更強

MLPerf是產業用於衡量AI效能的測試基準,包括Amazon、Arm、Baidu、Google、Intel、Meta、Microsoft,以及哈佛大學、史丹佛大學、多倫多大學在內的眾多業者與學術單位皆支持這項標準。

這次發表的最大亮點在於使用由10,752組H100 GPU搭配Quantum-2 InfiniBand網路互連技術的NVIDIA Eos人工智慧超級電腦,它在短短3.9分鐘完成擁有1,750組個參數的GPT-3模型訓練,與NVIDIA在不到6個月前甫推出時僅使用3,584組H100 GPU的10.9分鐘紀錄相比提升約2.8倍。至於其他成績資訊與圖表則整理於下。

NVIDIA公布最新MLPerf成績,加入Stable Diffusion測試,成績依然穩坐第一

▲MLPerf在3.1更新版中加入Stable Diffusion文字對圖像生成模型的訓練測試。

目前NVIDIA已可組成共有10,752組H100 GPU的超大型運算叢集。

NVIDIA Eos人工智慧超級電腦由10,752組H100 GPU,AI算力高達42.6EFLOPS。

NVIDIA再次成為唯一完成所有MLPerf測試的公司,也創下6項新記錄。

在多項AI訓練測試中,H100都展現壓倒性領先。(圖中的~符號代表未提交成績)

受益於新款GPU帶來的Scale-Up與更多GPU組成叢集帶來的Scale-Out效益,讓GPT-3 175B模型的訓練時間度量從年縮短到月,再縮短到日。

運算叢集的H100 GPU數量由3,584組擴充至3倍的10,752組,而效能提升約2.8倍,換算之下Scale-Out的效率高達93%。

由10,752組H100 GPU組成的Microsoft Azure雲端伺服器效能表現與Eos人工智慧超級電腦效能相差不到2%,展現在資料中心和公有雲部署的高效率。

在同樣使用64組GPU / 加速器的條件下,H100的Stable Diffusion訓練測試速度大約為Intel Gaudi 2的2倍。

NVIDIA的MLPerf HPC(高效能運算)測試成績較最初有10~16倍不等的表現(筆者註:使用的軟硬體並不相同),而在新加入的OpenFold氨基酸序列預測蛋白質3D結構模型測試中也有長足進步。

由於多數藥物皆作用於蛋白質,因此OpenFold是協助科學家瞭解蛋白質的結構,並快速研發有效藥物的關鍵。在最新測試中,H100 GPU在7.5分鐘內完成OpenFold模型訓練相較於2年前AlphaFold訓練使用128個加速器並耗時11天,能夠明顯提升工作效率。

國寶大師 李文恩
作者

電腦王特約作者,專門負責硬派內容,從處理器、主機板到開發板、零組件,尖端科技都一手包辦,最近的研究計畫則包括Windows 98復活與AI圖像生成。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則