透過LM Studio大型語言模型軟體套件在AMD筆電跑LLM,效能還贏對手17%

透過LM Studio大型語言模型軟體套件在AMD筆電跑LLM,效能還贏對手17%

ADVERTISEMENT

AMD在消費級AI效能說明會中,展示自家處理器產品在執行Llama 2與Mistral等大型語言模型的效能領先Intel Core Ultra最高達17%。

離線執行好處多多

大型語言模型(Large Langue Model,以下簡稱LLM)是現在相當熱門的生成式AI應用,使用者可以直接與系統透過自然語言的文字溝通,詢問並得到有參考價值的回達。其中以程式編譯為主要應用領域的Llama Code,甚至可以在分析使用者的需求描述之後,生成對應的程式碼。

雖然目前有許多雲端版本的LLM服務,使用者可以直接透過瀏覽器進入操作介面,快速享受LLM的便利,但是這類服務大多需要收費,使用時也需要連接至網路。

AMD在官方部落格推薦LM Studio軟體套件,使用者可以輕鬆將LLM安裝至自己的電腦並在離線狀態下使用,這樣的好處除了不需支付使用費,而且可以在沒有網路的情況下使用之外,更重要的是所有資料都是在本機電腦處理,不需上傳至雲端,所以不用擔心資料外洩的風險,對於處理機敏資料或是生成公司使用的程式碼時格外重要。

使用者透過LM Studio軟體套件就能在自己的電腦上離線執行LLM。

離線執行的好處包括確保隱私、不需支付使用費、不需連網。

▲AMD提供透過AI在Unity撰寫彈跳球體程式碼的範例展示。

提供領先的筆電LLM效能

以AMD Ryzen 7840U處理器為例,它具有CPU(中央處理器)、GPU(繪圖處理器)、NPU(神經處理器)等不同運算單元,CPU除了能夠進行一般通用型運算之外,也透過AVX-512以及VNNI等指令集來強化AI運算的效能表現。

GPU的主要工作雖然是繪製3D圖像,但是因為其架構的特性,也很適合用於加速AI運算,而NPU則是專為AI運算設計的加速運算單元,內建於部分Ryzen 7000與8000系列。活用這3種不同的運算單元,將可提升多種AI運算負載的效能表現。

根據AMD提供的數據,在使用搭載AMD Ryzen 7840U的HP Pavilion Plus以及搭載Intel Core Ultra 7 155H的Acer Swift SFG14-72T等筆記型電腦時,在執行Llama 2與Mistral的效能表現最高可領先14%與17%,而在產生第1個Token(可以粗淺理解為辭彙)的速度則最多快了79與41%。

需要注意的是,Ryzen 7840U的TDP僅為15W,大約僅為Core Ultra 7 155H 28W的一半,這代表的是在執行AI運算的過程中,Ryzen 7840U所消耗的電力更少,有助於提供更長的電池續航力,延伸AI運算的使用時間並避免電力耗盡。

在AMD官方提供的範例中,以HP Pavilion Plus(右)與Acer Swift SFG14-72T(左)等筆記型電腦作為測試平台。

在Mistral Instruct 7B Q4 K M設定條件下,AMD Ryzen 7840U生成Token的速度領先IntelCore Ultra 7 155H達17%。

若比較從輸入提示詞到產生第1組Token的速度,Ryzen 7840U在Llama 2 Chat 7B Q4 K M設定條件下快了79%。

▲從實際影片中可以看到,右側的AMD平台產生回應的速度明顯比較流暢。

細看Mistral Instruct 7B在不同設定條件下的效能表現,AMD平台都優於Intel。(圖表左側代表回應越精準但速度越慢,AMD建議使用AI編寫程式碼時設定為Q5 K M,一般應用設定為Q4 K M。)

Mistral Instruct 7B在不同設定條件下產生首個Token的速度也都是AMD平台較快。

在Llama 2 Chat 7B的效能對照圖。

Llama 2 Chat 7B的首個Token速度對照圖。

由於LM Studio軟體套件對系統需求篇低,有興趣的讀者可以在自己的電腦安裝並進行嘗試。

國寶大師 李文恩
作者

電腦王特約作者,專門負責硬派內容,從處理器、主機板到開發板、零組件,尖端科技都一手包辦,最近的研究計畫則包括Windows 98復活與AI圖像生成。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則