
NVIDIA 近日正式宣布,其 AI 推論加速框架 TensorRT 現已全面支援 GeForce RTX 顯示卡,帶來大幅度的效能提升。根據官方實測結果,與 Microsoft DirectML 相比,TensorRT 在某些應用中可提供高達 2 倍的推論效能。
TensorRT 是什麼?全面強化 RTX AI 能力
TensorRT 是 NVIDIA 自家開發的 AI 推論優化器,專門用來加速 AI 模型的執行效率。這次將其引進 GeForce RTX 平台,代表所有 RTX 顯示卡的使用者,無論是創作者、遊戲玩家或開發者,都能享受到更快速且高效的 AI 應用體驗。
NVIDIA 表示,TensorRT 不僅相容 Windows ML,也能自動判斷並選擇最適合執行各種 AI 功能的硬體資源,並自動下載對應的執行模組,大幅簡化開發流程。
效能實測:最高翻倍、還省空間
根據官方展示的效能數據:
-
在影像生成工具 ComfyUI 中,啟用 TensorRT 可帶來高達 2 倍 的效能提升。
-
在影片剪輯軟體 DaVinci Resolve 與 Vegas Pro 中,整體效能也提升了 60% 左右。
除了效能優勢外,TensorRT for RTX 還具備其他優化特色:
-
庫檔案體積縮小 8 倍,減少儲存空間佔用。
-
根據不同 GPU 即時進行最佳化,確保每張卡都能發揮最大效能。
六月正式上線、擴大支援 AI SDK
NVIDIA 表示,TensorRT for RTX 預計於 6 月正式推出,同時也在積極擴展旗下 AI SDK 生態系,目前已支援超過 150 款 SDK。本月內還會新增 5 個與獨立軟體開發商(ISV)的整合,包括:
-
LM Studio
-
Topaz Video AI
-
Autodesk VRED
-
Chaos Enscape
這些整合將讓 RTX 使用者能在更多創作與 AI 工作流程中體驗到 TensorRT 的效能優勢。
- 延伸閱讀:【COMPUTEX 2025】NVIDIA推出GeForce RTX 5060系列產品,顯示卡與行動版顯示晶片同步上市
- 延伸閱讀:【COMPUTEX 2025】Acer Swift X 14 及 Swift X 14 AI 專為創作者打造,搭載 GeForce RTX 5070 顯示晶片
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!