OpenAI 新模型 GPT-4o 登場!能算數、口譯、插話再聊且速度更快,免費開放全用戶使用

OpenAI 新模型 GPT-4o 登場!能算數、口譯、插話再聊且速度更快,免費開放全用戶使用

搶在Google I/O 發表會之前,OpenAI 在周一發表了自家新升級的旗艦 AI 模型 GPT-4o,當中 o 代表字根 o​​​mni,中文為「完全、一切」,意即該模型具備跨多種媒體的能力,能夠即時處理文字、音訊和影片,且語音輸入與回應速度更快,即日起免費開放給所有使用者。

OpenAI 全新的 AI 模型名為 GPT-4o,是 GPT-4 模型的迭代版本,OpenAI 技術長穆拉蒂 (Mira Murati) 表示,最新的 GPT-4o 在擁有如同 GPT-4 等級智慧的同時,還能跨多種媒體,支援以文字、語音和影像的任意組合作為輸入和產出,並能透過​​語音與用戶即時互動,而且速度更快。

OpenAI 新模型 GPT-4o 登場!能算數、口譯、插話再聊且速度更快,免費開放全用戶使用

OpenAI 指出,GPT-4o 有著接近人類的回應時間,大大改善 ChatGPT 聊天機器人的體驗,可在最短 232 毫秒(0.232秒)、平均 320 毫秒(0.32秒)的時間內回應問題。相較於 GPT-3.5 及 GPT-4 在語音模式的回應時間,分別為 2.8 秒和 5.4 秒,幾乎能夠即時地回話。

GPT-4o 除了能即時口譯、解開數學題目,隨時打斷 AI 的回應再接著聊,還能辨識使用者的語氣跟表情,進而產生「一系列不同情感風格」的聲音。另外,GPT-4o 也升級了 ChatGPT 的影像辨識能力,例如使用者丟出一張照片,ChatGPT 可以快速回答圖片中的人物穿什麼牌子的襯衫等問題。

OpenAI 新模型 GPT-4o 登場!能算數、口譯、插話再聊且速度更快,免費開放全用戶使用

穆拉蒂指出,未來 GPT-4o 技術還會進一步提昇,能夠在觀看體育賽事轉播後向用戶解釋比賽規則,不只限於翻譯圖片文字等簡單任務。

於此之前,付費版 ChatGPT Plus 所使用的最高級語言模型 GPT-4 Turbo,雖然也能針對圖像和文字組合進行分類、分析給予說明,以及文字語音轉換等服務,但由於 GPT-4o 將這些功能全部整合在一個模型裡,所以速度更快,同時更強化了語音能力,與上一代旗艦 GPT-4 Turbo 相比,GPT-4o 在英文和程式語言上的表現與 GPT-4 Turbo 效能相匹配,不過在英語以外的語言上效能顯著提高,而且 API 的速度提高兩倍,但收費降低了 50%。

OpenAI 技術長穆拉蒂表示,目前用戶已可在免費版本中使用 GPT-4o,享受 GPT-4o 中的圖像與視覺功能,而付費訂閱者則可以享有免費版 5 倍的訊息限制。而以 GPT-4o 為基礎的語音服務,預計會在下個月向 ChatGPT Plus 訂閱用戶提供 Alpha 測試版。

來源:OpenAI

Shaoyun
作者

PC home雜誌、T客邦產業編輯,前產業情報誌作者,主要負責耳機、音響、家電、智慧家居、按摩椅、電商、電子閱讀器等領域評測報導,並有軟體相關教學。在T客邦影新聞Youtube頻道負責影音主持。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則