ADVERTISEMENT
在OpenAI的首次開發者大會上,Sam Altman公佈了過去一年中OpenAI的驕人成績。
本次大會上推出了ChatGPT的最新版本GPT-4 Turbo,以及眾多全新功能。更重要的是,OpenAI宣佈要圍繞GPT打造AI平台,推出GPT Store,並提出了GPTs的概念,使用者可以利用GPT Builder工具,建立自己的GPT。
GPT-4 Turbo
本次發佈的LLM(大型語言模型)更新主要包括:
ADVERTISEMENT
- 最新的GPT-4 Turbo,支援128k上下文窗口,且價格更低,輸出更快。
- 全新的Assistants API,使開發人員更容易建構自己的人工智慧應用程式。
- 新的多模態功能,包括視覺、圖像建立(DALL·E 3)和文字轉語音(TTS)。
長上下文
長上下文正在成為各家大型語言模型的「主戰場」。對比眾多新模型,GPT-4的32k token上下文窗口已不那麼出色。此次GPT-4 Turbo更新的上下文窗口達到128k,是GPT-4的四倍,且超過了競對Anthropic此前推出的100k token的Claude 2。
Sam Altman在展示中稱128k token大約相當於300頁紙的文字量,英國版的《哈利·波特與魔法石》差不多就是300頁,魔戒三部曲平均每本是400頁。
ADVERTISEMENT
開發助手
OpenAI此次更新中,著重面向開發者推出了Assistant API,使開發者能在應用中內建類似代理的AI體驗。
這個API允許AI助手執行具體任務,呼叫模型和工具,並處理一些複雜的程式和資料處理工作。它支援多種用途,如自然語言資料分析、編碼輔助、旅行規劃等。
助手API具有持久化執行緒功能,簡化了狀態管理,並允許呼叫開發者定義的函數。此外,它還提供了程式碼直譯器和檢索工具,可在外部資料上運行和檢索資訊。資料保護方面,開發者可自主管理其傳遞給API的資料。現在,開發者可以通過助手API遊樂場,無需編碼進行測試。
ADVERTISEMENT
此外,OpenAI對函數呼叫進行了更新,現在模型可以在單個消息中呼叫多個函數,並更準確地返回正確的函數參數。GPT-4 Turbo在遵循指令生成特定格式時表現更佳,並支援新的JSON模式以確保輸出有效的JSON對象。新增的API參數response_format允許模型輸出語法正確的JSON。此外,通過新的seed參數,模型可以產生可重現的輸出,有助於偵錯和編寫單元測試。OpenAI還計畫推出返回輸出令牌對數機率的功能,以便在建構“自動完成”等功能時使用。
知識更新
GPT-4的知識庫更新到2023年4月。目前ChatGPT中使用的GPT-4模型,已經將知識庫更新到了2023年4月,不過GPT-3.5的知識庫仍然停留在2022年1月。
新的多模態模型
在多模態能力方面,GPT-4 Turbo的API將內建DALL-E3,以及文生語音模型TTS(text-to-speech)。
ADVERTISEMENT
開發者可以通過API直接呼叫GPT-4 Turbo with vision中的DALL-E3模型,進行圖片識別和圖片生成。事實上,DALL·E 3上線之後,ChatGPT Plus使用者就已經可以在GPT-4模組下呼叫DALL·E 3進行圖片創作,以及多模態的圖片識別了。不過,這次是以API的形式,將多模態的能力開放給開發者。
此外,OpenAI還上線了新的TTS文生語音功能。類似能力,在ChatGPT手機端也已經上線了一段時間(不過目前實測中文還是有一點英語口語),此次也是針對開發者的API開放。目前TTS的語音包共有六種聲音可選,可以輸出Opus、AAC和FLAC三種格式,尚不支援自建聲音。
價格更低,輸出更快
相比於GPT-4,GPT-4 Turbo的輸入價格只有1/3,0.01美元每1000 token;輸出價格為0.03美元每 1000 token,只有原來的1/2。而內容生成的速度,提高了2倍。
「今天,有大約200萬開發者在使用我們的API進行各種用例的開發。超過92%的財富500強公司正在使用我們的產品進行建構,而現在ChatGPT每週活躍使用者大約有1億。」Sam Altman表示,在AI開發者中,使用ChatGPT服務的成長速度驚人。
從ChatGPT的GPT-3.5在今年年初才剛剛嶄露頭角,到現在已經被比喻為AI的iPhone時刻,恐怕Sam Altman的下一步也已經把目標瞄準了蘋果。而ChatGPT可能就是AI領域的下一個iOS,還有機會讓每個使用者都成為開發者。
- 延伸閱讀:GPT-4V多模態能力可以這樣玩:公式截圖直出程式碼、幾行文字生成「龍與魔法世界」
- 延伸閱讀:性能遠低於預期,傳OpenAI放棄開發平價版GPT-4 Arrakis
- 延伸閱讀:GPT-4 也難逃「反轉魔咒」,大型語言模型先天就有缺陷:知道A=B,無法反推B=A
ADVERTISEMENT