2023.04.24 16:30

OpenAI 官方版 Auto-GPT來了!ChatGPT「Auto 功能」創作畫畫發推一條龍,自主呼叫外部網頁完成任務

ADVERTISEMENT

OpenAI 官方 AutoGPT,要來了!

就在 AutoGPT 成為最近最熱門的ChatGPT應用服務之際,OpenAI 也放出重磅炸彈,由聯合創始人格雷格・布洛克曼(Greg Brockman)親自在TED的演講現場展示了 ChatGPT 即將上線的新功能「Auto」。

文章目錄

比如要一張這樣有氛圍感的晚餐圖片:

ADVERTISEMENT

不勞您親自寫提示詞,它來:

ADVERTISEMENT

採納 ChatGPT 推薦的菜譜之後,想要去買食材?

直接一句話,買菜平台的購物車就給你加好了:

ADVERTISEMENT

想要分享買了什麼?

一句命令直接連結發推特,整個過程你根本不用打開“小藍鳥”:

ADVERTISEMENT

聯網能力的加入,則可以讓它自動對回答進行事實核驗。

甩給它一個 Excel 檔案,也是唰唰唰就開始分析:

完全是 AutoGPT 的感覺了!

在展示現場,聯合創始人布洛克曼劇透,新功能上線的時間,就在我給大家展示完之後(After this talk, you will be able to access this yourself)。

話音剛落,掌聲雷動。

要知道,先前 OpenAI 官宣要在 ChatGPT 上引入外掛功能就引發熱議。如今隨著實測效果曝光,絲滑的效果更是把期待值拉滿了。

有網友就表示:在 TED 演講現場真實測試發一條推特,可見你們對自家 AI 的信任!

不過在等待結果時,布洛克曼看著還是非常緊張的,直到後面測試成功後才笑了起來~

所以,ChatGPT 這些新功能具體效果如何?一起來看看。

聊天介面直接加購物車、發推特

如下圖所示,即將到來的“Auto 功能”藏在三個不同的新模式之中:

Browsing、Code Interpreter 和 Plugins。

Plugins 可以讓 ChatGPT 接入各種外部應用,Browsing 能開啟聯網能力,Code Interpreter 則通過自動寫程式碼幫你進行各種資料分析。

先看 Plugins 模式。

布洛克曼首先展示了 ChatGPT 接入 Dall・E 後擁有的新能力。

「我們想在演講之後進行一頓晚宴,請給我們一份食譜建議,然後把它生成一張圖片。」

很快,ChatGPT 就給出菜單,包括:藜麥沙拉、奶酪烤蘑菇、果盤、奶油南瓜湯、手工面包和雞尾酒等等,每個菜都詳細介紹了用什麼具體食材搭配。

然後依靠 Dall・E App 外掛,一張看起來非常有氛圍的大餐圖片就出來了。

布洛克曼介紹,Dall・E 外掛在畫這張圖時,其實就是自己給自己寫提示詞,寫了下面這麼一大堆:

放在以前,這都是需要我們人類自己來做的。現在這種“小事兒”交給 ChatGPT 就行了。

生成食譜之後,該準備相應的食材了吧。

同樣,只需要給 ChatGPT 下達命令:選擇“Instacart”(美國生鮮電商)外掛,輸入文字“現在為之前建議的菜譜列一份購物清單”。

在這裡,布洛克曼還給它加了個小任務:“並在推特上分享給所有 TED 觀眾”,這就需要選上一個叫做“Zapier”(一個可以連接各種應用的自動化工具)的外掛。

在 Instacart 平台加購稍微耗費了 ChatGPT 一點時候,然後連結就出來了(這裡也用到了“檢索”外掛)。

打開之後,食材都被安排好了,直接下單即可。

(當然,在此之前,你也可以隨意為某些食材增加一些數量,或者家裡已經有的刪掉就可以了。)

接著,ChatGPT 再次確認布洛克曼是否需要將連結分享到推特平台,布洛克曼回答 yes。

只見一頓自動操作之後,ChatGPT 彈出來一個 Zapier 給出的預覽介面,上面有布洛克曼的推特帳戶名稱,以及一會要發佈的文案供驗證和檢查。

沒什麼問題後,點選 Run 就可以發表了。

這時的布洛克曼略顯緊張,不過成功了!

ChatGPT 自動幫他發好了一條推特,布洛克曼本人全程連推特網站碰都沒碰一下。

專門去他的首頁看,確實有這條推特,點選裡面的連結,也確實是前面我們看到的購物車介面。

這就是強大的 Plugins 模式能夠做的事情,是不是非常有 AutoGPT 的感覺了?

自己上網查驗事實

除了這個無縫接入外部應用的操作,ChatGPT 還可以自己去上網查驗事實了。

眾所周知,聊天機器人有時會給出一些不易覺察的錯誤答案,引發誤導。

如下圖所示,布洛克曼問它 OpenAl 的兩篇部落格文章“Unsupervised Sentiment Neuron”和“Learning from human preferences”的發佈相隔了多長時間。

ChatGPT 答前者 2017 年 4 月 24 日發佈,後者 2017 年 6 月 27 日發佈,因此,這兩份出版物相隔大約兩個月。

然而事實真的如此嗎?

在這裡,就用切換到“Browsing”模式,然後將剛剛那個對話丟給 ChatGPT,讓它自己去驗證一下。

注意了,ChatGPT 拿到需求後,並沒有直接更新答案,而是一步一步地寫下了自己都要查什麼做了什麼:

首先我將搜尋第一篇文章的發佈日期,來驗證第一個日期。

鍵入論文題目開始搜尋……

該論文的發佈日期在搜尋結果 0 的摘錄中給出。我將引用這段摘錄來核實使用者提供的第一個日期。

查看結果(可點選)。

然後我去搜尋第二篇文章的發佈日期…… 結果在這裡給出…… balabala

經此環節後,ChatGPT 彙總出最終答案 ——

果然前面全都錯了,第一篇 2017 年 4 月 6 日發佈,第二篇 6 月 13 日發佈,兩者間隔兩個月零 1 週。

布洛克曼表示,像這種核驗人類自己其實也可以做,但把它交給 ChatGPT 去做更有價值的事情才對。

而在這個過程中非常詳細地列出 ChatGPT 核驗的每一個步驟,則是方便我們去回溯整個推理鏈,以防萬一。

接下來,最後一個新功能登場。

這是用 Excel 表格彙總的過去 30 年所有人工智慧論文(大約有 16.7 萬篇)。

現在切換到“Code Interpreter”模式,將檔案直接上傳,來看看 ChatGPT 將如何對它進行自動分析。

它先是將表格中所有列名的含義都梳理了一遍,問布洛克曼接下來是想進行資料分析還是做可視化。

布洛克曼表示:老實說我自己也不知道想幹啥,但我可以讓它給出一些“探索性的圖”。

「這是一個超高等級的指令,背後可能包含了很多意圖,ChatGPT 必須推斷出我可能感興趣的東西。」

聰明的 ChatGPT,給了三個選項,包括:

1、每篇論文作者數量的直方圖,這可以讓我們瞭解 Al 研究的典型團隊規模。

2、每年論文發表總數的時間折線圖,它可以向我們展示研究趨勢。

3、論文標題的單詞雲,它可以向我們展示研究標題中最常出現的詞語。

“話音剛落”,ChatGPT 就開始通過自己寫程式碼生成結果:

布洛克曼注意到第二個折線圖把 2023 年也直接安排了,但今年還未結束,就讓 ChatGPT 重新進行繪製,ChatGPT 當然是照做了,並非常細緻地註明 2023 年發表的論文總數是預測出來的。

以上便是布洛克曼在這場演講中展示的新功能。

不過,想必大家還記得,這其實就是一個月前 ChatGPT 承諾的更新。

當時,OpenAI 宣佈,ChatGPT 將擁有聯網功能,將可以接入各種外部應用,就像擁有“App Store”一樣,想完成任務直接就可以自動幫你呼叫相應的 App。

現在,這些新功能終於可以結束內測,開始擁抱每一個(有 Plus 帳號的)人了。

布洛克曼:是時候瞭解 AGI 了

展示完功能後,布洛克曼還接受了 TED 的訪談。

和此前 OpenAI CEO 奧特曼的訪談不同,布洛克曼回答了很多“乾貨”內容。有個人觀點的表達、成功經驗的分享、以及對質疑的直面回應。

比如:為什麼這次給世界帶來震撼技術的是 OpenAI 而不是Google?

畢竟在開發團隊規模上,OpenAI 只有幾百名技術人員,和Google差出了一個數量級。

布洛克曼的回答如下:

我們都是站在巨人的肩膀上,可以看到全 AI 行業在計算、演算法、資料上都取得了進步。

不過 OpenAI 在早期,做了一些深思熟慮的選擇。

我們的第一個選擇就是直面現實,比如我們很認真地想過如果想要在這個領域取得進展,需要做什麼?我們也做了很多沒有用的嘗試,最終你才能看到這些有用的結果。

我還認為,最重要的是讓不同團隊之間可以緊密協作。

那麼,為什麼 OpenAI 會堅信大型語言模型的能力和趨勢?

布洛克曼表示,他們一直都知道深度學習最終會通往何處。但具體來看,一個實驗室應該怎麼做?

他用一個“無心插柳柳成蔭”的例子來說明:

過去我們有人嘗試訓練一個模型,預測亞馬遜平台評論的下一個字元。

最終,他得到了一個可以分析評論句法的模型,但同時也得到了一個達到 SOTA 的情緒分析分類器,可以告訴人們這條評論是好評還是差評。

這個演算法在現在看來可能不足為奇。但在當時我們第一次從底層句法中分析出來語義,我們就知道必須朝這個方向做下去。

當然,從 ChatGPT 誕生以來,質疑一直都存在。

比如很多人在體驗後覺得,ChatGPT 並沒有在真正意義上掌握知識。

主持人拋出問題,所以擴大型語言模型規模、大量的人類反饋,會帶大型語言模型通往真正意義上的成功嗎?

布洛克曼的回答非常肯定:是的。

而且補充說:

我認為 OpenAI 的方法一直都是如此,用現實打臉。

……

我們的方法一直都是如此,必須突破技術極限才能看到它實際的能力。這也是我們如何轉向新範式。

但 OpenAI 的堅定,如今也受到了很多質疑,尤其是對 AI 倫理有擔憂情緒的人。

比如有聲音就表示,作為一個非營利組織,OpenAI 不僅掀起了一場全球範圍內的技術趨勢,還使得很多科技巨頭不得不加入進來,這會不會導致 AI 的發展產生巨大危險。

馬斯克及千名科學家呼籲“暫緩 AI 開發六個月”,也是出於這個原因。

布洛克曼直言:

從一開始我們考慮如何建構通用人工智慧時,實際上是希望它能造福全人類。

如果是秘密開發這一切,然後在弄清楚安全性後,再按下“開始鍵”,你希望你做對了,但對於我來說,並不知道該如何執行這一計畫。

可能其他人會這麼做,但對於我來說,這是可怕的、感覺不太對。

我認為這種路線目前的唯一替代方法,在機器變得完美之前,給人們時間來提建議。

布洛克曼表示,人類開發電腦、演算法等技術,都是 step by step,並且要在推進的每一個階段去弄清楚如何管理好它們。就好像養大一個孩子,是大家共同引導、給它樹立規矩,而不是教它毀滅人類。

如今,AGI 已經做好準備來改變我們使用電腦的方方面面了。

是時候讓我們都瞭解這項技術了。

參考連結:

 

ADVERTISEMENT