少用 ChatGPT,改選擇開源AI替代方案!紐約大學教授 Nature 發文:為了科學界的未來

少用 ChatGPT,改選擇開源AI替代方案!紐約大學教授 Nature 發文:為了科學界的未來

免費的 ChatGPT 用的是很爽,但這種閉源的語言模型最大的缺點就是不開源,外界根本無法瞭解背後的訓練資料以及是否會洩露使用者隱私等問題,也引發了後續工業界、學術界聯合開源了 LLaMA 等一系列羊駝模型。

最近 Nature 世界觀欄目刊登了一篇文章,紐約大學政治與資料科學教授 Arthur Spirling 呼籲大家更多地使用開源模型,實驗結果可復現,也符合學術倫理。

重點是,萬一哪天 OpenAI 不爽了,關閉了語言模型介面,或是靠封閉壟斷漲價的話,那使用者只能無奈地說一句,「終究是學術敗給了富爸爸」。以下就是他的呼籲內容。

擁抱開源,拒絕壟斷

似乎每天都有一個全新的大型語言模型 (LLM) 推出,其建立者和學術界相關人士每次都會對新模型如何與人類進行流暢交流的能力慷慨陳詞,比如可以幫使用者改程式碼,寫推薦信,給文章寫摘要等等。

作為一名正在使用並教授如何使用這些模型的政治和資料科學家,我認為學者們應該保持警惕,因為目前最受福斯追捧的語言模型仍然是私有且封閉的,即由公司營運,他們不會披露基本模型的具體資訊,只會獨立地檢查或驗證模型的能力,所以研究人員和公眾並不知道模型的訓練使用了哪些檔案。

急於將語言模型納入自己的研究流程可能會出問題,可能會威脅到來之不易的「研究倫理」和「結果復現性」方面的相關進展。

不光不能依賴商用模型,研究人員還要通力合作開發透明且不依賴於某個具體公司利益的開源大型語言模型。

雖然商用模型非常方便,可以開箱即用,但投資開源語言模型是歷史的趨勢,既要想辦法推進開發,也要讓模型應用於未來的研究中。

我樂觀地估計,語言模型工具的未來一定是開放原始碼的,類似於開源統計軟體的發展歷史,剛開始商用的統計軟體很流行,但目前基本所有社區都在使用 R 或 Python 等開源平台。

舉個例子,去年 7 月發佈的開源語言模型 BLOOM,其開發團隊 Hugging Face 是一家總部位於紐約的人工智慧公司,攜手一千多名志願者和研究人員共同打造,部分研發資金由法國政府提供;其他團隊也在努力開源大型語言模型。

我認為類似這樣的開放原始碼專案都是偉大的,但我們還需要更多的合作,需要彙集國際資源和專業知識。

開源大型語言模型的團隊通常不像大公司那樣資金充足,並且開發團隊還需要持續營運以跟蹤領域內的最新進展:AI 領域的發展實在是太快了,甚至大部分語言模型在推出幾週或幾個月以後就會過時。

所以參與到開源中的學者越多,最終開源模型的效果也會更好。

使用開源 LLM 對於「可重複性的研究」至關重要,因為閉源的商用語言模型所有者可以隨時更改其產品或其訓練資料,都有可能會改變模型的生成結果。

比如說,一個研究小組可能會發表一篇論文,測試商用語言模型建議的措辭是否可以幫助臨床醫生更有效地與患者溝通;如果另一個小組試圖復現這項研究,誰知道模型的基礎訓練資料是否和當時一樣?甚至該模型是否仍然營運都是未知數。

畢竟連OpenAI老闆阿特曼自己也承認:AI確實可能殺死人類。

少用 ChatGPT,改選擇開源AI替代方案!紐約大學教授 Nature 發文:為了科學界的未來

之前研究人員常用的輔助工具 GPT-3 已經被 GPT-4 取代了,所有基於 GPT-3 介面的研究在未來很可能無法復現,對於公司來說,維持舊模型運行的優先順序並不高。

相比之下,使用開源 LLM,研究人員可以查看模型的內部架構、權重,瞭解模型是如何運行的,定製程式碼並指出錯誤,這些細節包括模型的可調參數和訓練模型的資料,社區的參與和監督都有助於讓這種模式長期保持穩健。

在科學研究中使用商用語言模型也對研究倫理產生了負面的影響,因為用於訓練這些模型的文字是未知的,可能包括社群媒體平台上使用者之間的直接資訊或兒童撰寫的內容。

儘管製作公共文字的人可能已經同意了平台的服務條款,但這可能不是研究人員希望看到的知情同意標準。

在我看來,科學家應該儘可能地在自己的工作中遠離使用這些模型。我們應該轉向開放的語言模型,並推廣給其他人使用。

此外,我認為學者,尤其是那些擁有大量社群媒體追隨者的學者,不應該推動其他人使用商用模型,如果價格飆升,或者公司倒閉,研究人員可能會後悔把技術推廣給同事。

研究人員目前可以求助於私人組織製作的開放式語言模型,例如用 Facebook 母公司 Meta 開放原始碼的 LLaMA,最初是基於使用者申請、稽核的形式發放的,但完整版模型隨後在網上洩露;還可以使用 Meta 的開放語言模型 OPT-175 B

從長遠來看,不利的一面是,這些模型的發佈過於依賴公司的仁慈,這是一種不穩定的局面。

除此之外,還應該有與語言模型合作的學術行為準則,以及相應的監管措施,但這些都需要時間,根據我作為政治學家的經驗,我預計這些規定最初肯定是很不完善的,並且見效緩慢。

與此同時,大規模的合作項目迫切需要支援,以訓練用於研究的開源語言模型,類似歐洲粒子物理研究所(CERN),國際粒子物理組織,政府應通過贈款增加資金。

該領域正在以閃電般的速度發展,現在需要開始協調國內和國際支援。

科學界需要有能力評估由此得到模型的風險,並且需要謹慎地向公眾發佈,但很明顯,開放的環境是正確的。

 

 

Qbitai
作者

量子位(Qbitai)專注於人工智慧及前沿科技領域,提供技術研發趨勢、科技企業動態、新創公司報道等最新資訊,以及機器學習入門資源、電腦科學最新研究論文、開源程式碼和工具的相關報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則