科技巨頭小心翼翼的對待AI,結果ChatGPT突然衝了出來,逼大公司做出反應

科技巨頭小心翼翼的對待AI,結果ChatGPT突然衝了出來,逼大公司做出反應

ADVERTISEMENT

ChatGPT 是在 2022 年 11 月首次亮相的。其實在三個月前,Facebook 的母公司 Meta 就發表過一個類似的聊天機器人。但 Meta 的首席人工智慧科學家 Yann LeCun 表示,與 ChatGPT 推出五天就得到了超過 100 萬個使用者,並立即成為現象不同,Meta 的 Blenderbot 很無聊。 

LeCun 上周在人工智慧諮詢公司 Collective主辦的論壇上表示:「它之所以無聊,是因為做它的時候要保證安全」。他把公眾對聊天機器人不溫不火的反應歸咎於 Meta 「對內容審核過於謹慎」。比如說,如果使用者詢問宗教信仰問題,他們就會指示聊天機器人改變話題。相比之下,ChatGPT 會討論《古蘭經》中的謊言概念,能為拉比寫一篇祈禱文提交給國會,還敢將上帝比作蒼蠅拍。 

ChatGPT 正迅速成為主流。最近向該聊天機器人背後的公司 OpenAI 投資了數十億美元的微軟,正致力於將其整合到自家流行的辦公軟體之中,並正在該工具的使用權出售給其他企業。根據對六名現任及前任Google和 Meta 員工的採訪,對 ChatGPT 關注的激增正在給包括 Meta 和Google在內的科技巨頭施加壓力,他們有了加快行動的緊迫性,也許就要將安全問題拋在一邊了。其中部分人不願透露姓名,因為他們無權發言。 

據其中一位員工稱,Meta 員工最近分享了內部備忘錄,敦促公司加快對 AI 的審批流程,好讓他們能利用上最新技術。據《紐約時報》報導,説明開創了支援 ChatGPT 的部分技術的Google,最近發布了關於推出 AI 產品的「紅色警戒」,並提出要設立「綠色通道」來縮短評估和減輕潛在危害的流程。 

ChatGPT 以及 DALL-E 2 和 Stable Diffusion 等文本生成圖像工具,是所謂的生成式人工智慧的軟體新浪潮的一部分。它們透過借鑒在大量現有的、人類創作的內容中發現的模式來創作自己的作品。Google等大型科技公司是這項技術的先驅,但近年來這些科技巨頭變得更加隱秘,它們會發表新模型或提供示範,但完整產品卻是保密的。與此同時,像 OpenAI 這樣的研究實驗室則迅速推出自己的最新版本,引發了關於企業產品(如Google的語言模型LaMDA)怎麼才能跟前者比的問題。 

自從像微軟的 Tay 這樣的產品在公眾面前倒下以來,科技巨頭就一直很容易受驚嚇。2016 年,當網路釣魚的提示讓這個機器人宣揚種族戰爭、暗示希特勒是對的,並且發表了「911事件是猶太人幹的」的推文之後,它在推出不到一天之後就被關閉了。Meta 曾試著為 Blenderbot 辯護,但在去年 8 月該機器人發表種族主義言論之後,也將其擱置了,後來到了 11 月,在上線僅僅三天之後,他們又取消了另一個叫做 Galactica 的人工智慧工具,原因是它對科學的研究不準確,且有時摘要帶偏見,進而受到了一片質疑。 

一名從事人工智慧工作的Google員工表示:「人們覺得,與這些既有公司相比,OpenAI 更新、更新鮮、更令人興奮,而且要付出的代價也更少,就算出問題他們現在也可以僥倖逃脫」。他指的是公眾對 ChatGPT 的接受度,不會帶那麼多審判的眼光。一些頂尖人才已經跳槽到更靈活的初創企業,如 OpenAI 和 Stable Diffusion 等。 

一些人工智慧倫理學家擔心,在信任和安全專家研究清楚風險之前,大型科技公司急於進場可能會導致數十億人面臨潛在危害——例如說分享不準確的資訊、產生假照片,或讓學生有在學校考試中作弊的能力。但這個領域的其他人認同 OpenAI 的理念,也就是在減輕部分可預測的風險之後,向公眾推出通常名義上處於「測試」階段的工具,是評估現實世界危害的唯一方法。 

Meta Fundamental AI Research 主任 Joelle Pineau 表示:「人工智慧的進步速度之快得令人難以置信,我們一直關注著確保我們擁有高效的審查流程,但首要任務是做出正確決定,並推出最能夠為我們社群提供服務的人工智慧模型和產品」。 

Google發言人 Lily Lin 表示:「我們相信人工智慧是具有基礎性與變革性的技術,對個人、企業和社區都非常有用。我們需要考慮這些創新可能給社會帶來的更廣泛影響。我們會繼續在內部測試我們的 AI 技術,以確保它有用,並且安全。」 

微軟媒體溝通主管 Frank Shaw 表示,他的公司正在與 OpenAI 合作,在自家產品使用 DALLE-2 等 AI 工具時建立額外的安全措施。 Shaw 說:「多年來,微軟一直致力於推動人工智慧領域的發展,在如何以負責任和合乎道德的方式在我們的平臺上創建和使用這些技術的問題上,我們也給予了公開指引」。 

OpenAI 拒絕對此置評。 

喬治亞理工學院電腦教授和機器學習專家 Mark Riedl 說,ChatGPT 的底層技術未必好于Google和 Meta 開發的技術。但 OpenAI 推出語言模型給公眾使用的做法賦予了它真正的優勢。 

Riedl 說:「在過去兩年的時間裡,他們一直在借助一群人向 GPT 提供回饋」,比方說對不合適或不滿意的答案給出「不滿意」的回應,這個過程叫做「基於人類回饋的強化學習」(reinforcement learning from human feedback)。 

隨著科技股出現暴跌,矽谷突然願意去考慮承受更多的聲譽風險了。Google上周解雇 12000 名員工,當時公司首席執行長桑德爾·皮查伊(Sundar Pichai)表示,該公司已經進行了嚴格審查,準備把注意力放在公司的最高優先事項上,並兩次提到了其在人工智慧方面的早期投資。 

十年前,Google是該領域無可爭議的領導者。2014 年,Google收購了尖端的人工智慧實驗室 DeepMind,並在 2015 年開源了自己的機器學習軟體 TensorFlow。到 2016 年時,皮查伊承諾要把Google變成「人工智慧優先」的公司。 

第二年,Google推出了 transformers——這是一個關鍵的軟體架構,正因為有了它,當前這股生成式人工智慧浪潮才能成為可能。 

該公司不斷推出推動整個領域向前發展的最先進技術,在語言理解方面還部署了一些人工智慧突破技術,以改進Google搜尋。在大型科技公司內部,用於審查尖端人工智慧的倫理影響的制衡系統並不像隱私或資料安全那麼完善。通常,AI 研究人員和工程師團隊會就他們的發現發表論文,將他們的技術整合到公司現有的基礎設施之中,或開發新產品,這個過程有時候會與其他致力於開發負責任的人工智慧的團隊發生衝突,因為前者面臨壓力,希望創新能更快地為公眾所接受。 

2018 年,在為五角大樓無人機提供電腦視覺的 Project Maven 專案遭遇員工抗議,以及消費者對(可以給飯店打電話並在不披露自己是機器人的情況下預訂的)人工智慧系統 Duplex 的示範表示強烈反對之後,Google公布了自己的人工智慧原則。去年 8 月,Google開始透過其 app AI Test Kitchen 向消費者提供限定版的 LaMDA 。據前Google軟體工程師 Blake Lemoine 表示,儘管Google原先打算在 2022 年底面向公眾全面推出,但目前並沒有這麼做。Blake Lemoine 已經開始相信,LaMDA 是有意識的。 

在過去一年左右的時間裡,Google的頂級 AI 研究人員紛紛離職,並圍繞著大型語言模型創辦自己的初創企業,其中包括了 Character.AI、Cohere、Adept、Inflection.AI 與Inworld AI,此外,還有一些搜尋初創企業用類似模型開發聊天介面,比方說 Neeva ,這也是由前Google高管 Sridhar Ramaswamy 營運的。 

Character.AI 創始人 Noam Shazeer 幫助發明了 Transformer 與其他的核心機器學習架構。他表示,使用者資料產生的飛輪效應價值無可估量。Character.AI 是一個聊天機器人生成工具,任何人都根據對真人或虛構人物的簡短描述生成聊天機器人。他第一次將使用者回饋應用於 Character.AI 時,該工具的參與度就提高了 30% 以上。 

Nick Frosst 曾在 Google Brain 工作過三年,後來與人共同創立了 Cohere,這是一家總部位於多倫多的初創公司,致力於開發可幫助企業的可定制大型語言模型。Nick Frosst 表示,像Google和微軟這樣的大公司往往把注意力放在利用人工智慧來改進自己現有的龐大的商業模式上。Cohere 的聯合創始人之一 Aidan Gomez 在Google工作時也幫助發明了 transformers。 

Frosst 說:「這個領域發展得太快了,小公司成為領導者對我來說並不奇怪」。 

過去十年,人工智慧經歷了多個炒作週期,但儘管如此,對 DALL-E 和 ChatGPT 的狂熱還是炒作出了新高度。 

OpenAI 推出 ChatGPT 後不久,Twitter 上的科技網紅就開始預測生成式人工智慧會終結Google搜尋的霸主地位。ChatGPT 以易於造訪的方式提供簡單的答案,而且不要求使用者點擊藍色連結。此外,經過 25 年的發展之後,Google的搜尋介面已經變得臃腫,廣告和行銷人員都試圖操縱這個系統。 

科技專家 Can Duruk 在他的 Newsletter 中寫道:「鑒於他們的壟斷地位,山景城那幫人已經 [讓] 他們曾經令人難以置信的搜尋體驗退化為垃圾郵件氾濫、SEO 助紂為虐的地獄」——山景城是Google的總部所在地。 

在匿名聊天 app Blind 上,科技工作者發表了數十個問題,直指這家矽谷巨頭還有沒有競爭力。 

知名研究科學家 David Ha 最近也離開了 Google Brain,加盟開源的文本生成圖像初創公司 Stable Diffusion。他在 Twitter 上表示:「如果Google再不齊心協力開始去交付,他們將會消失在歷史之中,因為儘管這家公司培養和培訓了整整一代的機器學習研究人員和工程師,但這些人都跑到別的公司去部署這項技術了」。 

據Google內部員工表示,仍留在Google的人工智慧工程師分享了自己的挫敗感,多年來,員工們一直在堅持發內部備忘錄,要求將聊天功能整合到搜尋之中,認為這將是一次明顯的進化。但他們也明白,除了用回答回應查詢會抹除線上廣告的寶貴空間確實是事實外,Google不倉促切換搜尋產品也有正當理由。如果發現回復有害或存在剽竊,直接從Google指向答案的聊天機器人可能會增加Google的責任負擔。 

像 OpenAI 的 ChatGPT 這樣的聊天機器人經常會犯一些事實性的錯誤,而且經常會根據提問方式的不同而改變答案。一位前Google AI 研究員表示,從提供一系列直接連結到源頭的查詢答案,到用聊天機器人給出單一、權威的答案,這將是一此讓Google內部許多人都感到緊張的重大轉變。該人士表示,該公司不想承擔提供此類單一答案的角色或責任。以前對搜尋的更新,比方說添加即時答案,都是緩慢而謹慎地完成的。 

然而,在Google內部,人工智慧安全流程的部分挫敗感源自那種尖端技術從來都沒有當作產品發布過的感覺,這是因為公司擔心負面影響——比如說,如果人工智慧模型表現出偏見的話。 

據一位熟悉公司內部審議情況的要求匿名人士透露,Meta 員工還被迫應對公司對糟糕公關的擔憂。這位知情人士說,在推出新產品或發表研究之前,Meta 員工必須回答有關宣傳自己的工作存在哪些潛在風險的問題,其中就包括自己做的東西可能會如何被被別人誤解。一些專案要交給公關人士以及內部合規專家審查,由他們來確保公司的產品符合 2011 年美國聯邦貿易委員會就公司應該如何處理使用者資料的協定。 

據非營利組織 Distributed AI Research Institute 執行主任 Timnit Gebru 表示,Google把負責任 AI 團隊擱置一邊的預期未必就意味著權力或安全關切的轉變,因為那些存在潛在危害的警告事項從來都沒有獲得開始的授權。 Gebru 表示:「如果幸運的話,我們會被邀請參加一個會議」。Gebru 曾幫助領導過Google的人工智慧倫理團隊,但後來因一篇批評大型語言模型的論文而被解雇。 

從 Gebru 的角度來看,Google發表人工智慧工具的速度很慢,因為他們擔心公司聲譽會受到打擊,而且Google也缺乏足夠強大的商業動機。 

Gebru 說,ChatGPT 發布後,Google也許是看出了把這些模型作為消費者產品、而不僅僅是給搜尋或線上廣告提供支援、進而轉變賺錢方式的能力。現在他們可能認為這對他們的核心業務構成了威脅,所以也許他們應該去冒一冒險。」 

Rumman Chowdhury 之前一直是 Twitter 機器學習倫理團隊的負責人,直到馬斯克入主後將其解雇。 

她說:「我們以為踢美國屁股的會是中國,但扮演這個角色的似乎是美國的初創企業」。

36Kr
作者

36氪(36Kr.com)累計發表超過10.8萬條包含圖文、音訊、影片在內的優質內容。氪原創內容體系涵蓋新創公司、大公司、投資機構、地方產業與二級市場等內容模組,設置有快訊、深度商業報導

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則