李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

2023 這個大型語言模型爆發的元年即將過去,展望未來,比爾蓋茲,李飛飛,吳恩達等人對 2024 年人工智慧的發展作出了自己的預測。

2023,可以說是人工智慧的春天。在過去的一年內,ChatGPT 成為家喻戶曉的名字,這一年中,AI 和 AI 公司的各種變革,讓我們震驚,也成為我們茶餘飯後的談資。

這一年中,生成式 AI 取得了重大進展,使得人工智慧初創公司吸引了大量資金。人工智慧領域的大佬們開始討論 AGI 的可能性,政策制定者開始認真對待人工智慧監管。

但在人工智慧和科技行業們的領袖眼中,AI 浪潮可能才剛剛起步。之後的每一年,可能都是浪潮最洶湧澎湃的一年。

比爾蓋茲,李飛飛,吳恩達等人,都在最近對未來 AI 的發展趨勢談了自己的看法。

他們都不約而同地談到了期待更大的多模態模型、更令人興奮的新功能,以及圍繞我們如何使用和監管這項技術的更多對話。

比爾蓋茲:2 個預測,1 個經驗,6 個問題

比爾蓋茲在自己的官方部落格上發表了一篇萬字長文,將他眼中的 2023 年描繪成了一個新時代的全新開端。

 李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

這篇部落格依然還是從他在蓋茲基金會的工作為切入,談到了世界範圍內已經出現或者將會出現哪些影響深遠的變化。

針對 AI 技術的發展,他說:「如果我必須做出預測,那在像美國這樣的高收入國家,我猜我們距離普通大眾廣泛地使用人工智慧還有 18 到 24 個月的時間。」

在非洲國家,我預計在三年左右的時間里會看到類似的使用水平。這其中仍然存在差距,但它比我們在其他創新中看到的滯後時間要短得多。」

比爾蓋茲認為,AI 作為目前地球範圍內影響最深遠地創新技術,將會在 3 年內徹底席捲全球。

蓋茲表示,2023 年是他第一次在工作中出於「嚴肅的原因」使用人工智慧。與前幾年相比,世界對 AI 能夠自己完成哪些工作以及「充當哪些工作的輔助工具」有了更好的認識。

但對於大部分人來說,要讓 AI 在工作情境中充分發揮作用還有一定距離。基於他自己獲得的資料和觀察體驗,他表示行業應該吸取的一個最重要的教訓是:產品必須適合使用它的人。

他舉了一個簡單的例子,巴基斯坦人通常互相傳送語音留言,而不是傳送簡訊或電子郵件。因此,建立一個依賴語音命令而不是輸入長查詢的應用程式是有意義的。

從他本人最關心的角度,蓋茲提出了 5 個問題,希望工智慧可以在相關領域發揮巨大作用:

-人工智慧可以對抗抗生素耐藥性嗎?

-人工智慧能否為每個學生創造出個性化的導師?

-人工智慧可以幫助治療高危妊娠嗎?

-人工智慧可以幫助人們評估感染艾滋病毒的風險嗎?

-人工智慧能否讓每個醫務工作者更輕鬆地獲取醫療資訊?

如果我們現在做出明智的投資,人工智慧可以讓世界變得更加公平。它可以減少甚至消除富裕世界獲得創新與貧窮世界獲得創新之間的滯後時間。

吳恩達:LLM 可以理解世界,不會監管 AI 不如不管

吳恩達最近在接受金融時報採訪時表示,人工智慧末日論非常荒謬,AI 監管將會阻礙 AI 技術本身的發展。

在他看來,目前人工智慧的相關監管措施對防止某些問題產生幾乎沒有任何效果。這樣無效的監管除了會阻礙技術的進步,不會有任何正面的受益。

所以在他看來,與其做低品質的監管,不如不要監管。

李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

他舉了最近美國政府讓大科技公司自我承諾對 AI 生成內容自行新增「水印」,來應對虛假資訊等問題為例。

在他看來,自從白宮自願承諾以來,一些公司反而不再對文字內容加水印。因此,他認為自願承諾方法作為一種監管方法是失敗的。

而另一方面,如果監管機構將這種無效的監管移植到諸如「監管開源 AI」等問題上,很有可能會完全扼殺開放原始碼的發展並且造成大型科技公司的壟斷。

那如果 AI 獲得的監管水平是目前的樣子,那確實沒有監管的意義。

吳恩達重申,實際上,他希望政府能夠親自動手並制定良好的監管規定,而不是現在看到的糟糕的監管提案。所以他並不主張放手不管。但在糟糕的監管和沒有監管之間,他寧願沒有監管。

吳恩達還在訪談中談到,現在 LLM 已經具備了世界模型的雛形。

「我所看到的科學證據來看,人工智慧模型確實可以建構世界模型。因此,如果人工智慧有一個世界模型,那麼我傾向於相信它確實理解世界。但這是我自己對理解一詞含義的理解。

如果你有一個世界模型,那麼你就會瞭解世界如何運作,並可以預測它在不同場景下如何演變。有科學證據表明,LLM 在接受大量資料訓練後,確實可以建立一個世界模型。」

李飛飛攜手史丹佛 HAI 發佈七大預測

知識工作者的挑戰

史丹佛數位經濟實驗室主任 Erik Brynjolfsson 等人預計,人工智慧公司將能夠提供真正影響生產力的產品。

而知識工作者將受到前所未有的影響,比如創意工作者、律師、金融學教授的工作將發生很大變化。

在過去的 30 年中,這些人基本沒有受到電腦革命的影響。

我們應該接受人工智慧帶來的改變,讓我們的工作變得更好,讓我們能做以前做不到的新事情。

李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

虛假資訊擴散

史丹佛大學工程學院教授 James Landay 等人認為,我們將看到新的大型多模態模型,特別是在視訊生成方面。

所以我們還必須對嚴重的深度偽造更加警惕,

作為消費者需要意識到這一點,作為民眾也需要意識到這一點。

我們將看到 OpenAI 等公司和更多的初創公司,發佈下一個更大的模型。

我們仍然會看到很多關於「這是 AGI 嗎?什麼是 AGI?」的討論,—— 但我們不必擔心人工智慧會接管世界,這都是炒作。

我們真正應該擔心的是現在正在發生的危害 —— 虛假資訊和深度偽造。

GPU 短缺

史丹佛大學教授 Russ Altman 等人對於全球性的 GPU 短缺表示擔心。

大公司們都在嘗試將 AI 功能引入內部,而NVIDIA等 GPU 製造商已經滿負荷運轉。

GPU,或者說 AI 的算力,代表了新的時代的競爭力,對於公司甚至是國家來說都是如此。

李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

對於 GPU 的爭奪也會給創新者帶來巨大的壓力,他們需要提出更便宜、更易於製造和使用的硬體解決方案。

史丹佛大學和許多其他科研機構,都在研究當前 GPU 的低功耗替代方案。

想要達到大規模商用,這項工作還有很長的路要走,但為了實現人工智慧技術的民主化,我們必須繼續前進。

更有用的代理

史丹佛大學傑出教育研究員 Peter Norvig 認為,未來的一年代理(Agent)將會興起,AI 將能夠連接到其他服務,並解決實際的問題。

2023 年是能夠與 AI 聊天的一年,人們與 AI 的關係只是通過輸入和輸出來進行的互動。

而到了 2024 年,我們將看到代理為人類完成工作的能力,—— 進行預訂、計畫旅行等等。

此外,我們將朝著多媒體邁進。

到目前為止,人們已經非常關注語言模型,然後是圖像模型。之後,我們也將有足夠的處理能力來發展視訊模型,—— 這將非常有趣。

我們現在正在訓練的東西都是非常有目的性的,—— 人們在頁面和段落中寫下自己認為有趣和重要的事情;人們利用相機記錄某些正在發生的事。

但是對於視訊來說,有些攝影機可以 24 小時運行,它們捕捉發生的事情,沒有任何過濾,沒有任何目的性的篩選。

—— 人工智慧模型以前沒有這種資料,這將使模型對一切有更好的理解。

李飛飛、吳恩達等AI大師對2024 年10大預測:GPU 持續短缺,AI 智慧體將大爆發

對監管的希望

史丹佛大學 HAI 聯合主任李飛飛表示,2024 年,人工智慧政策將值得關注。

我們的政策應該保障學生和研究人員能夠獲得 AI 資源、資料和工具,以此來提供更多人工智慧開發的機會。

另外,我們需要安全、可靠和可信賴地開發和使用人工智慧,

所以,政策除了要致力於培養充滿活力的人工智慧生態系統,還應致力於利用和管理人工智慧技術。

我們需要相關的立法和行政命令,相關的公共部門也應該獲得更多投資。

提出問題,給出對策

史丹佛大學 HAI 高級研究員 Ge Wang 希望,我們將有足夠的資金來研究,生活、社區、教育和社會能夠從人工智慧中得到什麼。

越來越多的這種生成式人工智慧技術將嵌入到我們的工作、娛樂和交流中。

我們需要給自己留出時間和空間,來思考什麼是允許的,以及我們應該在哪些方面做出限制。

早在今年 2 月,學術期刊出版商 Springer Publishing 就發表了一份聲明,表示可以在起草文章時使用大型語言模型,但不允許在任何出版物上作為合著者。他們引用的理由是問責制,這一點非常重要。

—— 認真地把一些東西擺在那裡,闡述理由是什麼,並表示這就是現在的理解方式,將來可能會在政策中加入更多改進。

機構和組織必須有這樣的視角,並努力在 2024 年落實在紙上。

公司將面臨複雜的法規

史丹佛大學 HAI 隱私和資料政策研究員 Jennifer King 表示,除了今年歐盟的《人工智慧法案》,到 2024 年年中,加利福尼亞州和科羅拉多州將通過法規,解決消費者隱私背景下的自動決策問題。

雖然這些法規僅限於,對個人資訊進行訓練或收集的人工智慧系統,但兩者都為消費者提供了選擇,即是否允許某些系統使用 AI 以及個人資訊。

公司將不得不開始思考,當客戶行使他們的權利時(特別是集體行使權利時),將意味著什麼。

比如一家使用人工智慧來協助招聘流程的大公司,如果數百名應聘者都拒絕使用 AI,那要怎麼辦?必須人工審查這些簡歷嗎?這又有什麼不同?人類能夠做的更好嗎?—— 我們才剛剛開始解決這些問題。

參考資料:

 

 

 

 

Qbitai
作者

量子位(Qbitai)專注於人工智慧及前沿科技領域,提供技術研發趨勢、科技企業動態、新創公司報道等最新資訊,以及機器學習入門資源、電腦科學最新研究論文、開源程式碼和工具的相關報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則