馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

5月30日,世界級紅人馬斯克(Elon Musk)發了一條推文稱:「2029年是關鍵的一年,如果那時候我們還沒有實現通用人工智慧(Artifical General Intelligence,AGI),我會覺得很奇怪。火星上的人們也一樣(覺得奇怪)。」

強人工智慧(Strong AI)或稱通用人工智慧(Artificial General Intelligence),意思是指具備與人類同等智慧或超越人類的人工智慧,能表現出正常人類所具有的所有智能行為。

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

馬斯克發推不久,知名人工智慧科學家、紐約大學心理系教授 Gary F. Marcus 立即寫了一篇部落格文章回應馬斯克,從五個方面向馬斯克「科普」了通用人工智慧的知識,提出自己認為 2029 年不可能實現 AGI 的原因。

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

對於 Gary Marcus 的回應,馬斯克還沒回覆。聖達菲研究所的人工智慧專家梅蘭妮・米切爾(Melanie Mitchell)建議把賭注放在 longbets.org 網站上,Marcus 稱只要馬斯克願意打賭,自己就欣然赴約。

以下是 Gary Marcus 反駁馬斯克的五個理由:

馬斯克是個「吹牛」預言家

第一,馬斯克對時間的預測總是不太準確。2015 年時,馬斯克說距離真正的自動駕駛汽車出現還有兩年時間;從那以後他每年都說同樣的話,但真正的自動駕駛汽車到現在還沒出現。

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

馬斯克不關注邊緣案例的挑戰

其次,馬斯克應該更多地關注邊緣情況(也就是異常值,或不尋常的情況)的挑戰,並思考這些異常值對預測可能意味著什麼。

因為長尾問題,我們很容易認為 AI 問題比實際情況要簡單得多。我們手上有大量的關於日常事務的資料,當前的技術很容易處理這些資料,這就會誤導我們,給我們一種錯誤的印象;而對於罕見的事件,我們得到的資料非常少,且目前的技術很難去處理這些資料。

我們人類擁有大量的不完全信息推理的技巧,也許可以克服生活中的長尾問題,但對於目前流行的、更多依賴大資料而非推理的人工智慧技術來說,長尾問題是一個非常嚴重的問題。

2016 年,在一篇題為「Is Big Data Taking Us Closer to the Deeper Questions in Artificial Intelligence?」的採訪中,Gary Marcus 試圖就此發出警告,他當時是這麼說的:

「儘管有很多關於人工智慧的炒作,也有很多資金投入人工智慧,但我覺得這個領域正朝著錯誤的方向發展。在深度學習和大資料這些特定的方向上,目前有很多唾手可得的成果。人們對大資料以及大資料現在給他們帶來的東西感到非常興奮,但我不確定它是否會讓我們更接近人工智慧中更深層的問題,比如我們如何理解語言或我們如何推理世界。……再想想無人駕駛汽車。你會發現在一般情況下,無人駕駛汽車是很棒的。如果你把它們放在天氣晴朗的地方,車輛功能會非常棒。但如果你把車輛放在下雪或下雨的地方,或者以前沒見過的地方,這些汽車就難免出問題。」

Steven Levy 寫了一篇關於Google自動汽車廠的文章,文章中他談到了 2015 年底的研究讓他們終於讓系統能夠識別樹葉。系統確實能識別葉子,但對於不常見的東西,就不能獲得那麼多的資料。人類之間可以用常識來溝通。我們可以試著弄清楚這個東西是什麼,它是怎麼到那裡的,但是系統能做的只是記憶東西,這才是真正的限制。

異常值並不是完全無法解決,但仍然是一個重大問題。Marcus 認為人們必須擺脫對深度學習等現有技術的嚴重依賴。距離 2029 年還有 7 年,7 年是很長的一段時間,但是如果要在這個十年結束之前實現 AGI,這個領域就需要在其他想法上進行投資。否則,僅僅是異常值就足以使實現 AGI 的目標失敗。

通用人工智慧範圍很廣

馬斯克需要考慮的第三件事是,AGI 是一個涉及面很廣的問題,因為智慧本身的涉及面很廣。Marcus 在此處引用了 Chaz Firestone 和 Brian Scholl 的這句話:「世上並不只有一種思維方式,因為思維並不是一個整體。相反,思維是可以分為部分的,而且其不同部分以不同的方式運作:『看到顏色』與『計畫度假』運作的方式不同,而『計畫度假』與『理解一句話』、『移動肢體』『記住一件事』或『感受一種情緒』都不同。」

例如,深度學習在識別物體方面做得相當不錯,但在計畫、閱讀或語言理解方面做得差一些。這樣的情況可以用下圖表示:

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

目前的 AI 在某些感知方面做得很好,但是在其他方面仍需努力。即使在感知中,3D 感知仍然是一個挑戰,情境理解也沒有解決。對於常識、推理、語言或類比等幾個領域,仍然沒有任何穩定或值得信賴的解決方案。事實是,這張餅狀圖 Marcus 已經用 5 年了,AI 的情況卻幾乎沒有改變。

四年過去了,許多人仍然希望深度學習能成為萬能藥;可這對 Marcus 來說仍然是不現實的,他仍然認為人類需要更多的技術。實事求是地說,7 年可能不足以發明這些工具(如果它們還不存在的話),也不足以將它們從實驗室投入生產。

複雜的認知系統尚未打造

馬斯克需要意識到的第四件事是,人類仍然沒有一個適當的方法論來構建複雜的認知系統。

複雜的認知系統有太多的活動部件,這通常意味著,製造無人駕駛汽車等東西的人最終就像在玩一個巨大的「打地鼠遊戲」,往往剛解決了一個問題,又出現了另一個問題。一個補丁接一個補丁有時能派上用場,有時則無效。Marcus 認為不可能在不解決方法論問題的情況下得到 AGI,而且他認為目前還沒有人提出好的建議。

使用深度學習進行調試非常困難,因為沒有人真正理解它是如何工作的,也沒有人知道如何修復問題,以及收集更多資料和添加更多層等等。福斯所知道的那種調試在經典程式環境中並不適用;因為深度學習系統是如此不可解釋,所以人們不能通過相同的方式思考程式在做什麼,也不能指望通常的消除過程。相反,現在在深度學習範式中,有大量的試錯、再訓練和重新測試,更不用說大量的資料清洗和資料增強實驗等等。Facebook 最近的一份報告坦率地說,在訓練大型語言模型 OPT 的過程中遇到了很多麻煩。

有時候這更像是煉金術而不是科學,正如下圖一樣:

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

程式驗證可能最終會有所幫助,但同樣,在深度學習中還沒有編寫可驗證程式碼的工具。如果馬斯克想贏這個賭約,那他們可能也要解決這個問題,而且得很快解決。

打賭標準

馬斯克需要考慮的最後一件事是賭約的標準。如果要打賭就要制定基本規則。AGI 這個術語相當模糊,就像 Marcus 前幾天在 Twitter 上說的那樣:「我把 AGI 定義為靈活而通用的智力,具有可與人類智慧相媲美、或超過人類智慧的智謀和可靠性。」

馬斯克說 2029年會實現通用人工智慧,紐約大學教授說馬斯克又在吹牛:賭十萬美元不會

Marcus 還提出要跟馬斯克賭一把,並制定實際的打賭規則。他和 Ernie Davis 根據與 Metaculus 公司合作的人的要求寫下了以下五個預言:

  • 到 2029 年,AI將仍然無法觀看電影並準確地告訴你正在發生的事情(我在 2014 年的《紐約客》中稱之為理解挑戰)。也無法解答出這些角色是誰?他們的衝突和動機是什麼等問題?
  • 到 2029 年,AI將仍無法閱讀小說並可靠地回答有關情節、人物、衝突、動機等的問題。
  • 到 2029 年,AI將仍無法在任合廚房中擔任稱職的廚師。
  • 2029 年,AI將仍無法透過自然語言規範或與非專家用戶的互動,可靠地構建超過 10,000 行的無錯誤程式碼。
  • 2029 年,AI能仍將無法從用自然語言編寫的數學文獻中獲取任意證明,並將其轉換為適合符號驗證的符號形式。

如果馬斯克(或其他人)在 2029 年成功打破至少三個預言,那他就贏了;如果只打破了一兩個,則不能說 AGI 能夠實現,贏家就是 Marcus。對於這個賭約,Marcus 躍躍欲試並對馬斯克說:「想要打賭嗎?賭 10 萬美元怎麼樣?」

馬斯克當然不在乎這10萬美元,不過他也不喜歡輸的感覺,目前還不知道他會不會接受這項挑戰。

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則