減少 AI 帶來的滅絕風險,三大 AI 巨頭 CEO聯合 350 位專家簽署 22 字聲明

減少 AI 帶來的滅絕風險,三大 AI 巨頭 CEO聯合 350 位專家簽署 22 字聲明

根據彭博社報導,非營利組織人工智慧安全中心(Center for AI Safety)本週二發佈簡短聲明表示,人工智慧專家、記者、政策制定者和公眾正在越來越多地討論來自人工智慧的廣泛的重要和緊迫的風險。即便如此,要表達對一些先進的人工智慧最嚴重的風險的擔憂可能是困難的。

因此,以下簡潔的聲明旨在克服這一障礙並開啟討論。這也是為了讓越來越多的專家和公眾人物對先進的人工智慧的一些最嚴重的風險有共同的認識,他們也會認真對待。

減少 AI 帶來的滅絕風險,三大 AI 巨頭 CEO聯合 350 位專家簽署 22 字聲明

將減輕人工智慧帶來的滅絕風險,放在和流行病、核戰等社會問題同一高度,作為全球優先事項推進」。

這項 22 字的倡議已得到了多位 AI 行業大佬的支援,超過 350 位 AI 領域高層和專家簽署了這份聲明。主要人物如下:

  • Google DeepMind 首席執行長戴米斯・哈薩比斯(Demis Hassabis)

  • OpenAI 首席執行長山姆・奧特曼(Sam Altman)

  • 「AI 教父」傑弗里・辛頓(Geoffrey Hinton)

  • 2018 年圖靈獎得主約書亞・本希奧(Youshua Bengio)

  • Anthropic 的首席執行長達里奧・阿莫代(Dario Amodei)

馬斯克、班吉歐聯名呼籲的「暫停開發先進AI」公開信

這很容易讓人回想起來不久之前,馬斯克等人發起「暫停開發先進AI」的那封公開信,也是對於AI的發展表示了憂慮。

在這封聯名公開信中,他們提出了三個方面的需求和建議舉措: 

首先、立即暫停比GPT-4更先進的AI系統訓練,時間至少是6個月。 

這一要求是涵蓋了所有的人工智慧實驗室,尤其是這當中的關鍵參與者。 

並且暫停舉措必須是公開、可驗證的。如果AI機構不能立即實施,那麼政府應該介入強制執行。 

其次,利用這段時間,開發和實施一套共用安全協議,用於高級人工智慧設計和開發,並由獨立外部專家進行嚴格審核和監督。 

信中還明確指出:這並不意味著總體限制一般人工智慧的發展,而是從目前危險的競技中退後一步,避免更強大、更不可預測的黑箱模型和新興能力出現。 

人工智慧的研究和發展,應該重新聚焦於朝著更準確、安全、可信可解釋等的AI系統開發工作上來。 

第三,開發者應同政策制定者一道,共同加速開發人工智慧治理系統。這個治理系統至少包括: 

  • 專門負責人工智慧的全新監管機構;
  • 監督和跟蹤高能力的AI系統和大型算力池;
  • 注明出處和浮水印系統,説明區分真實和合成、以及跟蹤模型洩露;
  • 健全的審計和認證生態系統;
  • 對人工智慧造成的傷害進行責任認定;
  • 為人工智慧安全技術研究提供強大的公共資金;
  • 以及提前預防人工智慧導致的巨大經濟政治破壞。

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則