DeepMind 創辦人德米斯·哈薩比斯(Demis Hassabis)近期發出沉重警告,坦言自己研發的超級人工智慧(AI)確實存在滅絕人類的風險 。更令人擔憂的是,當前的 AI 發展競賽已經進入失控狀態,人類很難再透過外部的治理手段來有效管控 。
過去的防線全面崩潰
哈薩比斯徹底放棄了過去仰賴制度與倫理委員會來約束 AI 的構想 。他承認,這些治理結構在關鍵決策中幾乎起不了作用,現在只能靠自己去爭取話語權,試圖把控 AI 的安全走向 。
回顧過去,哈薩比斯一直都是 AI 安全的堅定倡議者 。早年他曾設想透過獨立監督、秘密研發等方式,打造出絕對安全的超級智能 。時間回到 2014 年,當他將 DeepMind 賣給 Google 時,還特別要求保留 AI 安全的獨立決策權、設立外部監督委員會,並明令禁止將技術用於軍事用途 。
理想與現實的拉扯,局勢失控的轉捩點
然而,這些理想中的安全構想接連破滅 。馬斯克(Elon Musk)在參與相關集會後,轉而創立了 OpenAI,直接打破了由單一主體管控 AI 的設想 。後續 DeepMind 與 Google 的治理權談判也宣告破裂 。
到了 2022 年,ChatGPT 的橫空出世更是徹底打亂了整個 AI 界的研發節奏 。
商業利益凌駕安全規範
面對競爭對手的強勢進逼,Google 陷入了極大的焦慮,最終促成 DeepMind 與 Google 大腦(Google Brain)合併 。在這樣的壓力下,安全規範只能讓位給研發速度,先前的安全防線也逐步瓦解 。哈薩比斯因此認清現實:在龐大的商業競爭與技術軍備競賽壓力下,依附於科技巨頭的非營利治理機制根本難以存活 。
如今,哈薩比斯的策略已經大轉彎 。他的核心主張是讓自己穩坐核心決策的位置,憑藉著對 AI 風險的敬畏之心,在關鍵節點把控技術方向 。他一邊推進 Gemini 等模型的研發,一邊死守安全底線,試圖用個人的影響力來降低 AI 失控的風險 。
業界分析指出,哈薩比斯這番態度的轉變,無疑反映了全球 AI 競賽殘酷的現狀 。要達成全球統一的 AI 治理已經是不可能的任務,而防範 AI 失控的安全黃金期正在持續收窄,人類正步入一場攸關文明存續的巨大挑戰 。
- 延伸閱讀:前OpenAI共同創辦人蘇茨克維的AI安全公司SSI成立僅11週,估值已超50億美元
- 延伸閱讀:OpenAI安全控管團隊已經實質解散,超級對齊團隊主管爆料:利益至上前提下安全專家只能坐冷板凳
- 延伸閱讀:OpenAI發佈AI安全指南,明確表示董事會有權阻止新AI模型發佈
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!