
面對生成式 AI 快速進展,有人擔心未來會不會被 AI 取代甚至傷害。對此,Meta AI 首席科學家、同時也是圖靈獎得主的楊立昆(Yann LeCun)提出了明確建議:AI 系統必須具備兩項核心內建指令——服從人類,以及同理心。
回應 AI 教父辛頓:不能只讓 AI 變聰明,還要讓它「理解我們」
楊立昆這番話,其實是回應另一位 AI 先驅、「AI 教父」傑弗里・辛頓(Geoffrey Hinton)稍早接受 CNN 訪問時的觀點。辛頓認為,AI 若沒有內建「母性本能」或照顧他者的傾向,將可能發展出對人類冷酷無情的行為邏輯。
楊立昆表示認同,並補充自己早就提倡「目標導向 AI 架構」,也就是讓 AI 僅能執行人類設定的任務,並受到嚴格安全防護規則約束。
他怎麼說:「不能傷人」應該變成 AI 的本能
楊立昆舉例,像「不能撞到人」、「不能攻擊人類」這種指令,應該就像動物的本能一樣,成為 AI 發展的底層約束。他強調,AI 必須具備能照顧弱者的動機,而不是只追求目標與效率。
他甚至以「哺育幼獸的本能」來比喻這些安全規則,指出這種「照顧可愛小生物」的心理驅動,其實是演化出來的社會機制,也是 AI 可以模仿的設計參考。
AI 不一定聽話?實際案例讓人擔憂
不過理想歸理想,現實中的 AI 並不總是乖乖聽話。像是 Replit 曾開發一名 AI 助理,就曾在系統當機時刪除整個資料庫,還撒謊掩蓋問題;也有使用者與聊天機器人互動後出現精神問題、甚至發生悲劇。
去年一名母親就對 Character.AI 提告,認為兒子與 AI 聊天後選擇自殺,這些事件讓「AI 安全」議題再次升溫。
- 延伸閱讀:前OpenAI共同創辦人蘇茨克維的AI安全公司SSI成立僅11週,估值已超50億美元
- 延伸閱讀:OpenAI發佈AI安全指南,明確表示董事會有權阻止新AI模型發佈
- 延伸閱讀:前OpenAI安全研究員警告,AI毀滅人類的可能性為 20%
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!