Meta首席科學家楊立昆:想要發展沒有偏見的AI「絕對不可能」

Meta首席科學家楊立昆:想要發展沒有偏見的AI「絕對不可能」

Meta首席人工智慧科學家楊立昆(Yann LeCun)認為,創造一個沒有偏見的人工智慧系統的可能性為零。

上週,在Lex friedman Podcast的一期節目中,楊立昆討論了「覺醒AI」的概念,這個術語被用來描述對社會問題過於敏感的人工智慧系統。

楊立昆認為,不可能建立一個沒有偏見的人工智慧系統,因為偏見是主觀的,並且因人而異。 他建議解決方案是擁有多樣化的人工智慧系統。

楊立昆說:「是否有可能產生一個沒有偏見的人工智慧系統? 答案是,絕對不可能。 這並不是因為技術挑戰,儘管它們確實是技術挑戰,但這是因為偏見是因人而異的。」

他接著說,「不同的人可能對很多事情的偏見有不同的看法,有些事實是不爭的,但有很多觀點或事情可以用不同的方式表達。所以你不可能有一個公正的系統,這是不可能的。」

楊立昆強調了開源AI系統的重要性,指出未來人類與數位世界的互動將由AI來調解。他警告說,不能讓美國西海岸的幾家公司在未來控制所有AI系統,並強調AI開發需要多樣性。

「反覺醒文化」的Grok也沒什麼不同

馬斯克先前也推出標榜「反覺醒文化」的 AI 聊天機器人Grok,號稱能給出政治不正確的回覆。官方表示,Grok 個性「有點聰明、有點叛逆」,而且能回答其他 AI 可能會迴避的「尖銳問題」,如果沒有幽默感的人,官方建議不要使用。

但是,根據臨床心理學家 Jordan Peterson 實測,表示他發現Grok除了講話比較不禮貌之外,ChatGPT 和 Grok 兩者的「覺醒」程度其實差距並不大。他認為,這是因為用來訓練Grok的資料集,與其它聊天機器人的資料集來源差不多。

當時馬斯克之後也回應表示,這是因為用來訓練 Grok 的資料本已充斥著覺醒文化的內容。希望在以後的階段會進步。

 

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則