AI大賽中Google、微軟把「道德」放在哪裡?內部員工曾因倫理擔憂曾試圖阻止

AI大賽中Google、微軟把「道德」放在哪裡?內部員工曾因倫理擔憂曾試圖阻止

當今最熱的科技話題非AI莫屬。但是,並非所有人都對此滿懷期待。據媒體的最新曝光,兩名前Google員工表達了他們對公司發佈新的AI聊天機器人的擔憂。

今年3月,兩名負責審查AI產品的Google員工試圖阻止該公司推出自己的AI聊天機器人,他們認為該技術會產生「不精準和危險的陳述」。

幾個月前,微軟的倫理學家也提出了類似的擔憂。他們認為,這種AI聊天機器人將令使用者批判性思維的退化,同時可能會充斥虛假資訊和侵蝕“現代社會的事實基礎”。

儘管如此,微軟依然在2月發佈了其內建在Bing搜尋引擎的聊天機器人;一個月後,Google在3月底發佈了其Bard聊天機器人。

媒體分析指出,這些通常在規避風險方面十分謹慎的大公司,之所以在AI領域一反常態採取激進的舉措,是為了在下一場可能的科技競賽中佔得先機。

ChatGPT的成功,導致企業願意冒更大風險

根據多名員工及內部檔案的闡述,ChatGPT的驚人成功導致微軟和Google願意承擔更大的風險。微軟技術主管Sam Schillace上個月傳送的一封內部電子郵件稱,第一個推出相關產品的公司將是長期贏家,有時候兩家公司的差距僅僅以周為單位。

自發佈以來,圍繞這些AI機器人的倫理爭議就持續不斷。包括馬斯克在內的1000多名技術領域的研究人員和意見領袖不久前發佈一封公開信表達了對AI帶給社會影響的擔憂,他們呼籲放慢相關技術的發展步伐。

監管機構已經準備對AI技術進行干預。歐盟提議立法監管人工智慧,義大利上週暫時禁止ChatGPT。在美國,白宮和國會也在尋求對AI更強有力的監管。

更令外界擔憂的是,上個月底,微軟、Meta、Google、亞馬遜和Twitter等公司都裁減了“負責任的人工智慧團隊”成員,這些團隊主要為使用人工智慧的消費產品的安全性提供建議。

業內專家對此表示,各大科技公司裁減相關人員的決定令人擔憂,因為隨著越來越多的人開始試用新的人工智慧工具,人們發現了這項技術可能被濫用。在OpenAI推出ChatGPT並取得成功後,人們的這種擔憂進一步加劇。

DeepMind的前研究員也表示憂心

為了追上微軟等對手,Alphabet CEO 皮查伊(Sundar Pichai)上週四宣佈,把Google研究的大腦團隊和 Alphabet 旗下 AI 公司 DeepMind 合併為一個部門。DeepMind CEO 傑密斯・哈撒米斯(Demis Hassabis)將負責領導新合併的部門。

這一項任命,使得DeepMind在Google的戰略中佔有更重要的位置。

不過,在此同時,DeepMind的前倫理和政策研究員、研究機構Ada Lovelace Institute副主任Andrew Strait表示:令人震驚的是,現在可以說是比以往任何時候都需要更多這類團隊的時候,但這些團隊的成員被解僱了。

今年1月,微軟解散了其「道德和社會」團隊,該團隊領導了微軟在相關領域的早期工作。微軟表示,裁員人數不到10人,公司負責人工智慧的辦公室仍有數百人在工作。

微軟人工智慧業務主管Natasha Crampton稱:「我們已經顯著增加了‘負責任的人工智慧’努力,並努力在整個公司範圍內將其制度化。」

IFENG
作者

鳳凰網(科技),集綜合資訊、視訊分發、原創內容製作、網路廣播、網路直播、媒體電商等多領域於一身,並於2011年在紐交所上市(紐交所代碼:FENG),成為全球首個從傳統媒體分拆上市的新媒體公司。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則