不作惡?Google 發布「谷歌11條」釐清 AI 的道德底線? 人工智慧應該怎麼「管」這個事上,Google 的大咖說話了!在美國國防部合作專案被員工要求關閉的風波之後,Google 發布了公司在使用人工智慧的十一條準則。

不作惡?Google 發布「谷歌11條」釐清 AI 的道德底線?

七要 四絕不

其中包括Google 進行AI 研發的七個目標,和Google AI 絕不會進入的四種應用場景,堪稱AI 道德規範的「谷歌11條」。

CEO Sundar Pichai 在發布準則的公開信裡,也對國防部專案爭議做出了直接回應,表示今後不會讓AI 涉及武器化的應用,但並未「一刀切」,和政府、軍方劃清界限。

不作惡?Google 發布「谷歌11條」釐清 AI 的道德底線?

作為AI 界的帶頭大哥,Google 並未對多如牛毛的AI 應用領域一一作出指引,但這麼多年經歷了這麼多「坑」之後,這本「谷歌11條」所體現出的智慧,也許會對所有關心AI 道德問題的人有很大的幫助。

下面,我們就來整理一下「谷歌11條」背後的想法。

 

Google 眼中「好AI」的標準

首先,設計產品之初,價值觀就要正確。

Google AI(原Google Research)研究院克里斯汀·羅伯森曾表示公司研發AI 的領導思想是:按照對社會有益的原則進行設計,創造世界最棒的產品,讓這些產品實現商業化,在競爭中保持領先,同時,讓這些產品為世界做出貢獻。

Google 一向強調「不作惡」(don't be evil) 的價值觀,但它從來不是一家慈善機構。和所有科技公司一樣,它需要靠好產品賺錢,只不過,在對「好」產品的定義上,Google 和許多公司明顯不同。

「谷歌11條」 一上來就告訴員工,AI 產品一要對社會有益,二不能加重現實社會已有的問題:

1、要對社會有益

… 當我們思考AI 潛在的應用場景時,我們將會把一系列社會和經濟因素考慮進內,在那些整體收益遠遠超過可預見風險和弊端的領域,進行推進。

2 要避免製造或加強不平等的偏見

AI 演算法和數據數集可以反映、加強或減少不平等的偏見… 我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特徵相關的人群。

確保方向正確後,接下來Google 要保證自己的產品是業界最棒的。準則的第三到七條列出了好產品需要滿足的標準。字裡行間繼續體現著以人為本的理念。

3、要保證安全性

4、要對人負責

… 我們的AI 產品將易於接受合適的人類指導和控制

5、要結合隱私設計原則

6、要維持科學卓越的高規格

7、要可以用於符合原則的使用場景

仔細閱讀這些準則,你甚至可以找到對應的具體產品。

比如準則中Google 提到,「AI 加強了我們理解大規模內容含義的能力,我們將努力利用AI 提供高品質和準確的訊息」。這說的好像就是最近上線的新版Google News。

此外可以看到,在這些對產品標準的要求中,Google 還加入了對最近科技界激辯的話題的思考:例如資料隱私,例如AI 發展對人類本身可能帶來的威脅。

對國防部合作風波的回應

「谷歌11條」的結構是「七要四絕不」。 舉了七個目標後,Google 提出了四個絕對不碰的領域。首先:

我們不會將AI 應用於:

1、帶來或可能帶來傷害的技術

2、武器或其他旨在給人們造成傷害的技術

做出這段表述的背景是今年3 月時,有媒體揭露了Google一份內部文件,顯示該公司參與了五角大樓的無人機計畫 Project Maven,幫助開發應用於無人機的AI 系統;而與此同時,又有媒體報導Google 在內部行為準則裡刪掉了三處有關於「不作惡」 的文字。

不作惡?Google 發布「谷歌11條」釐清 AI 的道德底線?

和恨不得公司再壞一點的Facebook 不同,大批Google 員工對這些事感到憤怒不滿。在內部網路激烈討論後,超過三千名員工聯名上書CEO,要求退出專案。

最終,公司向員工和外界妥協,宣布2019 年合約到期後不再和國防部續約。

正是這件事,推動了「谷歌11條」的誕生。據報導,Google 創始人賴利佩奇、謝爾蓋布林、CEO 皮蔡和其他高管一起花了數月,最終制定了這版新的AI 準則。

不過,在這兩條表述裡,Google 並沒有表達以後完全跟政府及國防部門徹底切割。

在強大的合作關係面前,Google 是糾結的,而這並沒有錯誤。例如在雲端運算上,國防軍事是個潛力巨大的領域。Google 的競爭對手亞馬遜、微軟都在積極競標國防部的雲端計算及儲存業務,Google 不可能因噎廢食。

不過既然做了決定就要承擔後果,Google 的糾結之後肯定還會引發新的爭議和討論,Google 只好表示準則會根據公司新的理解而不斷改進。

自己不作惡,也不讓別人作惡

更具體來說,堅決不允許別人利用自己的技術作惡,這是不能跨過的底線。

四絕不的後兩條:

AI 不會用於:

3、收集或使用訊息用於監控並違反國際規範的科技

4、技術的目的違反了廣泛接受的國際法與人權原則的科技

從這兩個條款可以明顯看到,「谷歌11條」再次穩固了不作惡三個字的地位,而且還更進了一步:不僅自己不作惡,還要防止別人利用Google 的技術作惡。

這在上面第七條的AI 目標中也有體現:
許多技術同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應用。我們會評估以下因素:

  • 首要目的和用途……以及與有害的用途有多接近
  • 本質和獨特性:我們的技術是普世的還是有獨特應用場景的
  • 規模:這項技術的使用是否會帶來重大影響
  • Google 在其中參與的性質:我們是在提供普通的工具,還是為使用者做整合的工具,還是在開發定制解決方案

Google 希望藉保證自己的AI 技術不被濫用,這麼做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是Google 重返某些市場的難度會變得更大。

但沒有人會因為Google 堅持它的真誠和正義而怪罪它。有些事情必須做出取捨。

不作惡?Google 發布「谷歌11條」釐清 AI 的道德底線?

部落格文章中,皮蔡再次提到2004 年Google 上市時提到的兩個原則:「讓世界變得更好」,和「不作惡」:

我們當時就表明了我們要用更長遠目光看問題的願望,即使這意味著需要作出短期的犧牲。我們當時這樣說,我們現在還是這樣相信。

Google 的準則體現著一家已經20 歲高齡的新技術公司,對可能是未來最關鍵技術,和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。

這本「谷歌11條」,或許也能推動其他公司,扔掉「技術中立」的保護傘,更誠實地參與到這個話題的討論中。

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則