2018.06.12 11:00

不作惡?Google 發布「谷歌11條」釐清 AI 的道德底線?

ADVERTISEMENT

人工智慧應該怎麼「管」這個事上,Google 的大咖說話了!在美國國防部合作專案被員工要求關閉的風波之後,Google 發布了公司在使用人工智慧的十一條準則。

七要 四絕不

其中包括Google 進行AI 研發的七個目標,和Google AI 絕不會進入的四種應用場景,堪稱AI 道德規範的「谷歌11條」。

ADVERTISEMENT

CEO Sundar Pichai 在發布準則的公開信裡,也對國防部專案爭議做出了直接回應,表示今後不會讓AI 涉及武器化的應用,但並未「一刀切」,和政府、軍方劃清界限。

作為AI 界的帶頭大哥,Google 並未對多如牛毛的AI 應用領域一一作出指引,但這麼多年經歷了這麼多「坑」之後,這本「谷歌11條」所體現出的智慧,也許會對所有關心AI 道德問題的人有很大的幫助。

ADVERTISEMENT

下面,我們就來整理一下「谷歌11條」背後的想法。

 

Google 眼中「好AI」的標準

首先,設計產品之初,價值觀就要正確。

ADVERTISEMENT

Google AI(原Google Research)研究院克里斯汀·羅伯森曾表示公司研發AI 的領導思想是:按照對社會有益的原則進行設計,創造世界最棒的產品,讓這些產品實現商業化,在競爭中保持領先,同時,讓這些產品為世界做出貢獻。

Google 一向強調「不作惡」(don't be evil) 的價值觀,但它從來不是一家慈善機構。和所有科技公司一樣,它需要靠好產品賺錢,只不過,在對「好」產品的定義上,Google 和許多公司明顯不同。

「谷歌11條」 一上來就告訴員工,AI 產品一要對社會有益,二不能加重現實社會已有的問題:

ADVERTISEMENT

1、要對社會有益

… 當我們思考AI 潛在的應用場景時,我們將會把一系列社會和經濟因素考慮進內,在那些整體收益遠遠超過可預見風險和弊端的領域,進行推進。

2 要避免製造或加強不平等的偏見

AI 演算法和數據數集可以反映、加強或減少不平等的偏見… 我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特徵相關的人群。

確保方向正確後,接下來Google 要保證自己的產品是業界最棒的。準則的第三到七條列出了好產品需要滿足的標準。字裡行間繼續體現著以人為本的理念。

3、要保證安全性

4、要對人負責

… 我們的AI 產品將易於接受合適的人類指導和控制

5、要結合隱私設計原則

6、要維持科學卓越的高規格

7、要可以用於符合原則的使用場景

仔細閱讀這些準則,你甚至可以找到對應的具體產品。

比如準則中Google 提到,「AI 加強了我們理解大規模內容含義的能力,我們將努力利用AI 提供高品質和準確的訊息」。這說的好像就是最近上線的新版Google News。

此外可以看到,在這些對產品標準的要求中,Google 還加入了對最近科技界激辯的話題的思考:例如資料隱私,例如AI 發展對人類本身可能帶來的威脅。

對國防部合作風波的回應

「谷歌11條」的結構是「七要四絕不」。 舉了七個目標後,Google 提出了四個絕對不碰的領域。首先:

我們不會將AI 應用於:

1、帶來或可能帶來傷害的技術

2、武器或其他旨在給人們造成傷害的技術

做出這段表述的背景是今年3 月時,有媒體揭露了Google一份內部文件,顯示該公司參與了五角大樓的無人機計畫 Project Maven,幫助開發應用於無人機的AI 系統;而與此同時,又有媒體報導Google 在內部行為準則裡刪掉了三處有關於「不作惡」 的文字。

和恨不得公司再壞一點的Facebook 不同,大批Google 員工對這些事感到憤怒不滿。在內部網路激烈討論後,超過三千名員工聯名上書CEO,要求退出專案。

最終,公司向員工和外界妥協,宣布2019 年合約到期後不再和國防部續約。

正是這件事,推動了「谷歌11條」的誕生。據報導,Google 創始人賴利佩奇、謝爾蓋布林、CEO 皮蔡和其他高管一起花了數月,最終制定了這版新的AI 準則。

不過,在這兩條表述裡,Google 並沒有表達以後完全跟政府及國防部門徹底切割。

在強大的合作關係面前,Google 是糾結的,而這並沒有錯誤。例如在雲端運算上,國防軍事是個潛力巨大的領域。Google 的競爭對手亞馬遜、微軟都在積極競標國防部的雲端計算及儲存業務,Google 不可能因噎廢食。

不過既然做了決定就要承擔後果,Google 的糾結之後肯定還會引發新的爭議和討論,Google 只好表示準則會根據公司新的理解而不斷改進。

自己不作惡,也不讓別人作惡

更具體來說,堅決不允許別人利用自己的技術作惡,這是不能跨過的底線。

四絕不的後兩條:

AI 不會用於:

3、收集或使用訊息用於監控並違反國際規範的科技

4、技術的目的違反了廣泛接受的國際法與人權原則的科技

從這兩個條款可以明顯看到,「谷歌11條」再次穩固了不作惡三個字的地位,而且還更進了一步:不僅自己不作惡,還要防止別人利用Google 的技術作惡。

這在上面第七條的AI 目標中也有體現:
許多技術同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應用。我們會評估以下因素:

  • 首要目的和用途……以及與有害的用途有多接近
  • 本質和獨特性:我們的技術是普世的還是有獨特應用場景的
  • 規模:這項技術的使用是否會帶來重大影響
  • Google 在其中參與的性質:我們是在提供普通的工具,還是為使用者做整合的工具,還是在開發定制解決方案

Google 希望藉保證自己的AI 技術不被濫用,這麼做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是Google 重返某些市場的難度會變得更大。

但沒有人會因為Google 堅持它的真誠和正義而怪罪它。有些事情必須做出取捨。

部落格文章中,皮蔡再次提到2004 年Google 上市時提到的兩個原則:「讓世界變得更好」,和「不作惡」:

我們當時就表明了我們要用更長遠目光看問題的願望,即使這意味著需要作出短期的犧牲。我們當時這樣說,我們現在還是這樣相信。

Google 的準則體現著一家已經20 歲高齡的新技術公司,對可能是未來最關鍵技術,和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。

這本「谷歌11條」,或許也能推動其他公司,扔掉「技術中立」的保護傘,更誠實地參與到這個話題的討論中。

  • 本文授權轉載自

ADVERTISEMENT