耶魯大學測試人類和AI一起工作 結果令人意外!

耶魯大學測試人類和AI一起工作 結果令人意外!

結果證明,有會懺悔的笨拙機器人的小組比機器人只做平淡陳述的對照相比,會懺悔機器人的實驗組成員之間合作得更好。但在另一個實驗中,機器人就這樣把一群慷慨的人變成了自私之徒。

耶魯大學測試人類和AI一起工作 結果令人意外!

《大西洋月刊》撰文指出,人工智慧正在直接或間接地影響諸如愛情、友誼、合作以及教學等人類基本社會能力。當人工智慧更全面地滲入人類生活時,我們可能還需要一種新的社會契約,一種與機器而不是與他人相處的契約。

幾十年來關於機器人如何改變我們生活,一直是科幻小說的慣常話題。20世紀40年代,當人類和人工智慧之間的廣泛互動還遙不可及之時,科幻小說作家以撒‧艾西莫夫(Isaac Asimov)為了防止機器人傷害人類,就提出了著名的機器人三定律。由於清楚機器人可以透過直接互動影響人類,機器人三定律的第一點就是機器人不能傷害人類,也不能在人類受到傷害時袖手旁觀。想想經典科幻小說中的那些描述:例如在《星際大戰》中,C-3PO和R2-D2與叛軍聯盟合作挫敗帝國;或者《2001太空漫遊》中的HAL 9000和《人造意識》中的艾娃密謀殺害表面上的主人。

但是這些想像並沒有集中在人工智慧更廣泛也更重要的潛在社會影響上:人工智慧可以影響我們人類之間的互動方式。

當然,激進的創新此前已經一再改變了人類共同生活的方式。大約在5000到10000年前,城市的出現意味著遊牧生活的減少和人口密度的增加。無論是人類個體還是集體,都對這種新的生活方式進行了適應。例如說我們可能已經進化出對可能由這些密集新環境造成感染的抵抗力。最近,包括印刷、電話和網際網路在內的技術發明徹底改變了我們儲存和交流訊息的方式。

然而,儘管這些創新具有重大影響,但它們並沒有改變人類社交屬性的基本行為:這是我們經過數十萬年進化而來的基本社會能力,其中包括愛情、友誼、合作和教學。在世界各地,這些人類行為的基本因素在世界各地保持著驚人的一致性,無論是在城市或者農村,無論人類社會中是否使用現代技術均是如此。

但在人類社會中間加上人工智慧可能更具破壞性。特別是當機器被設計成和我們一樣,並深深地滲入我們的生活時,它們可能會改變我們的愛情方式、交友方式或者人性。這一切不僅僅發生在我們與機器的直接互動中,而且發生在我們與他人的互動中。

耶魯大學實驗室裡做的一些實驗就是如此。在其中一個實驗中,研究人員引導一小群人與人形機器人一起在虛擬世界中鋪設鐵軌。每個實驗組由三個人和一個藍白相間的小機器人組成,他們圍坐在一張方桌旁,透過平板電腦完成任務。這個機器人被設定為偶爾會犯錯誤,並且會承認錯誤:「對不起,夥計們,這一次我犯錯了。」「我知道這可能難以置信,但機器人也會犯錯。」

結果證明,這個會作懺悔的笨拙機器人透過改善人類之間的溝通交流,幫助這些小組表現得更好。他們變得更放鬆,更健談,安慰那些容易犯錯的小組成員。比機器人只做平淡陳述的對照相比,會懺悔機器人的實驗組成員之間合作得更好。

在另一項虛擬實驗中,研究人員將4000名受試者分成20人左右的小組,並在小組內為每個人分配「朋友」;彼此之間的朋友關係形成了一個社交網路。然後,這些小組被分配了一項任務:每個人必須從三種顏色中選擇一種,但是每個人所選擇的顏色不能與被分配朋友所選色相同。在受試者不知情的情況下,研究人員為一些小組分配了一些被設定為偶爾會出錯的機器人。實驗顯示,與這些機器人直接相關的人變得更加靈活,並且會避免陷入一個只適用於特定個人,但不適用於整個團隊的解決方案。更重要的是,由此產生的靈活性會在整個小組中傳播開來,甚至會影響到沒有直接與機器進行交互的人。因此,分配有容易出錯的智慧程式的實驗組始終優於那些沒有出錯智慧程式的實驗組,在表明,機器人有助於人類相互幫助。

這兩項研究都表明,在所謂的「混合系統」中,也就是人與機器進行社交互動的系統中,合適的人工智慧可以改善人與人之間的關係。其他研究結果也證實了這一點。例如人們在網上對他人發出謾罵,後政治學家凱文‧芒格(Kevin Munger)指示特定種類的機器人進行干預。他指出,在某些情況下,機器人只是提醒謾罵者他們的目標是一個感情可能會受到傷害的人時,就能使謾罵者在一個多月的時間內不再攻擊他人。

但是在我們的社會環境中加入人工智慧也會使我們的行為不再那麼有效率和道德。在另一個實驗中,研究人員給了幾千名受試者錢,讓他們在多個回合的網路遊戲中使用。在每一輪測試中,受試者被告知他們可以保留自己的錢,也可以將部分或全部錢捐給鄰居。如果他們捐了錢,研究人員也會捐同樣的錢給他們的鄰居。在遊戲初期,三分之二的人表現得無私。畢竟,他們意識到在第一輪對鄰居慷慨可能會促使鄰居在下一輪對他們慷慨,進而建立一種互惠準則。然而,從自私和短期的角度來看,最好的結果是保留自己的錢,並從鄰居那裡得到錢。在這個實驗中,研人員發現在整個受試群體中加入一些假裝人類玩家的自私機器人,就可以促使整個群體做出同樣的自私行為。最終,參與實驗的人彼此完全停止了合作。這些機器人就這樣把一群慷慨的人變成了自私之徒。

合作是我們人類的一個重要特徵,是社會生活必不可少的。信任和慷慨是區分成功和失敗群體的關鍵。如果每個人都為了幫助群體而努力,那麼都應該從中受益。然而,當這種行為失效時,公共利益的概念就消失了,每個人都會受到損害。人工智慧可能會有效降低我們合作的能力,這一事實非常令人擔憂。

我們已經遇到過現實世界中人工智慧如何破壞真實世界人際關係的許多例子,而人工智慧對社會產生簡單影響這一事實每天都在我們身邊上演。父母們看著自己的孩子對著Alexa或Siri等數位助理發出粗魯的命令,開始擔心這種粗魯會滲入孩子對待他人的方式,或者擔心孩子與人工智慧機器的關係會干擾甚至搶占人際關係。麻省理工學院技術與社會專家雪莉‧特克爾(Sherry Turkle)不久前指出,那些在人工智慧環境中長大的孩子,可能不會有「同理心」。

隨著數位助理變得無處不在,我們更習慣於和它們進行交談,彷彿它們是有知覺的;朱迪思‧舒列維茲(Judith Shulevitz)去年在相關文章中描述了我們中的一些人是如何開始把它們當作知己,甚至是朋友和治療師。舒列維茲說,她自己向Google數位助理坦白了一些不會告訴丈夫的事情。如果我們能更自如地與電子設備親密交談,我們的婚姻和友情會發生什麼樣的變化呢?由於商業上的需要,設計師和程式設計師通常會設計出讓我們感覺更好的設備,但這可能無助於我們進行自我反思。隨著人工智慧不斷滲透進我們的生活,我們必須面對這樣一種可能性:人工智慧會抑制我們的情感,抑制我們與他人的深層聯繫,讓我們彼此之間的關係變得不那麼互惠,或者說更膚淺更自戀。

所有這些都可能以一種意想不到的方式改變人類社會。我們是否希望機器影響孩子們善良的天性?我們是否希望機器會影響成年人的性生活?

英國德蒙特福特大學(De Montfort University)人類學家凱瑟琳‧理查森(Kathleen Richardson)就對後一個問題很擔心。作為反對性愛機器人運動的主要人物,她警告說,性愛機器人會使人類失去人性,並可能導致使用者遠離真正的親密關係。我們甚至可能會從把機器人當作滿足性慾的工具,發展到以這種方式對待他人。其他觀察家則認為機器人可以從根本上改善人類之間的性行為。

早在我們大多數人遇到如此親密的人工智慧難題之前,我們還會應對更多日常挑戰。畢竟自動駕駛汽車的時代已經來臨,這些車輛承諾將大大減少困擾人類駕駛的疲勞和分心等問題,進而防止事故的發生。但是它們還會對人產生什麼影響呢?駕駛是一種非常現代的社會互動方式,需要高度合作和社會協調。有人擔心,自動駕駛汽車剝奪了人們行使這些能力的機會,可能會導致這種社交能力的萎縮。

這些車輛不僅將透過程式來接管駕駛職責,進而取代人類做出判斷的權力,同時還將影響與它們沒有直接接觸的人類。例如,自動駕駛汽車以穩定不變的速度行駛一段時間後,駕駛的專注度可能就會下降,反而增加了其人類駕駛接管時發生事故的可能性。或者,經驗可能會證實,與完全符合交通法規的自動駕駛汽車並排行駛,實際上會提高人類駕駛的表現。

不管怎樣,如果我們不對這些社會溢出效應進行優先考慮,就不能不顧後果地推出新的人工智慧形式。人類必須像為自動駕駛汽車技術開發硬體和軟體那樣,運用同樣的努力和聰明才智來管理人工智慧對汽車外部產生的潛在漣漪效應。畢竟要求車後安裝剎車燈,不僅是為了車內人員的利益,而且主要是為了車後的其他人。

1985年,在以撒‧艾西莫夫(Isaac Asimov)提出他的機器人定律大約40年後,他又在自己的清單上增加了一條:機器人永遠不應該做任何可能傷害人類的事情。但他在如何評估這種危害方面遇到了困難。「人是一個具體的物體,」他後來寫道。「對一個人的傷害是可以估計和判斷的。但人性是一種抽象。」

特別關注社會溢出效應會有所幫助。其他領域的溢出效應導致了規則、法律和監督的要求。無論是污染水源的公司還是在辦公樓裡呼出二手菸的個人,一旦一些人的行為開始影響其他人,社會可能會介入。由於人工智慧對人與人之間互動的影響是如此強烈而深遠,而且發展迅速而廣泛,在大規模部署之前必須系統地研究可能會出現什麼樣的效應,並討論如何為了共同的人類利益來進行調節。

已經有一群不同的研究人員和實踐者,例如說電腦科學家、工程師、動物學家和社會科學家等等聚集在一起開發「機器行為」領域,希望將人類對人工智慧的理解建立在更堅實的理論和技術基礎之上。在這個領域裡,機器人不僅僅是人類製造的物品,而是一種新型的社會行為體。

一切迫在眉睫。在不遠的將來,人工智慧賦能的機器可能會通過程式或自主學習展現出與人類相比似乎奇怪的智能和行為形式。我們需要迅速將僅僅怪異的行為與真正威脅我們的行為區分開來。

人工智慧最值得我們關注的是那些會真正影響人類社會生活核心的方面,因為這些核心特徵使我們的物種在幾千年的時間裡得以生存延續。

啟蒙哲學家托馬斯‧霍布斯(Thomas Hobbes)認為,人類需要一種集體協議,以防止我們變得雜亂無章。他錯了。早在人類組建政府之前,進化就為人類裝備了一套社會能力,使我們能夠和平共處。在前人工智慧時代,祖先遺傳給我們的愛情、友誼、合作和教學能力繼續幫助我們共同生活。

不幸的是,人類沒有時間進化出與機器人相媲美的先天能力。因此,我們必須採取措施,確保他們能夠與我們生活在一起,不受破壞。

當人工智慧更全面地滲入人類生活時,我們可能還需要一種新的社會契約,一種與機器而不是與他人相處的契約。

  • 資料來源:The Atlantic
  • 本文授權轉載自網易科技

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則