人類和 AI 合作的最大危險是什麼?答案是:「懶到退化」以及「自動化麻痺」

人類和 AI 合作的最大危險是什麼?答案是:「懶到退化」以及「自動化麻痺」

ADVERTISEMENT

「科技是懶人推動的!」 

從蒸汽機的工業革命,到電腦的數位革命,技術的進步確實讓人類在某些方面,越來越有打混的資本。 

作為最有潛力成為下一代平臺的 AI 技術,會讓人類變得「更懶」嗎? 

好像確實是的,但這並不是個好消息。 

根據發表在《機器人與人工智慧前沿》雜誌上的一項最新研究顯示,當人類與 AI 和機器合作時,真的會「摸魚偷懶」。 

該研究的第一作者 Cymek 稱:「這種團隊合作既可以是一種祝福,也可以是一種詛咒。」 

所以,在 AI 時代,人類最大的危機不是被機器取代,而是「懶到退化」?   

機器助手,讓人類「放鬆警惕」

當有了機器這樣一個有力幫手時,會讓人類變得比較粗心。 

德國柏林工業大學的研究人員向 42 名參與者提供了模糊的電路板圖像,要求他們檢查是否有缺陷。其中一半的參與者被告知,他們要處理的電路板已由一台名為「貓熊」的機器人檢查過,並已標記出缺陷。

實驗:類比電路板品質控制的視覺搜索任務。圖片來源:《機器人與人工智慧前沿》研究

 

實際上,機器人「貓熊」在實驗過程中檢測到了 94.8% 的缺陷。所有參與者都看到了相同的 320 張掃描電路板圖像,當研究人員仔細查看參與者的錯誤率時,他們發現,與「貓熊」一起工作的參與者,在任務後期捕捉到的缺陷較少,因為他們已經看到「貓熊」成功地標記了許多缺陷。 

兩組參與者幾乎檢查了整個電路板表面,花時間搜尋,自我評價努力程度較高。結果是,與機器人合作的參與者平均發現了 3.3 個缺陷,獨自完成任務的人平均發現了 4.23 個缺陷。 

兩組參與者檢測到的缺陷的平均值和標準差 。圖片來源:《機器人與人工智慧前沿》研究

 

研究稱:「這表明參與者在與機器人夥伴合作時,檢查電路板時就可能不太專心地檢查。我們研究的參與者似乎保持了檢查電路板的努力,但似乎檢查是在較少的腦力勞動和對採樣資訊的關注下進行的。」 

這意味著,如果他們被告知機器人已經檢查了一部分,並體驗到機器人的可靠後,他們就會發現更少的缺陷。在潛意識中,他們假設「貓熊」不太會漏掉這些缺陷,產生「社會惰化」效應。 

這項研究的影響對於依賴嚴格的品質控制的行業尤為重要。作者警告稱,甚至是短時間內對人類注意力的放鬆,可能是由於過度依賴機器人的準確性,都可能危及安全。 

研究人員 Onnasch 提到:「在更長的輪班時間內,當任務變得例行化,並且工作環境提供的性能監控和回饋較少時,動力的喪失往往更大。在製造業普遍存在,特別是在雙重檢查常見的與安全相關的領域,這可能對工作結果產生負面影響。」 

當然,研究者的測試也有一些限制。比如,樣本其實還不夠大,而且在實驗室中難以模擬「社會惰化」,因為參與者知道他們受到監視。Cymek 解釋道:「主要的限制是實驗室環境。要瞭解人機互動中動力喪失問題的嚴重性,我們需要走出實驗室,在實際工作環境中與經驗豐富的工人一起測試我們的假設,他們通常與機器人一起工作。」 

「人機合作危機」早已發生

事實上,在實驗室之外,人機合作導致的「墮化」早已經在現實世界中出現。 

在自動駕駛領域,有一個與「社會惰化」相似的現象,叫做「自動化麻痺(Automation complacency)」,典型是由於有了自動化輔助而分心。 

2018 年 3 月,在美國亞利桑那州,配有安全員的 Uber 自動駕駛汽車撞死一位騎自行車的人。從警方的分析發現,如果安全員一直看著道路,安全員本來可以在受害者前方 12.8 公尺處停下來,並避免悲劇。

2018 年美國自動駕駛致死事件。圖片來源:CNN

特斯拉常常是美國媒體和監管機構重點關注的目標,原因常常是與自動駕駛有關的事故。一個典型的場景是,特斯拉司機在使用自動駕駛功能時睡覺,或玩遊戲,並捲入致命車禍。 

在當下的 AI 狂潮中,機器取代人類的預言越來越接近現實。一方認為機器會服務於人類,另一方則認為人類會不小心製造出邪惡之物。 

在醫療領域,IBM 研發的 AI 系統「Doctor Watson」曾向癌症患者給出過不安全的用藥建議。今年有論文指出,生成式 AI 已經可以通過美國醫療許可考試的三個部分。一個相似的遷移假設是,如果未來由 AI 對人類進行診治,然後人類醫生進行把關,人類醫生是否又會出現「社會惰化」和「自動化麻痺」問題? 

前述研究的作者指出:「將人類和機器人的能力結合顯然提供了許多機會,但我們也應該考慮,人機團隊中可能發生的意外群體效應。當人類和機器人在一項任務上工作時,這可能會導致人類團隊夥伴的動力損失,並使社交惰化等影響更有可能發生。」 

還有人擔心,AI 可能會影響人類思維和創造力,並削弱人際關係,從整個現實中分心。矽谷的生成式 AI 明星初創公司 Inflection 推出的聊天機器人 Pi,被設計成一位友善、支持的伴侶。創始人表示,Pi 是幫助人們應對孤獨的工具,可以作為一個傾訴的物件。批評者則認為,這會讓人逃離現實,而不是與真實的人類互動。 

現在,人與工具的關係已經進化到一個新的層次。所有工具的誕生,其實都讓人類變懶了,如掃地機讓人免於清掃房屋,手機讓人不用再記下電話號碼。 

但 AI 技術和此前的技術分別在於,將更多的思考和選擇工作,都交給了 AI處理,而後者基本上是一個黑箱,這更像一種思考自主權的讓渡。當人將開車決策完全交給自動駕駛,將醫療診斷都交由 AI 系統,潛在的代價與記不住電話號碼的代價可能完全不同。 

開發了歷史上第一個聊天機器人的電腦科學家約瑟夫·維森鮑姆,曾將科學比喻成「一種上癮的藥物」,並由於服用劑量越來越大而成為「一種慢性毒藥」,如將電腦引入一些複雜的人類活動,可能會沒有回頭路可走。 

當人把思考、判斷的權力交給機器,作為一種「參考」,「社會惰化」和「自動化麻痺」的魔鬼或許也潛伏其中,並可能隨任務的重複成為一種慢性毒藥。

geekpark
作者

極客公園(www.geekpark.net)成立於2010年,是中國創新者的大本營。透過對前沿科技的觀察報告,在內容媒體、會展公關、創業服務三大業務協同發展下連結資源,讓優秀的科技新創更快速的成長。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則