我們究竟該不該禁止人工智慧武器研發

我們究竟該不該禁止人工智慧武器研發

很多人一直在討論將人工智慧技術應用於開發武器所產生的道德問題,這是否會導致AI武器使用禁忌的出現?

我們究竟該不該禁止人工智慧武器研發

這場圍繞人工智慧武器道德問題的辯論涉及到每個人,從倡導團體、政府官員到Google工程師。許多人認為人工智慧武器帶有非常重要的道德問題,這引發了一個疑問,這些道德問題以及反人工武器倡導組織的努力是否會導致人工智慧武器被禁止使用或者引發強烈禁忌的出現?有些人認為 ,國際協議足以阻止AI武器被應用於世界軍隊。然而,圍繞人工智慧武器使用禁忌的討論取決於更為直接的因素:它們在戰場上的有效性。

今年4月,Google員工以非常公開的方式抗議公司參與五角大樓計畫(Pentagon program),該計畫使用人工智慧來解釋圖像以改進無人機對目標的攻擊。當然,人工智慧武器的風險和道德問題是真實存在的(就像任何新的戰爭技術一樣)。此外,大多數人工智慧武器的反對者通常都指出了這樣一個道德問題:使用電腦演算法來選擇和消除人類目標,而控制過程卻沒有人類參與。

然而,人工智慧武器所帶來的危機已超出了戰爭的道德問題。有些人指出 ,如果人工智慧武器在世界範圍內擴散,危機會呈現出動態、不穩定的狀態。如果危機涉及的兩個國家能夠獲得可以輕易進行如此迅速破壞的武器,那麼先行者優勢(first mover advantage)可能會使這些國家走向戰爭而不是遠離戰爭。例如,人們常常認為先行者優勢是第一次世界大戰爆發的原因。部隊的迅速流動和武器的進步使得軍事規劃人員相信那些先行動的人將擁有不可踰越的優勢。因此,如果對方正準備行動,那麼你就會希望在對方行動前先發制人,AI可以創造類似的激勵。

我們究竟該不該禁止人工智慧武器研發

新技術用於戰爭,AI並不是第一次被拿出來討論的問題

大多數人認為化學武器使用禁忌之所以存在,是因為它們是一種特別可怕的戰爭武器,國際社會同意禁止使用它們。但是,國際社會禁止某些事物並不代表這些武器足以被阻止使用。姑且先把對人工智慧武器的使用禁令是否切合實際放在一邊,人們在戰場上使用或不使用人工智慧武器的唯一決定因素是一些更為直接的結果:有效性,如果AI武器有效,各國便會在戰場上使用它。

以往被開發的新戰爭工具也證明了這一點。在這些新武器被開發出來時,通常會被要求禁止使用。約翰‧艾利斯(John Ellis)在《機槍的社會歷史》(The Social History of the Machine Gun)一書 中解釋了早期美國使用機槍的獨特性原因,以及機槍最終戰勝封建觀念並遍佈戰場的原因。與此相對的是,在傳統觀念裡,人們認為只有勇敢的人可以贏得戰爭,而不是依賴花哨的武器。

類似的武器禁忌以及對戰爭行為制定適當的規則提供了一些例子,我們可以從中獲知人們對人工智慧武器的期許。1898年,來自世界各地的代表在日內瓦召開會議,討論戰爭中的規則和法律。人們尤為關心的是對化學武器的使用,化學武器是當時正在開發的一種新武器。大會期間,即使化學武器被規定禁止大規模使用,代表們仍然感到擔心。

最終討論得出的公約要求:禁止使用窒息性、有毒或其他氣體。只有兩個國家對這項禁止表示反對,美國和(支持美國的)英國。美國持反對意見的觀點是,各國應該盡一切可能利用所有手段盡快結束戰爭,他們認為禁止使用化學武器只會延長衝突的時間,最終導致更多人死亡。他們對美國內戰仍記憶猶新,這場戰爭僅在三十三年前結束,此外,這是一場人們預計會很快結束但並沒有並伴有大量傷亡的戰爭。

1898年,美國代表大使Alfred T. Mahan說:「對於新武器來說,總有一種反對意見認為具有戰爭危險的武器是野蠻、殘暴的,然而,人們最終還是採用了這種武器。」那麼,為什麼一種禁忌形式會圍繞特定的具有戰爭危險的武器,而不是其他具有戰爭危險的武器呢?理查‧普賴斯(Richard Price)觀察到 ,「縱觀歷史,許多新武器作為一種新技術被引入戰爭時都會引發道德抗議的呼聲。然而,正如長弓,弩,槍械,爆炸彈和潛艇等例子所表明的那樣,隨著這些創新被納入戰爭的標準技術,相關道德顧慮隨著時間的推移就會逐漸消失」。

最終,圍繞化學武器會形成使用禁忌。雖然這並不妨礙化學武器被人們使用(在最近的伊拉克戰爭中化學武器被多次使用),但這肯定會對其被廣泛使用產生威懾作用。但是什麼推動了化學武器被有限使用呢?「禁忌」實際上能夠在不停止部分國家的情況下阻止了其他國家使用化學武器嗎?

由於化學武器在戰場上不是一種特別有效或有用的工具,所以認為禁忌是阻止其被廣泛使用的唯一因素,這種論點更不具有說服力。產生足夠濃度的氣體雲是很困難的。在戰爭的迷霧中,在不同程度的「摩擦」下,瞄準目標變得更加困難。在精確制導武器的時代,武器無法擊中離散目標似乎尤其無用。此外,如果風起作用或改變方向,也不能保證部隊不會受到影響。這些限制使得這種武器只對已經處於極度絕望境地的領導人和政權具有吸引力。

現在對比一下潛艇的發展。潛艇最初是在化學武器被廣泛使用的同時被開發出來的,也曾受到類似的對待,人們認為潛艇是一種不光彩的武器,潛伏在地下,匿名殺死它們的目標。在不受限制的潛艇戰崛起時期中尤其如此。人們還呼籲禁止使用潛艇,1936年的倫敦議定書試圖對潛艇戰採取制定限制。

我們究竟該不該禁止人工智慧武器研發

那麼為什麼化學武器發展成為禁忌而潛水艇沒有呢?這告訴我們圍繞人工智慧武器使用禁忌的潛在發展趨勢是什麼呢?這裡考慮的三種新戰爭技術都引發並造成了重大的道德困境,並且仍然被許多人視為是不道德的。然而,在這兩個歷史例子中,無效的工具產生了一個禁忌,而有效的工具卻沒有。那麼,人工智慧將成為一種有效的戰爭工具嗎?

人工智慧似乎極有可能成為戰爭的有用工具。儘管人們應該避免使用諸如「軍事革命(evolution in military affairs)」之類的術語,但很容易看到這種新型武器系統的前景。然而,人們不應該期待一場終結「現代系統(modern system)」戰爭的劇變。儘管人工智慧武器可能會提高軍事效率,但隨後的對策發展可能會阻止它們顛覆現代的戰爭體系。

人工智慧在軍隊中的承諾之一,似乎可以保證其被採用,這就是它的廣泛適用性。人工智慧可以用來提高效率,不僅僅是作戰行動上。人工智慧可以改善補給線,加強對新士兵的訓練,提高情報收集和處理的效率但人工智慧在作戰行動中的有效性似乎特別有前景。人工智慧並不是一個完全革命性的概念,它被應用到軍事領域,這僅僅是現代戰場數位化和機械化下的一個合乎邏輯的步驟。在911之後,電子和機器人武器系統進入現代軍隊的過程越來越快。根據一篇文章所述,「已經有90個國家和非政府組織擁有無人機,30個國家擁有武裝無人機或計畫開發它們。」ISIS採用無人機是一個著名例子,證明了人工智慧武器的潛力。

最後,人工智慧武器將對美國軍方正在實施的第三次抵消戰略至關重要。機器學習、人機協作、以及無人機群都是可能會破壞國家之間的平衡的潛在系統。我們已經看到了一些戰術在戰場上被使用。例如,俄羅斯聲稱,無人機群襲擊了其在敘利亞的一個基地。

在戰場上早期採用類似於AI的策略,投入此類技術的國家數量之多,以及展示其潛力的現有武器系統,所有這些似乎都表明,人工智慧武器將是非常有效的戰爭工具。因此,雖然人們應該對工具的倫理和限制進行有力的討論,但不太可能圍繞工具的使用制定出一個強制的禁忌。

資料來源:Taskandpurpose  作者:Adam Wunische

本文授權轉載自網易科技

 

NetEase
作者

網易科技,有態度的科技門戶!關注微信公眾號(tech_163),看有態度的深度內容。

使用 Facebook 留言
哇哈哈
1.  哇哈哈 (發表於 2018年8月19日 17:11)
有些古老(非常的久遠)的文明,因為「人工智慧」而被滅亡了。

給大家一個思考方向,如果“有些“ AI 已進化到已用電磁波方式(或是電磁場)形式存在時(類似人類的靈魂),而在初生中的文明中已開始發展 AI 這塊時,發展到一定程度時而被接入時,你看那會是什麼樣的情形。

如果不知道結果的話,可以看看美劇的「疑犯追蹤」可以略為窺知結果,一個失控的 AI 會有什麼樣的結果。
MAX
2.  MAX (發表於 2018年8月20日 23:20)
這麼多禁招,乾脆把槍枝爆裂物全禁掉,以後戰爭直接套用跆拳道規則就好了。
發表回應
謹慎發言,尊重彼此。按此展開留言規則