人工智慧最大的限制,來自現實生活的這些困境

人工智能(AI)的快速進步和發展引發了對其雙重用途應用和安全風險的猜測。從自主武器系統(autonomous weapons systems ,AWS)到面部識別技術,再到決策算法,每一個新興的人工智能應用都帶來了或好或壞的結果。人工智能技術的雙重特性,不僅給各國的個人和實體帶來巨大的安全風險:涉及政府、工業、組織和學術界(NGIOA),而且也給人類的未來帶來了巨大的風險。

人工智慧最大的限制,來自現實生活的這些困境

現實情況是,任何新的人工智慧創新都可能被用於有益或有害的目的:任何可能提供重要經濟應用的單一演算法,也可能導致空前的大規模毀滅性武器生產,而這是難以捉摸的。其結果是,人們對基於人工智慧自動化的擔憂正在加劇。

隨著機器學習、運算能力、無邊界投資和數據可用性的進步,人工智慧在廣闊領域有著潛在的應用價值,這一事實使其所涉及的安全風險成倍增加。此外,由於人工智慧的整合對人來說是無法直接預知的,所以對任何事物的認知能力都從根本上改變了安全格局。人工智慧的自動化和智能帶來了希望,也帶來了毀滅的可能性。

運算能力的大眾化

電腦技術的發展使技術發展、知識、訊息和智能民主化。數據分析和處理技術的快速發展,將網路、電子、量子和自主武器與核、生物和奈米等技術結合於武器製造,這能夠對人類造成災難性的傷害。

聯網的電腦、網路和網路空間已經成為整個NGIOA所有數位過程中不可或缺的一部分。由於電腦程式碼和連網電腦已經將網路空間與地理空間和太空連接起來,現在幾乎一切都被聯網並可控。

由於人工智慧有可能被整合到網路空間、地理空間和太空(CGS)的幾乎每一種產品和服務中並使其智慧化,這種不斷演變的認知能力從根本上改變了人類的安全環境。目前,技術、運算能力、程式語言、電腦程式碼、加密、訊息、大數據、演算法、投資等,它們都有軍民雙重用途。

當每個人都可以存取數位資料,擁有必要的機器學習技術和運算能力就能為己創建人工智慧時,複雜的安全挑戰隨即產生,管理則變得困難重重。這不僅意味著增長中的潛在大規模殺傷性武器數量,攻擊面範圍的擴大也不容忽略。人工智慧的雙重使用威脅所帶來的安全風險正變得越來越可怕。這就引出了一個重要的問題:人類的生存、安全和可持續性是否應該留給個人的智慧,誰能或不知道人工智慧的潛在雙重用途?也許現在是開發人工智慧框架的時候了。

數據的大眾化

隨著網路空間的數據成為有爭議的公有物,大數據的大眾化帶來了一個全新的世界秩序。這個新的世界秩序給我們帶來了一個新的現實——任何地方的任何人都可以存取數位資料,並將其用於人類的善或惡。今天,任何個人或實體,只要有意願,知道如何獲取大數據和資料科學能力,就可以利用它來實現他們想要實現的任何智慧、自動化、監視和偵察,無論他們具備何種教育背景、背景、社會地位或意圖。

雖然大數據的大眾化帶來了普遍的可存取性,並使跨NGIOA的個人和實體獲得了授權,但它也給我們帶來了許多重要的安全風險。任何有或沒有受過正規訓練的人,都有可能無意中甚至有意地造成社區、種族、宗教、國家和人類的混亂、災難以及存在的風險。

既然數據是構建大多數人工智慧系統所必需的,那麼數據的大眾化是否會不受約束,而不承擔任何責任和責任呢?

人工智慧

人工智慧、機器人技術、無人機等領域的最新發展,對人類的益處有著巨大的潛力,但同樣的進步也帶來了巨大的風險:未經檢查的情報、監視、偵察,以及帶有偏見或致命的演算法,沒有人為此做好了相應的準備。

複雜安全風險產生於:這些帶有偏見和致命因素的演算法是混合的,因為參與開發或部署人工智慧的決策者通常不會關注諸如「安全」之類的基本問題。因此,建立一種可持續的「人工智慧安全」文化,不僅需要讓人工智慧研究人員、投資者、用戶、監管者和決策者意識到人工智慧開發的雙重用途(不管演算法的性質如何),而且還教育那些參與其中的人。

正如今天的各國所看到的:

  • 任何人都可以創建具有雙重用途的演算法
  • 任何人都可以購買必要的數據、工具和技術來創建演算法
  • 遠端開發人員可以為任何人開發演算法
  • 演算法可以單獨購買,並可用於任何目的
  • 自動無人駕駛飛行器正在崛起
  • 自主武器系統成為了現實
  • 擁有自主權的人工智慧系統成為一個現實
  • 自主臉部辨識成為現實
  • 人工智慧演算法容易受到威脅和控制

這就提出了一個根本性的問題:任何人、任何來自不同國家的個人或實體,如何能夠存取必要的數位數據、探索為任何目的和議程創造人工智慧的基礎科學,而不承擔任何責任、監督和後果?

這種人工智慧的發展需要在必要的時候進行管理和預防。

今天的人工智慧發展和前景在許多方面都帶來了不確定性。因為人工智慧是一種軟體,它不僅建立在軍隊使用的武器系統上,而且在NGIOA的每一個智能應用程式中都有,每個人工智慧應用的潛力都有雙重用途,這是一個不容忽視的現實。

安全困境

在人類歷史的大部分時間裡,安全的概念和方法主要圍繞著使用武力和地理空間的領土完整。由於安全的定義和意義在人工智慧世界中受到了根本性的挑戰和改變,傳統的安全是指在地理空間內或跨越地理邊界對各自國家的侵犯,現在這種概念已經過時了,需要對其進行評估和更新。

全新的人工智慧世界的出現,或多或少有點像一個陌生的領域,在這個領域裡,幾乎沒有人知道,而且大多是未知的。這引發了恐懼、不確定性、競爭和軍備競賽,並帶領我們走向一個沒有邊界的新戰場,這可能也可能不涉及人類,這也可能很難被理解和控制。

不斷發展的人工智慧威脅以及安全挑戰的複雜性跨越了空間、意識形態和政治,這就要求各國的所有利益攸關方進行建設性合作。集體的頭腦風暴是必要的,對威脅的事物進行客觀的評估,以及確保其安全。在認識到這一現實的情況下,風險集團(Risk Group)發起了對雙重使用技術困境(Dual Use Technology Dilemma)的討論。

雖然關於人工智慧的結構、角色和雙重用途的爭論將在未來幾年繼續,但任何試圖重新定義人工智慧安全的嘗試都需要從辨識、理解、合併和擴展人工智慧安全威脅的定義和性質開始。儘管本文的重點是人工智慧,但許多其他技術需要對其雙重使用潛力進行評估。現在是開始討論新興技術的雙重用途的時候了。

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則