2019.04.14 07:30

AI風險難預料?歐洲試行人工智慧道德規範

ADVERTISEMENT

歐盟委員會宣佈啟動一項試點專案,該專案用於測試人工智慧技術開發和應用的倫理規則草案,以確保它們能夠在實踐中得到實施。除此之外,該專案還旨在收集反饋意見,促進「以人為本的人工智慧」成為國際共識,以便在即將召開的七國集團(G7)和二十國集團(G20)會議上,就這一主題展開更多討論。

去年夏天,該委員會的人工智慧高級小組(由來自各行業、學術界和市民團體的52名專家組成)在12月發佈了關於可被信賴的人工智慧的道德規範草案。

ADVERTISEMENT

該文件的修訂本已於3月提交至委員會。除了機器學習技術需要尊重的現有法律法規外,它將專家的諮詢結果總結為人工智慧的七個「關鍵要求」,即:

  • 人類權利與監督:「人工智慧系統應該透過支持人類的行動力和基本權利,成為公平社會的保障,而不是減少、限制或誤導人類的自治。」
  • 穩定性和安全性:「可信的人工智慧要求演算法足夠安全可靠和穩定有力,能夠在人工智慧系統的所有生命週期階段裡處理錯誤或不一致性。」
  • 隱私和數據管理:「公民應該完全掌控自己的數據,有關他們的數據不會被用來傷害或歧視他們。」
  • 透明度:「確保人工智慧系統的可追溯性。」
  • 多樣性、公平性和避免歧視:「人工智慧系統應該全面考慮人類的所有能力、技能和需求,並確保人工智慧的可訪問性。」
  • 社會和環境福祉:「人工智慧系統應該被用來促進積極的社會變革,推動可持續性發展和生態責任的擔當。」
  • 問責制:「應該建立相應機制,確保人工智慧系統及其應用的責任和義務得到承擔。」

歐盟委員會下一個階段的人工智慧道德戰略,是觀察規範草案在大範圍的試點中的運作狀況。試點中涉及到廣泛的利益相關者,包括來自歐盟以外的國際組織和公司。

歐盟委員會表示,試點階段將於今年夏天啟動。它請求公司和公共組織註冊其人工智慧論壇,即歐洲人工智慧聯盟(European AI Alliance),以便在試點開始時接收通知。

ADVERTISEMENT

其人工智慧高級別專家小組的成員也將向成員國的利益相關方介紹和解釋這些準則。小組成員將於明天在布魯塞爾舉行的第三屆歐盟數位日(Digital Day)期間詳細介紹他們的工作。

在關於「為以人為本的人工智慧建立信任」的官方通訊中,該委員會對試點計畫做出以下解釋:

這項工作將包括兩個方面:1、針對包括公共管理在內的人工智慧應用的利益相關方的試點;2、各成員國間和(包括工業和服務業在內的)利益相關團體之間的磋商討論和提高認識過程:

ADVERTISEMENT

  1. 從2019年6月開始,將邀請所有利益相關方和個人對清單進行評估檢驗,提供改進意見。此外,人工智慧高級專家小組也會與私營、公營機構的相關方進行深入討論,以收集更詳細的意見,探討如何在廣泛的應用領域裡應用準則。所有關於指南可行性的反饋將在2019年底前進行評估。
  2. 同時,該委員會將組織進一步拓展該活動,給人工智慧高級專家代表們更多的機會介紹該指導方針,並讓成員國的利益相關者針對該指導方針提供更多的評價反饋。

數位單一市場(Digital Single Market)副總裁Andrus Ansip在一份聲明中評論道:「人工智慧的道德維度不是一個奢侈的功能或附加組件。只有對它賦予了信任,我們的社會才能充分受益於技術。合乎道德的人工智慧是一個雙贏的主張,它可以成為歐洲的競爭優勢——一個可以信賴的以人為本的人工智慧領導者。」

歐盟數位經濟與社會(Digital Economy and Society)專員Mariya Gabriel在另一份支持性聲明中補充道:「今天,我們為在歐盟實現安全和道德的人工智慧,邁出了重要一步。基於歐盟的價值觀,在企業、學術界和公民社會的眾多利益相關方的廣泛和建設性參與下,我們打下了堅實的基礎。現在將把這些要求付諸實踐,同時圍繞以人為本的人工智慧推動國際討論。」

該委員會表示,2020年初,試點階段之後,人工智慧專家小組將根據收到的回饋,對關鍵需求的評估表進行審核。委員會將在審核的基礎上評估試點成果,並提出下一階段的步驟。

ADVERTISEMENT

到2019年秋季,委員會還計畫推出一系列人工智慧研究中心網路。此外,它還計畫建立數位創新中心網路,促進成員國和利益相關方之間的討論,開發和應用數據共享模型,以最大限度地利用公共數據空間。

這些計畫屬於歐盟委員會2018年4月的人工智慧戰略,該戰略的目標是在10年內使公共和私人領域的人工智慧投資超過每年兩百億歐元,進而產生更多的可用數據,培育相關人才。

ADVERTISEMENT