中國國家科學中心宣稱開發「智慧思政吧」AI系統,可判斷黨員的忠誠度

中國國家科學中心宣稱開發「智慧思政吧」AI系統,可判斷黨員的忠誠度

中共建黨101週年之際,位於安徽省的合肥國家科學中心人工智能研究院聲稱,其所開發的“智慧思政吧”AI系統,可判斷黨員的忠誠度。消息一出,引發中國網民一片罵聲和輿論嘩然。對此,多位人工智能(AI)專家表示,中共利用最新科技監控人民,已不是新聞,但其數位獨裁技術現已進化到入眼入腦入心的全面監控程度,令人不寒而栗。

安徽合肥國家科學中心人工智能研究院7月1日於微信公眾號公告,其已研發出一套人工智能(AI)系統,可助力黨建。貼文稱,這套名為“智慧思政吧”的AI設備,“利用人工智能技術抽取面部視覺表觀特徵、腦電特徵、皮電特徵並進行協同與融合,實現對黨員接受思政教育時專注度、認可度、掌握度判斷,從而了解思政教育的效果......(且)通過判斷學習效果,引導科研人員進一步堅定感黨恩、聽黨話、跟黨走的信心和決心。”

不過,這則有關AI機器控制思想重大突破的訊息一出,立即引起輿論嘩然,使得該院隨即在網頁和微信刪除貼文。但多日來,爭議仍持續延燒,並引發中國異議人士圈的撻伐。

位於南台灣台南的成功大學政治系主任洪敬富在接受美國之音採訪時表示,科技本為改善人類生活的最佳良方,但在中國,科技不僅呈“扭曲式”發展,也淪為黨國的政治控制利器。他說,中共利用最新的AI技術,使其數位威權體制進化到“老大哥”對人民無孔不入的全面監控。

AI賦能中共陷入獨裁者的困境?

洪敬富說:“它(中共)其實借重新科技,為黨國來所謂的賦能(empowerment),就是說,它從早期的人臉辨識,進化到入眼入腦入心。也就是說,它進入到深層次的運用,從早期這種社會信用制度的社會控制,已經進化到全面的控制。”

洪教授說,中共的社會維穩和黨宣黨建工作結合科技,進入新的智能階段,將對黨員和人民形成心理壓力,並可能導致他們衍生自我審查或思想認知改變的現象。不過,他認為,這類科技威權的作法違反人性,最終可能造成黨性和人性的割裂,反而讓中共因此陷入“獨裁者的困境”--高牆築得越高,卻反而盡失人心。

洪敬富說:“高牆築得越高,其實就代表你(中共)一方面是擔心你控制不住你的黨員,你對你的黨員不僅不信任,你也擔心黨員恐怕變得是表面一套,實際又另一套。所以凸顯政治學所謂的'獨裁者的困境':這個獨裁者似乎掌握越多的權力,可是,你對於黨員、你的人民,甚至你自己的黨的那些幹部,你越來越不信任,那不信任之後,你就越用科技的(手段)要抓住的,可是你會發現,抓不住人性。所有的政治制度如果離開人性,其實我覺得,就是沒辦法長久。”

美國之音以電郵致函合肥的人工智能研究院,希望取得對“智慧思政吧”成效的置評,但未獲回應。美國之音也致電該院,但電話未接通,自動總機還回稱“沒有權限接受(發話方)呼叫。”

中共利用AI鎮壓民主異議人士罵聲連連

早在合肥的AI系統問世前,中國各地利用人臉辨識等AI技術來建構嚴密的監控或地方治理等應用就時有耳聞。例如,新疆的天眼辨識系統嚴密監控當地的維吾爾少數民族。

又例如,去年底,河南省傳出架設人臉辨識系統,追踪記者和國際學生等當局眼中的“可疑人士”。同一時間,上海浦東人民檢察院則開始測試AI檢察官,號稱可根據案件口頭描述,以超過97%的準確率起訴八種犯罪行為,包括信用卡詐騙、妨礙公務和尋釁滋事等。

中共近年還大量採購“1人1檔”的AI軟體,以升級人臉辨識系統,該軟件可將民眾的個資自動分類並進行分析,有效提升監控效率。

另據《澎湃新聞》報導,四川行政學院早於2017年就開發“智慧紅雲”,來評估黨員學習教育的成效,當時也號稱可“算出”黨員的思想狀況。

科技雙面刃AI監控侵犯隱私和人權

中國所建置的諸多AI系統,即便是用於監控,若正當使用,不無提高行政效率或打擊犯罪的正面績效。但這些系統往往遭中共濫用,成為維穩或打擊異議人士和人權律師的工具。

多位因議題敏感而不願透露姓名的人權律師和異議人士告訴美國之音,他們深受AI監控之苦。

一位異議人士說,他行經人行道的路邊攝像頭時,被AI人臉辨識出,然後就看著公安拿著手機,從警車下來,直接把他帶走。

對此,位於北京的人權律師說:“如果讓AI對社會進行控制,社會將會越來越僵化,越來越極端,對人民是一場走向進一步毀滅的災難。”他說,因為不見容於當局,他無法使用微信微博,任何發文或網絡登記也會遭秒刪或被拒,無端被剝奪網絡使用權能。他還說,以AI進行政治辨識,說明當權者越來越不相信人民。

另一位人權律師則說,他在看守所時,目睹警察非法採集在押人員的瞳孔、指紋和尿檢等生物信息,以進行比人臉辨識更精準的管控,足不出戶就能掌握對中共政權構成威脅者的行踪,非常“邪惡”。

根據一位人權律師的彙整,中共靠大數據對名列黑名單的維穩人口進行精準管控,包括在兩會等特殊時間,限制他們的人身自由。另外,中國地鐵普遍採用人臉識別進站,超過170個城市也開通“刷臉”繳稅等服務,當局靠著這些大量的人臉信息,集中用於維護獨裁體制的穩固性,也精準打壓異議人士、宗教人士以及上訪者。

AI話題火熱應用情境遭誇大

原籍中國、現已入籍台灣的網路工程師佐拉在接受美國之音採訪時,也對中共利用數位化工具來強化暴政的行徑,表達憂心。

佐拉說:“AI的話,在實際運作中,又會有一個問題,就是它會有判斷錯誤的時候,通常我們面對這種AI判斷錯誤的時候就會很無助。然後加上,中國是一個一黨專政的國家,他們的社會治理的手段一直都是懶惰的。也就是說,不僅懶政、而且暴政,所以他們有時候在遇到問題的情況下,採取粗暴的方式去對社會進行治理,所以,我覺得,暴政加上這種數位化工具的話,可以增加他們的能力。(美籍猶太商人)喬治·索羅斯(George Soros)(曾)在公開場合批判中國,因為中國的話,它會利用機器學習或人工智能,然後對這個國家進行更全面的控制。所以,我們對這一點是非常擔憂的。”

曾是中國知名公民記者的佐拉觀察,中國人民應該大多反對利用AI來進行社會治理,但在中國言論審查的環境下,反對聲浪只會零星出現,無法有組織地出現,當然也無法形成改變中共AI暴政的力量。

不過,佐拉質疑,AI的功效應不至於大到可判斷黨員的忠誠度。他表示,AI話題火熱,中國有不少投資案誇大AI的應用場景,不過是想騙取科研經費。

獨裁和AI民企互相拉抬AI暴政成形?

但中國官方對AI的需求之高,確實為不少AI新創公司帶來機會。

根據美國麻省理工學院(MIT)經濟系助理教授馬丁·貝拉加(Martin Beraja)與其他三位來自哈佛大學和倫敦政經學院的同儕於7月1日所發布的研究顯示,獨裁政權和AI民企的新創能力有互相拉抬的加乘效果,若長期發展下來,可能形成AI暴政(AI-tocracy)。

該報告稱,獨裁者靠著AI科技強化監控能力,而政府委託案則讓AI民企得到資金挹注,並刺激其新創的能力。根據其調查,2013-2019年間有上千家中國AI民企曾承攬過政府委託案,他們比沒有接受政府委託的同業,可以在兩年內多開發出三種官方用的商品,或四種商用的商品。

貝拉加教授在接受美國之音採訪時表示,雖然投資圈盛傳,中國AI民企過分依賴政府合約的商業模式無法永續經營,但他們的研究發現,接受政府委託的AI民企新創能力頗佳,而且有能力跨足商業應用。

馬丁·貝拉加說:“在承攬政府合約時,他們可以取得數據,以便開發官方用軟體,常用於公安或犯罪防範之類的目的。這樣的新創能力可擴及至商用,因為他們可以使用相同的官方數據,即便數據使用上有所受限,他們也可以用訓練該數據的相同演算法,來開發民用的商用產品。”

例如,他說,在官方監控軟體的開發基礎上,AI民企可以據以開發出商用軟體,讓超市可以追踪客戶在貨架走動時的購物行為。

貝拉加教授說,在數據取得上,美國和中國AI民企的優勢相當,但因為中國受到隱私的限制較少,反而成為發展AI領域的競爭優勢。而且他們的最新研究發現,中國比美國出口更多的人臉辨識技術,雖然人臉辨識也是打擊犯罪的正當工具,但他直言,非常憂心中國輸出AI暴政,協助其他獨裁政權壓制人民。

馬丁·貝拉加說:“我們注意到,較威權的國家或者民主意識相對薄弱的國家確實向中國進口更多的人臉辨識AI技術,遠高於其他科技。在我看來,這可能代表這些科技被濫用於監控和鎮壓。”

對於中國利用銳實力(sharp power)向外輸出AI暴政,成功大學的洪敬富和網路工程師佐拉也同表憂心,不過,他們說,科技獨裁體制太極端,很難永續。

佐拉說:“他們(中國)這種技術手段,有可能輸出到其他國家,會短時間輸出到其他國家,但是,從長遠來看,這樣的治理方式是導致一個社會走向極端化,甚至導致整個群體走向癲狂,比如說,又重現文化大革命的那種瘋狂的決策,最終導致它自己的系統崩潰。”

美國之音
作者

美國之音(VOA)是美國最大的國際多媒體新聞機構,以超過45種語言向沒有或僅有有限新聞自由的受眾進行報導。成立於1942年,致力於全面而獨立的報導,並把真相告訴給受眾。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則