蘋果將全面掃描並檢舉iPhone是否有兒童色情照片,是保護兒童或侵犯隱私?

蘋果將全面掃描並檢舉iPhone是否有兒童色情照片,是保護兒童或侵犯隱私?

蘋果宣佈,隨著iOS 15和iPadOS 15的發布,將開始在美國掃描iCloud照片以尋找已知的兒童色情材料(CSAM),另外還計劃向國家失蹤和被剝削兒童中心(NCMEC)報告調查結果。 

蘋果表示,該公司將向執法部門報告上傳到其美國用戶存放在iCloud雲端空間的兒童性虐待圖片。蘋果公司的新系統將使用一種名為「雜湊」(hashing,把任意長度的輸入通過散列演算法變換成固定長度的輸出)的方式,對所謂的「兒童色情內容」(Child Sexual Abuse Material,簡稱為“CSAM”)圖片進行監測。

蘋果公司本週四開始測試該系統,但該公司表示大多數美國的iPhone用戶都要到今年iOS 15正式版更新後才能使用這個系統。

蘋果將全面掃描並檢舉iPhone是否有兒童色情照片,是保護兒童或侵犯隱私?

在蘋果公司採取這項舉措之前,其他公司的雲端服務也採取類似措施,對用戶文件進行掃描(通常也都一樣使用雜湊系統)以發現違反其服務條款的內容,其中包括兒童色情圖片等。

與此同時,這也是對蘋果的一次考驗。蘋果公司表示,與之前刪除兒童色情非法圖片的方法相比,這次的系統對用戶來說更加私密,原因是蘋果的伺服器和用戶手機端都使用了復雜的密碼系統,而且不會對實際圖片進行掃描,只會掃描雜湊值。

但對許多在隱私問題上反應敏感的用戶來說,他們仍然不願看到自己使用的手機,竟然會向政府通報裝置或儲存在雲端空間中的內容。尤其是蘋果一直都宣傳自己對用戶隱私的保護是列為首要。

新系統如何運作

在圖片存放到蘋果iCloud之前,該公司會將圖片的雜湊值與美國國家失蹤與受虐兒童中心(以下簡稱“NCMEC”)提供的散列資料庫進行比對。蘋果表示,這個資料庫將從該公司發布iOS 15更新時開始啟用,放在iOS程式碼內。因此,匹配過程將在用戶的iPhone上完成,而不是在雲端。

蘋果將全面掃描並檢舉iPhone是否有兒童色情照片,是保護兒童或侵犯隱私?

如果蘋果公司隨後在某個iCloud帳戶中檢測到相當數量的違規檔案,那麼該系統將會從違規檔案中上傳一個檔案,允許蘋果公司解密並查看該帳號上的圖片,隨後將由人工來檢視該圖片,以確認是否真的是違法照片。

因此,這個審核的前提是,蘋果只能審查與已知內容相匹配的圖片,並將其報告給這些資料庫。舉例來說,該公司將無法檢測幫兒童洗澡的父母的照片,因為這些圖片不會進入NCMEC數據庫。

如果負責人工審查的人員得出結論,認為系統沒有出錯,用戶確實有違法照片,那麼蘋果將會禁用上傳違規圖片的用戶的iCloud帳號,並在如有必要時向NCMEC發送報告或通知執法部門。蘋果的一位代表稱,如果用戶認為自己的帳號被錯誤地標記了,則可向該公司提出上訴。

蘋果公司表示,該系統只適用於上傳到iCloud雲端的圖片(用戶可以選擇關閉這個系統),不適用於未上傳到該公司伺服器上的照片或其他圖片。

不會被用於識別其他圖片

一些安全研究人員擔心,這項技術最終可能會被用來識別其他類型的圖片,比如政治抗議的照片等。蘋果公司則表示,該公司的系統只適用於NCMEC或其他兒童安全組織編目的圖片,而且該公司構建密碼系統的方式可以防止其被用於其他目的。

蘋果將全面掃描並檢舉iPhone是否有兒童色情照片,是保護兒童或侵犯隱私?

蘋果表示,他們自己也無法在資料庫中添加額外的雜湊值,因此它們也不可能會匹配到其他的圖片。

在週四發布這項功能的同時,蘋果公司提到了其他一些旨在保護兒童免受性攻擊的功能。其中一項功能是,蘋果公司將在擁有家庭帳號的兒童iPhone上,使用機器學習技術來對可能包含裸體的圖片進行模糊處理,而父母可以選擇一種警報功能,以便在13歲以下的兒童在iMessage中收到色情內容時收到警報。另外,蘋果公司還更新了Siri,提供了如何舉報兒童色情內容的資訊。

▶ 號召朋友來訂閱,送萬元【OVO K1 智慧投影機】給你

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則