解釋再多還是被炎上,蘋果宣佈延遲推出 CSAM 兒童保護功能

解釋再多還是被炎上,蘋果宣佈延遲推出 CSAM 兒童保護功能

蘋果公司上個月宣佈了幾項新的兒童安全功能,但其中一些存在爭議,包括在 iCloud Photos 中掃描 CSAM(兒童性剝削照片)內容。蘋果現在表示,在向公眾推出之前,將投入更多時間來完善這些功能。

蘋果在一份聲明中稱:「上個月,我們宣佈了一些功能的計劃,旨在幫助保護兒童免受傷害,並限制兒童性剝削內容的傳播。根據客戶、倡導團體、研究人員和其他方面的回饋,我們決定在未來幾個月花更多時間收集意見並進行改進,然後再發布這些至關重要的兒童安全功能。」

按照原計劃,蘋果這些新的兒童安全功能將於今年晚些時候發布,作為 iOS 15、iPadOS 15 和 macOS Monterey 更新的一部分。如今,這些功能何時推出還是個未知數。至於如何進一步完善這些功能,蘋果在聲明中也沒有提供任何細節。

上個月,在宣佈新的 CSAM 檢測技術後,蘋果受到了隱私倡導者的強烈抵制和批評。即使蘋果的內部員工也擔心,政府可能會透過尋找 CSAM 以外的內容,迫使蘋果使用這項技術進行審查。還有一些員工擔心,蘋果正在損害其業界以尊重隱私贏來的聲譽。

但蘋果卻十分看好這一功能的前景,並表示,如果真正實施起來,要比Google和 Facebook 等其他公司使用的技術更能保護隱私。此外,蘋果還證實,事實上自 2019 年以來,蘋果已經在掃描 iCloud 郵件中的兒童性剝削內容(CSAM),只不過尚未掃描 iCloud 照片或 iCloud 備份。

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則