兒童安全監督機構指控蘋果公司隱瞞CSAM真實數據
一個兒童保護組織稱,它在英國蘋果平台上發現的虐待圖片案例比蘋果在全球範圍內報告的案例還要多。 2022年,蘋果公司放棄了兒童性虐待材料(CSAM)檢測計劃,因為有人指控該計劃最終將用於監控所有用戶。該公司轉而使用一套被稱為”通訊安全”的功能,即模糊發送給兒童的裸照。
據英國《衛報》報道,英國全國防止虐待兒童協會(NSPCC)稱,蘋果公司對iCloud、FaceTime和iMessage 等服務中發生的CSAM 事件的統計嚴重不足。所有美國科技公司都必須向國家失蹤與被剝削兒童中心(NCMEC)報告發現的CSAM 案件,而在2023 年,蘋果公司共通報了267 起案件。
這些報告聲稱是為了在全球範圍內檢測CSAM。但英國NSPCC 獨立發現,在2022 年4 月至2023 年3 月期間,光是在英格蘭和威爾士,蘋果就捲入了337 起犯罪行為。
NSPCC 兒童安全線上政策負責人理查德-科拉德(Richard Collard)說:「蘋果公司服務上發生的英國兒童虐待圖片犯罪數量與他們向當局報告的全球虐待內容數量之間存在令人擔憂的差異。
與蘋果相比,Google在2023 年報告了超過1,470,958 起案件。同期,Meta 在Facebook 上報告了17,838,422 起案件,在Instagram 上報告了11,430,007 起案件。
蘋果公司無法看到用戶的iMessages 內容,因為這是加密服務。但國家監測和評估中心指出,Meta 的WhatsApp 也是加密的,但Meta 在2023 年報告了約1,389,618 起疑似CSAM 案件。
蘋果在回應指控時,只向《衛報》提及了先前關於用戶整體隱私的聲明。一些虐待兒童問題專家對人工智慧生成的CSAM 影像表示擔憂,尤其是即將推出的Apple Intelligence系統是否會產生有害影像。