蘋果公司因放棄iCloud 的CSAM 檢測而被起訴
蘋果公司因決定不實施掃描iCloud 照片以查找兒童性虐待材料(CSAM) 的系統而遭到起訴。根據《紐約時報》報道,該訴訟認為,蘋果沒有採取更多措施來防止這種材料的傳播,而是迫使受害者重溫他們的創傷。 這起訴訟描述了蘋果在宣布”廣泛宣傳旨在保護兒童的改進設計”後,未能”實施這些設計或採取任何措施來檢測和限制”這些材料。
蘋果於2021 年首次宣布了這一系統,並解釋說它將使用國家失踪與受虐兒童中心和其他團體提供的數位簽名來檢測用戶iCloud 庫中已知的CSAM 內容。 不過,在安全和隱私倡導者提出這些計劃可能為政府監控製造後門之後,該公司似乎放棄了這些計劃。
據報道,這起訴訟來自一名27 歲的女性,她以化名起訴蘋果公司。 她說,在她還是嬰兒的時候,一位親戚對她進行了猥褻,並在網路上分享了她的圖片,她現在幾乎每天都會收到執法部門的通知,稱有人因持有這些圖片而被起訴。
參與訴訟的律師詹姆斯-馬什(James Marsh)說,在這起案件中,可能有2,680 名受害者有權獲得賠償。
該公司的一位發言人告訴《紐約時報》,該公司正在”緊急積極地進行創新,以打擊這些犯罪,同時不損害我們所有用戶的安全和隱私”。
今年8 月, 一名9 歲女孩及其監護人起訴蘋果,指控該公司未能解決iCloud 上的CSAM 問題。