新功能允許兒童直接向蘋果公司報告不當內容
作為iOS 18.2 測試版的一部分推出的一項新功能允許澳洲的兒童直接向蘋果報告不當內容。此功能是iOS 17 中包含的安全措施的延伸。 這些功能可自動偵測iMessage、AirDrop、FaceTime 和照片中包含裸露內容的圖片和影片。
最初的設定是,CSAM警告一旦觸發,就會出現一對幹預彈跳窗。 這些彈跳窗會解釋如何與當局聯繫,並指示兒童提醒家長或監護人。
現在,當偵測到裸體等不適當內容時,會出現一個新的彈出視窗。 用戶可以直接向蘋果公司報告圖片和視頻,而蘋果公司則可以將訊息發送給相關部門。
當警告出現時,使用者的裝置會準備一份報告,其中包括任何攻擊性資料、資料前後發送的資訊以及兩個帳戶的聯絡資訊。 使用者可以選擇填寫一份表格,說明發生了什麼事。
蘋果公司收到報告後,將對內容進行審查。 隨後,該公司將對該帳戶採取行動,包括停用用戶透過iMessage發送訊息的功能,以及將該問題報告給執法部門。
該功能目前作為iOS 18.2 測試版的一部分在澳洲推出,但稍後將在全球推出。
正如《衛報》所指出的,蘋果很可能選擇澳大利亞,因為該國將要求公司在2024 年底之前對雲端訊息服務中的虐待兒童和恐怖內容進行監管。
蘋果警告說,該代碼草案不會保護端對端加密,使用戶的通訊容易受到大規模監控。 自2018 年底以來,蘋果一直公開反對此類努力。
蘋果在其平台上處理兒童性虐待材料(CSAM)的方式受到了抨擊。 起初,該公司被指責沒有認真對待CSAM 保護問題,這激怒了許多監督團體。
2021 年,蘋果計劃推出CSAM 保護措施,該措施將掃描用戶iCloud照片中已知的CSAM 影像。 如果發現,蘋果公司將對影像進行審查,然後將報告發送至國家失蹤與被剝削兒童中心(NCMEC)。
許多用戶對蘋果掃描其私人圖像和影片的想法表示憤怒,並擔心會被錯誤偵測到。 蘋果公司最終放棄了這個想法,理由是擔心掃描資料”會為資料竊賊發現和利用新的威脅載體”。
2024 年,英國國家防止虐待兒童協會(NSPCC) 表示,在英國的蘋果平台上發現的虐待圖片案例比蘋果在全球範圍內報告的案例還要多。