Apple確認未來將向第三方應用開放兒童安全功能
針對近期爭議較大的兒童安全功能,Apple 今天邀請多名記者舉辦了一場問答活動。 在本次活動中,Apple 確認未來將向第三方應用程式開放這些功能。 在即將到來的 iOS 15、iPadOS 15、macOS Monterey 以及 watchOS 8 系統中,Apple 引入了 3 項兒童安全功能:
● Messages 應用
iPhone、iPad和 Mac 上的 Messages 應用程式中的可選通信安全功能可以在接收或發送色情照片時警告兒童及其父母。 啟用該功能后,Apple 表示 Messages 應用程式將使用設備上的機器學習來分析圖像附件,如果照片被確定為色情,照片將自動模糊並警告孩子。
● 掃描 iCloud 檔
Apple 將能夠檢測存儲在 iCloud 照片中的已知兒童性虐待材料 (CSAM) 圖像,從而使 Apple 能夠將這些情況報告給國家失蹤和受虐兒童中心 (NCMEC), 這是一個與該機構合作的非營利組織與美國執法機構。 Apple 今天證實,該過程僅適用於上傳到 iCloud 照片的照片,而不適用於視頻。
● 額外資源
Apple 將透過提供額外資源來幫助兒童和父母保持在線安全並在不安全的情況下獲得幫助,從而擴展跨設備的 Siri 和 Spotlight 搜尋指南。 例如,詢問 Siri 如何報告 CSAM 或兒童剝削的使用者將被指向有關在何處以及如何提交報告的資源。
雖然沒有發佈任何官方公告,不過 Apple 表示通過向第三方擴展兒童安全功能,以便使用者得到更廣泛的保護。 Apple 沒有提供任何具體示例,但一種可能性是通信安全功能可用於 Snapchat、Instagram 或 WhatsApp 等應用程式,以便模糊兒童收到的色情照片。
另一種可能性是,蘋果已知的 CSAM 檢測系統可以擴展到第三方應用程式,這些應用程式將照片上傳到 iCloud 照片以外的其他地方。
Apple 沒有提供何時可以將兒童安全功能擴展到第三方的時程表,並指出它仍然需要完成這些功能的測試和部署,該公司還表示需要確保任何潛在的擴展不會破壞隱私屬性或功能的有效性。