Instagram 將偵測並模糊裸體照片青少年預設為開啟成人可選擇開啟
Meta 概述了一些新措施,以幫助保護用戶,尤其是青少年免受從事色情簡訊詐騙的網路騙子的侵害。其中一個主要的新功能是DM 中的裸體保護,這樣人們就不必看到聯絡人或陌生人主動發出的照片。
Meta 表示,它將很快開始在Instagram 私訊中測試新的裸體保護功能。該工具旨在檢測含有裸露內容的圖片,並將其模糊化。它還要求人們在發送裸體圖片之前三思而後行,因為這些圖片可能會被壞人濫用。
該公司表示,該功能旨在保護人們不會看到未經請求的裸體圖片,同時也能防止騙子發送裸體圖片,誘騙人們發送自己的圖片作為回報。
全球18 歲以下的青少年將預設啟用這項新功能,成年人也會收到通知,鼓勵他們開啟這項功能。
該功能會提醒你在分享敏感照片時要小心,並解釋說他人可以在你不知情的情況下截圖或轉發你的照片。它還會告訴你,如果你改變主意,可以取消發送照片,但其他人有可能已經看到了。
除了上述安全提示外,Meta 還會警告試圖分享裸體照片的用戶重新考慮自己的行為,並警告分享他人的敏感照片可能會違反《社區指南》或觸犯法律。此外,Meta 還要求用戶尊重他人,並考慮他人可能會如何處理這些照片、
Meta 表示,它禁止已知的色情訊息勒索者的帳號。如果用戶與其中一個帳戶進行了互動,他們會收到一條彈出訊息,告知他們需要支持,並提供專家支援的資源連結。
為了幫助其他公司打擊這一禍害,該公司表示將透過”燈籠」計畫發出更多針對色情訊息的訊號。