Bumble開放其用於檢測線上不雅內容的人工智能資源
作為其打擊”網絡暴力”的更大承諾的一部分,約會應用程序Bumble正在開放其人工智能工具,以檢測未經請求的不雅圖像在社交平台內傳遞。Private Detector在2019年首次亮相,它模糊了通過Bumble應用程序發送的裸體圖片,讓接收端的用戶選擇是否打開該圖片。
該公司在一份新聞稿中寫道:”儘管在我們的應用程序上發送淫穢圖片的用戶數量幸運地是可以忽略不計的少數–只有0.1%–我們的規模使我們能夠收集行業內最好的正常和不雅圖片的數據集,為實現任務的最佳表現而量身定做。”
現在可以在GitHub上找到這個人工智能的精煉版本,可供商業使用、分發和修改。雖然開發一個檢測裸體圖像的AI模型並不完全算得上是尖端技術,但這是小公司可能沒有時間自己開發的功能。因此,其他約會應用程序(或任何人們可能發送不雅照片的產品)可以可行地將這項技術整合到他們自己的產品中,幫助保護用戶免受不受歡迎的淫穢內容的滋擾。
自從發布Private Detector以來,Bumble還與美國國會合作,以討論人們在社交網絡與即時通信軟件當中發送未經請求的裸體照片會產生的法律後果。
Bumble補充說:”有必要在Bumble的產品生態系統之外解決這個問題,並參與一個更大的對話,討論如何解決不請自來的不雅照片–也被稱為網絡炫耀–的問題,使互聯網成為一個對每個人都更安全、更善良的地方。”
當Bumble首次推出這種人工智能時,該公司聲稱它有98%的準確性。