繼DeepFakes換臉應用後DeepNude女性AI脫衣應用再度引發爭議
近日一款名叫“DeepNude”的女性AI脫衣應用在互聯網上引起了軒然大波,因為人們只需提交一張他人照片,即可通過算法來模擬出裸體的效果。與早前的DeepFakes換臉應用類似,DeepNude同樣打開了AI工具的陰暗面,因為開發者很難確保其他人會恪守道德準則。
(截圖via Cnet)
最新消息是,開發者已經迫於輿論壓力關閉了DeepNude 應用程序。其在某條Twitter 消息中寫到:“我們其實並不希望以這樣的方式去賺錢”。
然而這個“潘多拉的魔盒”並不會就此消失,因為一些DeepNude 的副本仍會被人在網絡上分享。只是最初的開發者已經放棄了繼續銷售的打算,理由是“世界尚未做好準備”。
顯然,這款應用對社會造成了巨大的衝擊,但也引發了人們對於隱私和同意權的思考,因為人工智能已經能夠創建出以假亂真的視頻和照片。
儘管計算機媒體創作已經存在了數十年,但類似DeepNude 和DeepFakes 這樣的圖像/ 視頻變造程序,正在讓普通人陷入更深的困惑—— 你根本無法通過肉眼來分辨真假。
據說這款應用程序最終只是“鬧著玩”,DeepNude 官方不鼓勵胡亂應用,並表示通過其它來源下載或分享軟件是違反其使用條款的。但是說到具體的執行,就又是另外一回事了。