換臉視頻後AI又出偏門應用:用算法“脫掉”女性衣服
據美國科技媒體Motherboard報導,一名程序員最近開發出一款名叫DeepNude的應用,只要給DeepNude一張女性照片,借助神經網絡技術,App可以自動“脫掉”女性身上的衣服,顯示出裸體。目前DeepNude只能處理女性照片,如果原圖裸露的皮膚越多,處理效果越好;而上傳男性照片,最後得出的照片還是替換成女性下體。
DeepNude官網已上線,照片可在官網處理,可下載的Windows和Linux應用也在6月23日推出,使用者無需專業知識。這款應用有免費版和50美元付費版。使用免費版獲得的圖片會出現較大水印,付費版雖然沒有免費版出現的水印,但會在圖片左上角加上“FAKE”(虛假)的印章式標註。
Motherboard用幾十張照片測試,發現如果輸入《體育畫報泳裝特輯》(Sports Illustrated Swimsuit)的照片,得到的裸體照片最為逼真。但這一技術還有缺點,多數照片(尤其是低分辨率照片)經過DeepNude處理後,得出的圖像會有人工痕跡;而輸入卡通人物照片,得出的圖像是完全扭曲的。
用DeepNude處理泰勒·斯威夫特照片
Motherboard還聯繫了DeepNude的創建者,此人化名為“阿爾貝托”(Alberto)。他表示,該軟件基於加州大學伯克利分校研究者開發的開源算法pix2pix創建,並使用1萬張女性裸圖加以訓練。這一算法與之前的人工智能換臉技術deepfake算法相似,也和無人車技術所使用的算法相似。
“阿爾貝托”表示,該軟件目前之所以只能用於女性照片,是因為女性裸體圖像更容易在網上找到,但他希望能創建一個男性版本的軟件。
他還表示,他繼續這一實驗是出於“有意思”和好奇心。“我不是偷窺狂。我是技術的愛好者,”他說,“繼續提升這個算法,最近也是吸取了之前的教訓(來自其它創業公司)和經濟上的問題,我問我自己是否可以在這個算法上獲得經濟回報。這就是我創建DeepNude的原因。”
但Motherboard指出,之前就有deepfake在網絡上流傳,但這種技術很容易就會成為傷害女性的工具——要么在未經同意的前提下使用女性照片,要么在網上惡意散佈色情內容。而DeepNude相當於deepfake技術的進化版,操作更簡單,處理速度更快。
反“色情復仇”組織Badass的創始人凱特琳·鮑登(Katelyn Bo WD en)感嘆說:“真是讓人震驚。現在每個人都有可能成為色情報復的受害者,即使沒有拍過一張裸體照片,也可能會成為受害者。這樣的技術根本不應該向公眾開放。”
而馬里蘭大學凱里法學院(University of Maryland Carey School of Law)教授丹尼爾·西龍(Danielle Citron)認為,DeepNude無疑是在侵犯用戶的性隱私。