Facebook開發了一套“去識別”系統能讓你在實時視頻中“隱身”
近日,來自挪威科技大學的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇論文中稱用新的更有挑戰表示的方法欺騙了人臉識別系統:在不改變原來的數據分佈的前提下把人臉匿名化,更通俗的說法來說就是輸出一張逼真的人臉,但是不改變原圖人的姿態和背景。
在這種技術的加持下,人臉識別系統依舊能夠正常運行,但是完全無法識別出原來的人臉身份,偽造者則可以冒充他人自由出入具有人臉識別系統的設施。
根據作者們的測試,經過他們匿名化的人臉仍然保持了接近於原圖的人臉可識別性,普通的人臉識別對於匿名化後的圖像,識別出人臉的平均準確率只下降了0.7% 。而人臉含有的自然信息自然是100% 不重合的。
用AI 來欺騙AI ,這波操作簡直是666 。
此前,Facebook 也就反人臉識別做過嘗試,近日,終於有了結果。
外媒VentureBeat 報導稱,近日,Facebook 的人工智能實驗室Facebook AI Research(FAIR)開發出一種“去識別”系統,該系統可以欺騙面部識別系統,例如,讓面部識別系統將你識別為一位女明星。
該技術使用機器學習實時地改變視頻中人物的關鍵面部特徵,誘使面部識別系統錯誤地識別對象。
據稱,該技術將一個對抗自編碼器與一個訓練過的面部分類器配對,以使人的面部稍微扭曲,從而在迷惑面部識別系統的同時,又能維持一個人們可以認出來的自然樣貌,它可以用在視頻,甚至是實時視頻中。
事實上這種“去識別”技術過去已經存在,以色列的自動反人臉識別系統提供商D-ID 已經研發出了針對靜態圖像的去識別技術。另外,還有一種被稱為對抗性示例,它利用了計算機視覺系統的弱點,人們通過穿戴印有對抗圖案,來誘騙面部識別系統看到並不存在的東西。
過去的技術通常應用於從監控攝像頭等渠道獲得的照片、靜止影像,或是已事先計劃好利用對抗圖像欺騙人臉識別系統。現在,FAIR 的研究針對實時影像和視頻腳本,FAIR 稱這項技術成果是行業首例,且它足以抵抗精密的面部識別系統。
Facebook 還發表了一篇論文,解釋了其對新技術的態度。它提出了一種觀點,即面部識別可能會侵犯隱私,人臉替換技術可能被用來製作誤導性視頻。為了控制人臉識別技術的濫用,該公司推出了對視頻進行去識別的方法,並取得了很好的效果。
此外,據VentureBeat 報導,Facebook 並不打算在任何商業產品中使用這個反人臉識別技術,但這項研究可能會對未來的個人隱私保護工具產生影響。並且,就像該研究在“誤導性視頻”中所強調的那樣,它能夠防止個人肖像被用於製造偽造視頻。
其實反人臉識別技術近年來發展迅速,早在去年,多倫多大學Parham Aarabi 教授和研究生Avishek Bose 的團隊開發了一種算法,可以動態地破壞人臉識別系統。
簡單來說,他們選擇的方法是通過乾擾人臉識別算法來達到阻礙人臉識別的功能。該算法通過改變一些人眼幾乎不可識別的微小像素來改變識別器的檢測結果。儘管算法對於像素的修改十分微小,但對於檢測器來說卻是致命的。
研究人員針對300-W 數據庫上的檢測結果也證實了這種方法的可行性。該數據集包含多種族,不同照明條件和背景環境的超過600 張人臉照片,是一個業界的標準庫。結果表明,他們的系統可以將原本可檢測到的人臉比例從接近100% 降低到0.5% 。
而且更可怕的是這個反人臉識別系統具有神經網絡自主學習能力,可以隨著人臉識別系統的進化而不斷改變自己。