Facebook研究新算法:遏制deepfake換臉行為並追踪其來源
雖然目前Deepfakes換臉偽造情況在Facebook上並不是很突出,但這家社交網絡巨頭正加大對該技術的研究力度,以防範潛在的未來威脅。通過和密歇根州立大學(MSU)多位學者的合作,Facebook創造了一種逆向設計深度假象的方法:分析人工智能生成的圖像,以揭示創造它的機器學習模型的識別特徵。
圖片來自於The Verge
這項工作非常有用,因為它可以幫助Facebook 追踪在其各種社交網絡上傳播Deepfakes 的不良分子。這些內容可能包括錯誤的信息,但也包括未經同意的色情內容–這是Deepfakes 技術的一個令人沮喪的常見應用。現在,這項工作仍處於研究階段,還不准備部署。
目前在該領域的研究已經能夠確認哪些是人工合成的臉,哪些是真實的臉。不過由密歇根州立大學Vishal Asnani 領導的團隊進一步推進了這項研究,確定了未知模型的架構特徵。這些特徵被稱為超參數(hyperparameters),在每個機器學習模型中都要像發動機的零件一樣進行調整。總體而言,它們在完成的圖像上留下了獨特的指紋,然後可以用來識別其來源。
Facebook 研究負責人塔爾·哈斯納(Tal Hassner)告訴The Verge,識別未知模型的特徵非常重要,因為Deepfakes 軟件非常容易定制。如果調查人員試圖追踪他們的活動,這有可能讓不良行為者掩蓋他們的踪跡。
Hassner 表示:“讓我們假設一個不良行為者正在生成許多不同的Deepfakes,並在不同的平台上向不同的用戶上傳。如果這是一個以前沒有人見過的新的人工智能模型,那麼我們過去就無法進行判斷了。現在,我們能夠說’看,這裡上傳的圖片,那裡上傳的圖片,都來自同一個模型’。如果我們能夠查獲[用於生成內容的]筆記本電腦或計算機,我們將能夠說’這就是罪魁禍首’”。
哈斯納將這項工作與法醫技術相提並論,即通過尋找所產生的圖像中的模式來確定哪種型號的相機被用來拍攝照片。他說:“不過,不是每個人都能創造自己的相機。而任何有合理經驗和標準計算機的人都可以炮製出他們自己的模型,生成Deepfakes”。