新報告稱人工智能無法保護人們免受Deepfakes技術的影響
來自Data & Society的一份新報告引發了人們對視頻欺騙性改變的自動化解決方案的疑慮,包括機器學習改變的視頻deepfakes等。作者Britt Paris和Joan Donovan認為,雖然deepfakes是新的,但卻是媒體操縱歷史悠久的一部分-需要社會和技術修復。依靠人工智能實際上可以通過將更多數據和權力集中在私營公司手中來使事情變得更糟。
Paris表示,“圍繞deepfakes的恐慌證明了快速的技術解決方案無法解決結構性不平等問題。這是一個龐大的項目,但我們需要找到同時涵蓋社會及政治方面的解決方案,所以沒有權力的人不會被排除在外。”
正如Paris和Donovan所看到的那樣,只有技術本身將不能解決deepfakes問題。報告中寫道:“媒體與真相之間的關係從未如此穩定。”在19世紀50年代,當法官開始在法庭上允許攝影證據時,人們不相信新技術,並且首選見證證詞和書面記錄。到了20世紀90年代,媒體公司通過選擇性地編輯晚間節目中的圖像來參與歪曲事件。“這些圖像是真實的圖像,”報告說。“操縱的是他們如何在有線電視上全天候進行情境化、解釋和廣播。”
今天,通過允許人們使用機器學習操縱視頻和圖像,deepfakes甚至進一步操縱,其結果幾乎不可能用人眼檢測到。現在,該報告稱,“這任何擁有公共社交媒體資料的人都是公平的遊戲。”一旦虛假視頻存在,它們就可以在幾秒鐘內在社交媒體上大規模傳播。
為了解決這個問題,Facebook最近宣布它正在發布一個數據集,允許人們測試旨在檢測利用deepfakes視頻的新模型。像TruePic這樣使用AI和區塊鏈技術來檢測被操縱照片的初創公司也開始獲得動力。最近,美國國防部高級研究計劃局(DARPA)投資了Medifor,後者研究視頻像素的差異,以確定什麼時候被篡改。但是,幾乎所有這些解決方案的目標都是在捕獲點(即拍攝照片或視頻時)或在檢測級別(以便更容易區分篡改和未篡改的內容)之間進行操縱。
法律專家認為這種方法是積極的,並指出,只有通過法院才能解決deepfakes問題。電子前沿基金會公民自由主任David Greene說道,偽造的視頻在政治評論和匿名化需要身份保護的人群中也有重要用途。
“如果要製定一項deepfakes法律,則需要考慮言論自由,”他補充道,如果人們使用deepfakes進行違法行為- 例如勒索某人- 他們可能會根據現行法律受到起訴。
但Paris擔心人工智能驅動的內容過濾器和其他技術修復可能會造成真正的傷害。她說道:“他們為某些人做得更好,但可能會讓其他人變得更糟。設計新的技術模型為公司創造了可以捕獲各種圖像並創建在線生活庫的空間。”
《Deep Fakes: 對隱私,民主和國家安全的迫在眉睫的挑戰》論文的合著者Bobby Chesney卻並未將數據收集視為一個問題。“我認為,如果不加管制,私人實體將獲得更多信息,”他說道。“但這種本來就很糟糕的想法讓我覺得沒有說服力。”
Chesney和Paris 同意需要某種技術修復,並且它必須與法律系統一起起訴不良行為者並阻止偽造視頻的傳播。“我們需要談論緩解和限制傷害,而不是解決這個問題,”Chesney補充道。“Deepfakes將不會消失。”