《連線》雜誌:AI生成的文字將是最可怕的Deepfake內容
據《連線》(Wired)雜誌報導,當評論家和研究人員試圖猜測什麼樣的操縱活動可能會威脅到2018年和2020年的選舉時,誤導性的人工智能生成的視頻往往名列榜首。雖然這項技術仍在興起,但其被濫用的可能性是如此驚人,以至於科技公司和學術實驗室優先研究並資助檢測方法。社交平台為含有“合成和操縱媒體”的帖子製定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。
但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智能生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為互聯網上一股無孔不入的力量:deepfake文字。
《連線》稱,上個月推出的GPT-3是生成式寫作的下一個前沿:一個可以產生令人震驚的句子的AI。隨著它的輸出變得越來越難以與人類產生的文本區分開來,可以想像未來在互聯網上看到的絕大多數書面內容都是由機器產生的。如果這種情況發生,它將如何改變我們對周圍內容的反應方式?
這不會是第一個這樣的媒體拐點。三十年前,當Photoshop、After Effects以及其他圖像編輯和CGI工具開始出現時,這些工具對藝術創作的變革潛力–以及它們對我們對世界認知的影響–立即得到了認可。“Adobe Photoshop很容易成為出版史上最能改變生活的程序,”Macworld在2000年的一篇文章中宣布推出Photoshop 6.0。“今天,藝術家們通過Photoshop對他們的作品進行修飾,而色情作品的製作者如果不對他們的每一張圖像進行Photoshop處理,那麼除了現實,他們將一無所獲。”
人們開始接受這種技術的本質,並產生了健康的懷疑態度。今天,很少有人相信,雜誌封面能展現模特的真實面貌。(事實上,吸引公眾注意的往往是未經PS的內容。)
生成的媒體,如deepfake視頻或GPT-3輸出,則有所不同。如果被惡意使用,就沒有未經修改的原件,沒有可以製作的原始資料作為對比的依據,也沒有可以作為查證事實的證據。在2000年代初,我們很容易剖析名人的前後照片,討論後者是否造成不切實際的完美理想。在2020年,人們面對的是色情片上越來越似是而非的名人換臉,以及世界領導人說一些他們從未說過的話的片段。人們將不得不調整,並適應新的不現實程度。即使是社交媒體平台也認識到了這一區別;他們的deepfake造假節制政策區分了合成的媒體內容和僅僅是”修改”的媒體內容。
《連線》認為,無孔不入的生成文本有可能扭曲我們的社交傳播生態系統。不過,要想對deepfake內容進行管理,必須知道它的存在。在現在存在的所有形式中,視頻可能會變成最容易檢測的形式。”軟生物識別”,比如一個人的面部動作不對;耳環或一些牙齒的呈現效果很差。這些很多都可以通過軟件的調整來克服。例如,在2018年的deepfake視頻中,被試者的眨眼經常是錯誤的;但在這一發現公佈後不久,這個問題就被修復了。生成的音頻可能更微妙–沒有視覺效果,所以犯錯的機會更少–但有希望的研究工作也在進行中,以弄清這些問題。偽造者和鑑定者之間的戰爭將永遠持續下去。
但是,合成文本–特別是現在正在生產的那種–代表了一個更具挑戰性的前沿。它很容易大量產生,而且檢測的次數也較少。Deepfake文字不像合成視頻或音頻那樣,可以在敏感時刻使用。正如任何關注過激烈的Twitter標籤的人可以證明的那樣,活動家和營銷人員都認識到主導所謂的”聲音份額”的價值。看到很多人在同一時間或同一地點表達相同的觀點, 可以讓觀察者相信每個人都有某種感覺,不管說話的人是否真正有代表性,甚至是真實的。隨著製作評論所需的時間和精力的下降,將有可能就任何可以想像的主題製作大量的人工智能生成的內容。事實上,人們有可能很快就會有算法閱讀網絡,形成”意見”,然後發布自己的回應。這些無邊無際的新內容和評論的資料庫,主要是由機器製造的,然後可能會被其他機器處理,導致一個反饋循環,這將大大改變我們的信息生態系統。
現在,可以檢測到重複或回收的評論,這些評論使用相同的文本片段,以淹沒評論區,遊戲Twitter標籤,或通過Facebook帖子說服觀眾。在過去的一系列操縱活動中都觀察到了這種策略,包括針對美國政府就發薪日貸款和聯邦通信委員會的網絡中立性政策等話題徵集公眾意見的活動。《華爾街日報》對其中一些案例進行了分析,發現了數十萬條可疑的評論,這些評論之所以被認定為可疑,是因為它們包含了重複的長句子,不太可能是由不同的人自發撰寫的。如果這些評論是由人工智能獨立生成的,比如說,這些操縱活動就很難被抽出來。
在未來,deepfake視頻和音頻很可能被用來創造獨特的、聳人聽聞的時刻,以佔據新聞周期,或者轉移其他更有機的醜聞的注意力。但不易察覺的deepfake文字–偽裝成Twitter、Facebook、Reddit等網站上的常規聊天內容–則有可能更微妙、更普遍、更險惡。製造多數人意見的能力,或者創造一個虛假的參與者軍備競賽的能力–而被發現的可能性微乎其微–將使復雜的、廣泛的影響活動成為可能。無孔不入的生成文本有可能扭曲社交傳播生態系統:算法生成的內容會收到算法生成的回應,而這些回應又會反饋到以算法為媒介的策劃系統中,這些系統會根據參與度浮現信息。
《連線》稱,隨著各種類型的合成媒體–文字、視頻、照片和音頻–的普及,以及檢測變得越來越困難,人們會發現越來越難以信任自己看到的內容。