Deepfake GenAI 更有可能被濫用來影響投票而不是竊取錢財
生成式人工智慧具有巨大的濫用潛力,人們不難想到的是詐騙和對金融體系的網路攻擊。然而,一項新的研究表明,濫用的主要類別是用虛假內容影響政治輿論。這在過去的競選活動中已經造成了問題。我們可以預見,這種情況在本輪選舉中將會更加普遍。
Google DeepMind 的一項新研究表明,人工智慧生成政治內容的可能性遠大於網路攻擊。 DeepMind 的結論是基於對2023 年1 月至2024 年3 月期間報告的GenAI 濫用案例的分析。事實上,去年一段關於喬-拜登(Joe Biden)的影片曾在網路上瘋傳,儘管它被宣佈為深度偽造內容。
隨著政治競選季的升溫,我們很可能會看到更多這種形式的操縱案例。研究發現,塑造公眾輿論是運用GenAI 能力最常見的目標,佔所有報告案例的27%。惡意行為者可以採用多種策略來歪曲公眾對政治現實的看法,包括冒充公眾人物、創建偽造媒體以及使用合成數字角色來模擬支持或反對某項事業的草根支持–也就是所謂的”stroturfing” 。
不法分子可以輕易地篡改合法視頻,讓選舉候選人顯得明顯衰老,不適合擔任領導職務。熟練的人工智慧藝術家可以從頭開始編造一段視頻,將對手置於不利的位置,但這樣做更加複雜。
報告指出,政治候選人及其支持者不公開地使用人工智慧生成的媒體來塑造正面的公眾形象,這是一種新出現的趨勢,儘管不那麼普遍。其中一個例子是費城一名警長利用人工智慧生成技術為其競選網站編造正面新聞。
政界人士也使用生成式人工智慧進行超目標政治宣傳,例如高保真地模擬政治家的聲音,用他們的母語與選民溝通,或者部署人工智慧驅動的競選搶答工具,就關鍵問題與選民進行有針對性的對話。
這些策略可能聽起來似曾相識,因為早在人工智慧出現之前,政治競選活動就已經使用過這些策略了。不同的是,最近人工智慧模型的快速發展為這些古老的策略賦予了新的力量,並使其使用更加民主化。