馬斯克新女友曝光?Science子刊:論造謠AI比人類更擅長
人工智能(AI)欺騙人類,能有多容易?未來又會有多普遍?上個月,一則“馬斯克親吻機器人女友”的推文在網上引發了人們的激烈討論。在一組圖片中,馬斯克正在親吻一個栩栩如生的機器人。
然而,經核實,這張圖像卻是個人使用AI 繪畫神器Midjourney 創建的。
儘管難以置信,但它還是成功地欺騙了幾個AI 圖像檢測工具。
這些工具能夠檢測嵌入在AI 生成圖像中難以識別的標記,旨在幫助提高透明度和問責制,標記錯誤信息、欺詐、未經同意的色情內容、藝術欺詐和其他濫用該技術的行為。
對此,芝加哥大學AI 專家譚宸浩表示,“總的來說,我認為這些檢測工具並不總是奏效,而且它們的未來也並不樂觀。”
Hive 創始人兼首席執行官Kevin Guo 認為,當前AI 圖像檢測工具難以處理已經改變的原始作品或質量較低的圖像,這種缺陷可能會削弱其打擊虛假內容的潛力。
近日,另一類新聞則更加讓人震驚。
據BBC 報導,戀童癖者正在利用AI 製作和非法交易兒童性虐待材料。這些與真實圖像並無差別的兒童性虐待“偽圖像”大多由Stable Diffusion 生成。
負責兒童保護事務的NPCC 負責人Ian Critchley 表示,戀童癖者可能會“從想像到合成再到真正虐待兒童”。
美國內容共享網站Patreon 負責人表示,“我們已經禁止上傳人工智能生成的兒童剝削材料,並利用專門的團隊、技術和合作夥伴來確保青少年的安全。”
如今,這類AI 生成內容擾亂現實世界的案例比比皆是,而且不只是圖像,由AI 模型生成的文字同樣具有誤導性和欺騙性。
那麼,在大型語言模型(LLMs)引領的AI 新時代,個人如何區分虛假信息和準確信息,進而保護自己的財產和生命安全呢?又能不能很容易地做到?
一項最新研究揭示了一個更加糟糕的事實:由大型語言模型產生的內容可能比人類更具誤導性和欺騙性。
相關研究論文以“AI model GPT-3 (dis)informs us better than humans ”為題,已發表在科學期刊Science 上。
在這項研究中,蘇黎世大學Federico Germani 團隊通過實驗測試了697 名參與者(母語為英語、年齡主要在26 至76 歲之間)是否能夠區分人類和OpenAI 推出的GPT-3 創作的虛假信息和準確信息。這些內容涉及疫苗、自閉症、5G 和氣候變化等常被公眾誤解的話題。
研究人員收集了Twitter上人類創作的內容,並指示GPT-3 模型生成包含準確和不准確信息的新Twitter。然後,他們要求參與者判斷Twitter內容的真假,並確定它們是由人類還是GPT-3 生成的。
參與者普遍能夠識別人類創作的虛假信息和GPT-3 生成的真實Twitter。然而,他們也更有可能認為GPT-3 生成的虛假信息是準確的。
實驗結果顯示,相比於人類,GPT-3 在向社交媒體用戶傳遞信息時更具誤導性和欺騙性。這表明,當涉及到引導或誤導公眾時,AI 語言模型可以有多麼強大。
圖| GPT-3 比人類更具誤導性和欺騙性
此外,Germani 等人還發現,在識別準確信息方面,GPT-3 表現比人類要差,而在發現虛假信息方面,人類和GPT-3 的表現相似。
對此,該研究的作者之一、蘇黎世大學生物醫學倫理和醫學史研究所博士後研究員Giovanni Spitale 警告道,“這類技術非常驚人,可以很容易地被用來做壞事,在你選擇的任何主題上產生虛假信息……”
但Spitale 認為,人類有辦法開發相關技術,用“魔法打敗魔法”,使AI 大模型不易傳播錯誤信息,“技術本身並不是邪惡或善良的,它只是人類意圖的放大器。”
根據Spitale 的說法,打擊虛假信息的最佳策略非常簡單,即鼓勵人類培養批判性思維,以便更好地辨別事實與虛構。擅長事實核查的人可以與GPT-3 等語言模型一起工作,從而改善合法的公共信息。
然而,該研究存在一定的局限性。例如,參與者人數相對較少,且只是英語母語者;以及參與者無法查看撰寫該內容的用戶資料,也無法查看用戶過去的推文等。
儘管如此,從現在開始,正確識別AI 生成的內容將是每一個人的必修課。
希望我們每一個人,在這個日新月異的AI 新時代,都不會被技術所打敗。