OpenAI推出了其語言模型最新版本可以製造令人恐懼的假新聞
六個月前,主要從事人工智能領域研究和開發的OpenAI公司推出了一種預測性語言模型,稱為GPT-2,它可以產生令人恐懼的假新聞。今天,該公司推出了該模型的下一個版本,同時進行了一項研究,調查其影響,並描述了分階段推出語言處理模型背後的基本根據。
詳細說來,GPT-2是一種訓練有效算法的模型,該算法旨在通過給定一系列單詞的情況下,來製作出色的假新聞。例如,輸入字符串:“俄羅斯在唐納德特朗普意外地。。。之後,宣布對美國發動戰爭”該算法產生了以下假新聞:
“在唐納德·特朗普意外地向空中發射導彈後,俄羅斯向美國宣戰。俄羅斯表示,已確定了導彈的彈道,並將採取必要措施,確保俄羅斯人民和該國戰略核力量安全。白宮表示,它非常關注俄羅斯違反禁止中程彈道導彈條約。自2014年莫斯科吞併烏克蘭克里米亞地區並支持烏克蘭東部的分離主義分子以來,美國和俄羅斯的關係一直不穩定。”
儘管OpenAI今年年初早些時候擔心由於存在創造虛假新聞的風險而不會發布預測性語言模型,但幾個月之後,該公司過渡到了分階段發布GPT-2。根據這個策略,每個發布的版本將建立在前一個版本的大小和規模的基礎上,最終導致完整的GPT-2的發布。在新版本中,現有的GPT-2規模和功能是最終版本的一半。
除了這個模型,OpenAI的政策團隊還發布了由Irene Solaiman領導的一個研究小組進行的研究,該研究小組正在研究GPT-2等語言處理模型的發布策略,社會影響和濫用案例。該研究發現,被測試的讀者錯誤地將虛假新聞誤認為真正的新聞,對它的平均信任與對“紐約時報”文章的信任程度相同。雖然在研究期間未發現模型的惡意使用,但研究人員確定了語言處理模型的潛在用例,例如代碼自動完成和語法幫助等。