禁止套娃:專家用AI產生的錯誤訊息為反AI的錯誤訊息法辯護
大型語言模型在證明其可信度和可靠性之前,還有很長一段陡峭的路要走。 就目前而言,這些模型有助於進行研究,但只有傻瓜才會相信它們足以撰寫法律文件,專業教授應該更清楚這一點。然而,史丹佛大學的一位教授向法院提交了一份宣誓書,支持明尼蘇達州一項有爭議的法律,該法律旨在遏制使用深度偽造和人工智慧影響選舉結果。
對現行法律的擬議修正案規定,在競選活動中使用深度偽造技術而被定罪的候選人必須放棄競選,並根據前科數量面臨最高五年和一萬美元的罰款和監禁。
明尼蘇達州眾議員瑪麗-弗蘭森(Mary Franson)和YouTuber克里斯托弗-科爾斯(Christopher Kohls)對該法律提出質疑,稱其違反了憲法第一修正案。 在預審過程中,明尼蘇達州總檢察長Keith Ellison 要求史丹佛大學社群媒體實驗室的創始主任Jeff Hancock教授提供一份宣誓書,聲明他支持這項法律。
傑夫-漢考克教授透過CourtListener發表的專家聲明全文:
《明尼蘇達改革者報》指出,漢考克起草了一份看似措辭嚴謹的論證,說明了立法的必要性。 他引用了多個資料來源來證明自己的觀點,其中包括《資訊科技與政治期刊》(Journal of Information Technology & Politics)上一篇名為《深度偽造影片對政治態度與行為的影響》(The Influence of Deepfake Videos on Political Attitudes and Behavior)的研究。 他也引用了另一篇名為《深度偽造與幻覺: 錯誤訊息接受背後的認知過程》。 問題是,這些研究都不存在於上述期刊或任何其他學術資源中。
原告提交了一份備忘錄,暗示這些引文可能是人工智慧產生的。 即使這些引文並非出自法學碩士之手,但這些可疑的引文也對聲明的有效性提出了質疑,因此法官應該將其駁回。
備忘錄中寫道:”該引文具有人工智慧’幻覺’的特徵,表明至少該引文是由ChatGPT 這樣的大型語言模型生成的。原告不知道這個幻覺是如何出現在漢考克的聲明中的,但它使整份文件受到質疑。
如果引文是人工智慧生成的,那麼宣誓書的部分內容甚至全部內容也極有可能是人工智慧生成的。 在ChatGPT 的實驗中,TechSpot 發現,LLM 會編造一些不存在的引文,顯然是為了讓故事增添可信度。 當被問及此事時,聊天機器人會承認自己編造了這些資料,並會用更可疑的內容來修改(上圖)。
可以想像,漢考克無疑是個大忙人,他寫了一份宣言草案,交給助手編輯,助手通過法律碩士對其進行了清理,而模型則在未經提示的情況下添加了參考資料。 然而,這並不能成為該文件不受應有的審查和批評的藉口,而這正是當今法律碩士的主要問題所在。
一位自稱專家的人向一個法律機構提交了一份包含人工智慧產生的錯誤資訊的文件,以支持一項禁止此類資訊的法律,這對任何相關人員來說都不失為一種諷刺。 艾里森和漢考克都沒有對此發表評論,他們很可能希望這個尷尬的失誤就此消失。
更誘人的問題是,法庭是否會認為這是偽證行為,因為漢考克在簽名時說:”我聲明,在偽證罪的懲罰下,我在本文件中所陳述的一切都是真實和正確的”。 如果不追究濫用人工智慧的責任,人工智慧又怎麼會好起來呢?