聯邦法官: 除非有人類驗證其準確性否則AI不能進入我的法庭
德克薩斯州的一位聯邦法官為其法庭上的律師制定了一項新規則: 除非人工智能的輸出被人類核查過,否則不能使用人工智能編寫的材料。美國地區法官布蘭特利-斯塔爾還命令律師提交證書,證明他們的文件是由人類編寫或審查的。
根據斯塔爾法庭的一項新的”法官特定要求”,”所有在法院出庭的律師都必須在備審簿上提交一份證明,證明文件的任何部分都不是由生成性人工智能(如ChatGPT、Harvey.AI或Google Bard)起草的,或者證明由生成性人工智能起草的任何語言都是由人類使用印刷記者或傳統法律數據庫檢查其準確性。”
每個案件都必須提交一份證明,並將涵蓋該案件的所有文件。一份證明樣本說,這些要求適用於文件中的任何語言,”包括引文、引證、轉述的論斷和法律分析”。
特朗普提名的美國德克薩斯州北區地區法院的斯塔爾說,人工智能”平台是令人難以置信的強大,在法律上有許多用途:表格離婚,發現請求,建議文件中的錯誤,口頭辯論中的預期問題。但法律簡報不是其中之一”。人工智能”平台在其目前的狀態下很容易產生幻覺和偏見。在幻覺上,他們會編造東西–甚至是引文和引證。”
根據法律專家尤金-沃洛克的文章,斯塔爾關於人工智能的新的常設命令是昨天發布的。”請注意,聯邦法官對在其法庭上執業的律師通常都有自己的常設命令。這些是在當地地區規則以及正常的聯邦民事和刑事訴訟規則之外的,”沃洛克寫道。
此前律師引用了ChatGPT”發明”的假案件
斯塔爾的命令是在紐約的律師史蒂文-施瓦茨承認他使用ChatGPT幫助撰寫法庭文件,其中引用了人工智能工具發明的六個不存在的案件之後發出的。施瓦茨和他的合夥人正在等待美國紐約南區地方法院的凱文-卡斯特爾法官可能下達的懲罰。
在卡斯特爾所謂的”史無前例的情況下”,法官說原告律師提交的文件包括六個”假的司法判決,有假的引文和假的內部引用”。這些文件包括捏造的案件名稱和一系列假裁決的”摘錄”,引用了人工智能發明的其他假先例。
施瓦茨提交的一份宣誓書說,他”對利用生成性人工智能來補充這裡進行的法律研究感到非常遺憾,今後在沒有絕對核實其真實性的情況下絕不會這樣做。”他還說,他”在這一事件發生之前,從未利用ChatGPT作為進行法律研究的來源,因此沒有意識到其內容可能是虛假的。”
斯塔爾的新常設命令討論了人工智能工具的潛在偏見。他寫道:”雖然律師們宣誓拋開他們的個人偏見、偏差和信仰,忠實地維護法律並代表他們的客戶,但生成性人工智能是人類設計的程序的產物,他們不需要宣誓。”
“人工智能係統不效忠於任何客戶、法治或美國的法律和憲法,”斯塔爾繼續說道。”不受任何責任感、榮譽感或正義感的約束,這種程序根據計算機代碼而不是信念行事,基於編程而不是原則。任何一方認為一個平台具有法律簡報所需的準確性和可靠性,可以申請許可並解釋原因。”
展望未來,斯塔爾的命令說,法院”將剔除任何來自律師的文件,如果該律師沒有在備審簿上提交一份證明,證明該律師已經閱讀了法院的特定法官要求,並理解他或她將根據規則11對他或她簽署並提交給法院的任何文件內容負責,無論生成性人工智能是否起草了該文件的任何部分。”