非營利組織問責科技呼籲經營人工智能的公司必須證明其技術是安全的
非營利組織問責科技(Accountable Tech)、AI Now和電子隱私信息中心(EPIC)發布了政策建議,旨在限制大型人工智能公司在監管方面的權力,這也可能會擴大政府機構對某些生成式人工智能用途的權力。
該組織本月向主要是美國的政治家和政府機構發送了這一框架,要求他們在製定有關人工智能的新法律法規時加以考慮。
該框架被他們稱為”零信任人工智能治理”(Zero Trust AI Governance),它基於三項原則:執行現有法律;制定大膽、易於實施的明線規則;讓企業承擔責任,證明人工智能係統在人工智能生命週期的每個階段都不會造成危害。它對人工智能的定義既包括生成式人工智能,也包括支持生成式人工智能的基礎模型以及算法決策。
Accountable Tech 的聯合創始人傑西-萊里希(Jesse Lehrich)表示:”我們希望現在就推出這個框架,因為技術發展很快,但新法律卻無法以這樣的速度發展。但這給了我們時間來減輕最大的危害,因為我們正在摸索監管預部署模型的最佳方法”。
他補充說,隨著選舉季的到來,國會很快就會離開進行競選活動,這讓人工智能監管的命運懸而未決。在政府繼續摸索如何監管生成式人工智能的過程中,該組織表示,目前有關反歧視、消費者保護和競爭的法律有助於解決目前的危害。
人工智能中的歧視和偏見是研究人員多年來一直警告的問題。《滾石》雜誌最近的一篇文章記錄了蒂姆尼特-格布魯等知名專家多年來如何就此問題敲響警鐘,但卻被雇用他們的公司所忽視。
萊里希指出,聯邦貿易委員會對OpenAI 的調查就是利用現有規則發現潛在消費者傷害的一個例子。其他政府機構也警告人工智能公司,他們將密切關注人工智能在其特定領域的應用。
美國國會舉行了多次聽證會,試圖找出應對生成式人工智能崛起的辦法。參議院多數黨領袖查克-舒默(Chuck Schumer)敦促同事們在人工智能規則制定方面”加快步伐”。OpenAI 等大型人工智能公司對與美國政府合作制定法規持開放態度,甚至與白宮簽署了一份不具約束力、無法強制執行的協議,以開發負責任的人工智能。
零信任人工智能框架還試圖重新定義數字屏蔽法(如第230 條)的限制,這樣,如果模型吐出虛假或危險信息,生成式人工智能公司就要承擔責任。
萊里希說:”第230條背後的理念大體上是有道理的,但Yelp上的差評是因為有人討厭這家餐廳,這與GPT編造誹謗信息是不同的。”(第230 條的通過在一定程度上正是為了保護在線服務免於承擔誹謗性內容的責任,但對於像ChatGPT 這樣的平台是否要為產生虛假和破壞性的言論負責,目前還沒有什麼既定的先例)
由於國會議員不斷與人工智能公司會面,加劇了人們對監管俘獲的擔憂,Accountable Tech 公司及其合作夥伴提出了幾條明線規則,即明確界定、不留主觀餘地的政策。
其中包括禁止將人工智能用於情緒識別、預測性警務、用於公共場所大規模監控的面部識別、社交評分以及全自動招聘、解僱和人力資源管理。他們還要求禁止為特定服務收集或處理不必要數量的敏感數據,禁止在教育和招聘等領域收集生物識別數據,以及禁止”監控廣告”。
問責科技還敦促立法者阻止大型雲提供商擁有大型商業人工智能服務或在其中擁有受益權,以限制大科技公司在人工智能生態系統中的影響。微軟和Google等雲服務提供商對生成式人工智能有著巨大的影響力。最知名的生成式人工智能開發商OpenAI 與微軟合作,微軟也對該公司進行了投資。Google發布了大型語言模型”巴德”(Bard),並正在開發其他用於商業用途的人工智能模型。
問責科技公司及其合作夥伴希望使用人工智能的公司證明大型人工智能模型不會造成整體傷害該組織提出了一種類似於製藥行業的方法,即公司在向公眾部署人工智能模型之前就必須接受監管,並在商業發布之後接受持續監控。
非營利組織並不要求建立一個單一的政府監管機構。不過,萊里希說,這是立法者必須解決的一個問題,看看拆分規則是會讓監管更靈活,還是會讓執法陷入困境。
萊里希說,可以理解小公司可能會對他們所尋求的監管數量望而卻步,但他認為,根據公司規模量身定制政策還是有餘地的。他說:”實際上,我們需要區分人工智能供應鏈的不同階段,並設計適合每個階段的要求。使用開源模型的開發者也應確保這些模型符合指導方針。”