七家頭部AI企業共同承諾:將添加數字水印並開放第三方審查
美國白宮週五宣布,七家最具影響力的人工智能(AI)公司已同意簽署一份自願承諾,保證以負責任的態度開發AI,降低AI風險。自從OpenAI去年年底發布ChatGPT以來,安全已經成為AI領域的主要關注點。
這七家公司分別是谷歌、OpenAI、微軟、Meta、亞馬遜、AI創業公司Inflection、Anthropic。這些公司的代表將在周五齊聚白宮,舉行簽字儀式,他們是谷歌全球事務主管肯特·沃克(Kent Walker)、OpenAI總裁格雷格·布洛克曼(Greg Brockman)、微軟總裁布拉德·史密斯(Brad Smith)、Meta全球事務主管尼克·克雷格(Nick Clegg)、亞馬遜雲計算服務AWS CEO亞當·塞利普斯基(Adam Selipsky)、Inflection CEO穆斯塔法·弗萊曼(Mustafa Suleyman)、Anthropic CEO達里奧·阿莫德(Dario Amodei)。
這些公司承諾,在向公眾發布AI系統前允許獨立安全專家測試他們的系統,並與政府和學術界分享有關他們系統安全的數據。他們還將開發系統,當圖像、視頻或文本是由AI生成時向公眾發出警告,採用的方法是“加水印”。
以下是自願承諾的要點:
·為消費者開發一種識別AI生成內容的方法,例如加水印。
·在向公眾發布AI工具之前,聘請獨立專家評估這些工具的安全性。
·與其他行業參與者、政府和外部專家分享有關最佳實踐的信息,以及試圖繞過保障措施的行為。
·允許第三方查找並報告其係統漏洞。
·報告其技術的局限性,並對AI工具的適當使用進行指導。
·優先研究AI的社會風險,包括歧視和隱私。
·帶著幫助降低氣候變化和疾病等社會挑戰的目標開發AI。
由於這些公司是自願簽訂上述承諾的,因此即便他們未能履行承諾,他們目前也不會承擔任何後果。一些承諾預計也不會在周五立即得到執行。
此前,簽署該承諾的一些公司已經採取了類似行動。例如,OpenAI在大範圍推出GPT-4模型前已經組建了一支“紅隊”,聘請了50名學者和專家來測試GPT-4,通過對抗測試找出AI的不足,然後進行改進。谷歌也已經在一篇博客文章中表示,公司正在開發一種水印技術,以此標識AI生成內容。企業和政策制定者目前正在大力宣傳水印技術,把它視為解決AI加劇錯誤信息擔憂的一種方式。
一位不願透露姓名的白宮高級官員表示,自願承諾將提高整個AI行業的標準。“這將挑戰企業開發AI的極限,提高AI的安全和信任標準。”該官員表示。
與此同時,白宮官員對記者表示,拜登政府目前正在製定一項AI行政命令,支持國會推出監管AI技術的兩黨立法,以解決AI帶來的一些風險。該官員沒有透露該行政令的具體細節,也沒有披露該行政令的發佈時間,但他表示政府正在評估AI在政府機構中的作用,這是拜登的“高度優先事項”。
過去幾個月,拜登政府官員已經會見了科技公司高管、勞工和民權領袖討論AI。今年5月,白宮宣佈為AI開發公司提供更多資金和政策指導,其中包括向國家科學基金會提供1.4億美元以啟動七個新的國家AI研究所。谷歌、微軟、英偉達、OpenAI和其他公司也同意在今年的DefCon極客安全會議上允許他們的語言模型接受公開評估。