推進人工智能安全研究美國“AI四大天王”牽頭成立行業機構
有分析認為谷歌、微軟等巨頭牽頭的成立的AI機構模糊了監管的重點,科技巨頭們試圖“逃避監管”,讓公眾忽視版權、數據保護和隱私等實際問題,監管需要來自外部。“安全和負責”已成為AI飛速發展至下的最重要的議題。AI巨頭“自控”條例剛出台不久,如今谷歌、微軟等巨頭再次合作進一步探索如何負責任地開發人工智能。
7月26日,Google、微軟、OpenAI和Anthropic這AI“四大天王”發布聯合公告,宣布成立前沿模型論壇(Frontier Model Forum),來確保未來可以安全且負責任地開發前沿人工智能模型。
公告指出,前沿模型論壇的核心目標包括:
- 推進人工智能安全研究,促進負責任地開發人工智能係統,最大限度地降低風險,並實現對大模型能力和安全性的獨立、標準化評估。
- 確定前沿模型負責任開發和部署的最佳案例,幫助公眾了解這項技術的性質、能力、局限性和影響。
- 與各國政府、學術界、社會組織及公司合作,分享有關AI大模型信任和安全風險的知識。
- 支持開發有助於應對全球社會挑戰的應用程序,例如減緩和適應氣候變化、早期癌症檢測和預防以及應對網絡威脅。
聯合公告還指出,該論壇將在未來幾個月內成立一個諮詢委員會來指導AI戰略,並將成立工作組和執行委員會,來安排包括章程、管理和資金在內的工作。
微軟副董事長兼總裁布拉德·史密斯(Brad Smith)表示,創造AI大模型的公司有責任確保其安全可靠,並始終處於人類控制之下:
這一舉措是將科技行業聚集在一起,負責任地推進人工智能並應對挑戰,使其造福全人類的重要一步。
但針對這一論壇,英國《金融時報》指出,論壇的建立意味著科技巨頭們的工作將集中於日益強大的人工智能帶來的潛在風險,而不是回答當今監管機構與版權、數據保護和隱私有關的實際問題。
華盛頓大學的計算語言學家Emily Bender認為這些公司的做法是試圖逃避監管,讓公眾將注意力集中在對“AI’湧現’並接管人類工作”的恐懼上,會分散人們對“數據盜竊、監視等實際問題”的注意力:
“監管需要來自外部。它需要由代表各國政府制定,來限制這些公司的行為。 ”
此前,美國聯邦貿易委員會(FTC)已對OpenAI發起調查。
當地時間7月13日媒體報導稱,FTC告知OpenAI,將調查ChatGPT是否通過發布虛假信息損害了人們的利益,以及OpenAI是否存在“不公平或欺騙性”的隱私和數據安全行為。
這一舉動早有預警,今年5月,白宮與OpenAI、Google、微軟等公司的首席執行官會面,探討相關技術的風險。白宮還表示,七家最大的AI公司已經同意在8月份的年度Def Con極客大會上開放模型,接受一定程度的公眾監督。
近日,在白宮“指示”下,美國人工智能(AI)巨頭“自我管控”的條例浮出水面。白宮公佈,拜登政府得到了亞馬遜、Anthropic、Google、Inflection、Meta、微軟和OpenAI七家公司自願的承諾,管控AI帶來的風險。他們承諾,將幫助推動AI技術安全且透明地發展。