OpenAI與美國AI安全研究所合作20%算力將分配給安全研究
OpenAI執行長山姆·奧爾特曼週四(8月1日)重申了該公司在保證人工智慧(AI)安全方面所做出的承諾。奧爾特曼在社群媒體X平台上發文稱,「我們致力於將20%的運算資源分配給整個公司的安全工作。」這一點該公司曾在7月初的一則聲明中提到過。
他還指出,「我們的團隊一直在與美國人工智慧安全研究所(US AI Safety Institute)合作並達成協議,希望該研究所能儘早訪問我們的下一個基礎模型,以便我們能夠共同努力,推動人工智慧安全評估的科學發展。
這家研究所是一個旨在評估和解決人工智慧平台風險的聯邦政府機構,隸屬於美國商務部國家標準與技術研究院(National Institute of Standards and Technology)。該機構為包括Anthropic、Google、Microsoft、Meta、蘋果、亞馬遜和英偉達等大型科技公司在內的公司財團提供諮詢。
奧爾特曼的這項聲明並沒有透露太多細節,但這一舉措,連同OpenAI在6月與英國人工智慧安全機構達成的類似協議,意在反駁這樣一種說法,即OpenAI在追求更有當能力、更強大的生成式人工智慧技術時,已經把人工智慧安全工作放在了次要地位。
今年5月,OpenAI被爆出解散了一個專注於研究人工智慧安全的部門,該部門致力於開發人工智慧控制措施,以防止「超智慧(Superintelligence)」人工智慧系統失控。同月,該部門的兩位聯合負責人Jan Leike和Ilya Sutskever也宣布辭職。
目前,Jan Leike在人工智慧新創公司Anthropic的安全研究部門就職,而Ilya Sutskever創辦了自己的專注於安全的人工智慧公司Safe Superintelligence。
這一事態發展讓OpenAI和奧爾特曼遭受到了很多批評聲浪。 OpenAI後來回應道,成立安全委員會,將20%的計算資源用於安全研究,並將取消限制員工揭發的條款。
然而,這些舉措並沒有安撫一些市場觀察家的質疑聲。 OpenAI 首席策略長傑森·權(Jason Kwon)最新回應稱,OpenAI「致力於在我們流程的每個階段實施嚴格的安全協議」。