OpenAI高層提議設立參考IAEA模式設立AI國際監管機構
人工智能的發展足夠迅速,它可能帶來的危險也足夠明顯,以至於OpenAI的領導層認為,世界需要一個類似於管理核能的國際監管機構–而且要快,但不要太快。在公司博客的一篇文章中,OpenAI的創始人Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever解釋說,人工智能的創新速度如此之快,以至於我們不能指望現有的機構能夠充分地控制這項技術。
雖然這裡有某種拍馬屁的性質,但任何公正的觀察者都清楚,這項技術,最明顯的是OpenAI的爆炸性流行的ChatGPT對話機器人,代表了一種獨特的威脅,也是一種寶貴的資產。
文章在細節和承諾方面比較輕描淡寫,但也承認人工智能不會自己管理自己:
我們需要在領先的開發工作中進行某種程度的協調,以確保超級智能的發展以一種既能讓我們保持安全又能幫助這些系統與社會順利整合的方式進行。
我們最終可能需要一個類似於[國際原子能機構]的機構來開展超級智能工作;任何超過一定能力(或計算等資源)門檻的努力都需要接受國際權威機構的檢查,要求進行審計,測試是否符合安全標準,對部署程度和安全級別進行限制,等等。
IAEA是聯合國在核電問題上進行國際合作的官方機構,就像核不擴散監管一樣,建立在這種模式上的人工智能管理機構可能無法進入並打開不良行為者的開關,但它可以建立並跟踪國際標準和協議,這至少是一個起點。
OpenAI的帖子指出,跟踪用於人工智能研究的計算能力和能源使用情況是相對較少的客觀措施之一,可以而且可能應該被報告和跟踪。雖然可能很難說人工智能應該或不應該被用於哪些領域,但說用於人工智能的資源應該像其他行業一樣受到監督和審計可能是有價值的。(該公司也建議較小的AI公司可以豁免監管,以避免扼殺創新的綠芽)。
領先的人工智能研究員和評論家Timnit Gebru今天在接受《衛報》採訪時說了類似的話:”除非有外部壓力要求做一些不同的事情,否則公司是不會自我監管的。我們需要監管,我們需要比單純的利潤動機更好的模式。”
OpenAI明顯接受了後者,這讓許多希望它名副其實的人感到驚愕,但至少作為市場領導者,它也在呼籲在治理方面採取真正的行動–除了最近的聽證會,參議員們排隊發表連任演講,文稿大多以問句結束。
雖然該建議相當於”也許我們應該,比如,做一些事情”,但它至少是行業內的一個對話啟動器,表明世界上最大的單一人工智能品牌和供應商支持做一些事情。迫切需要公共監督,但”我們還不知道如何設計這樣一個機制”。
雖然該公司的領導人說他們支持踩剎車,但現在還沒有計劃這樣做,因為他們不想放棄”改善我們的社會”(更不用說底線)的巨大潛力,也因為有一種風險,即壞的行為者已經把他們的腳放在油門上。