AI迎來全球管控時代但馬斯克的「第三方裁判」可靠嗎?
全球在人工智慧風險監管方面的步伐正在加快。當地時間11月1日,英國人工智慧安全高峰會(Artificial Intelligence Safety Summit, AISS)首日,英國政府在位於英格蘭南部的布萊切利莊園宣布,多個在人工智慧領域領先的國家和地區,包括美國、歐盟和中國,就人工智慧帶來的機會和風險,以及各國政府攜手應對挑戰的必要性達成了共識,並簽署了相關協議。英國政府隨後發布了這份名為《布萊切利宣言》(下稱《宣言》)的協議。
根據科技部官網消息,科技部副部長吳朝暉出席人工智慧安全高峰會,並於1日舉行的開幕式全體會議上發言。與會期間,代表團參與人工智慧安全等議題討論,積極宣介中方提出的《全球人工智慧治理倡議》,並將與相關國家進行雙邊會談。
中方指出,此次高峰會為各國提供了人工智慧安全與國際治理議題的重要對話平台與交流合作機會。人工智慧治理攸關全人類命運,是世界各國面臨的共同議題。發展人工智慧,應積極倡導以人為本,智能向善,加強技術風險管控,並在相互尊重、平等互利的原則基礎上,鼓勵各方協同共治,增強發展中國家在人工智慧全球治理中的代表性和發言權,不斷彌合智慧鴻溝和治理能力差距。
必要性和迫切性
在日內一場公開演講中,英國科學、創新和技術大臣米歇爾·唐蘭(Michelle Donelan)稱,《宣言》“是一項具有里程碑意義的成就”,它為圍繞人工智能相關風險的全球討論奠定了基礎,也讓國際社會意識到,必須加深對人工智慧相關風險的理解並採取應對舉措,因為「這是安全地利用人工智慧帶來的機會的唯一途徑」。
也有觀點認為,從某種意義上講,這份宣言可以視為國際社會首次就監管人工智慧的必要性和緊迫性做出正式聲明,但就監管力度等問題仍存分歧。
整體來看,《宣言》最重要的內容包括兩點:一是人工智慧風險監管的必要性與迫切性,二是人類應對人工智慧風險必須透過國際合作。
《宣言》提到,目前較大的安全風險出現在人工智慧的「前沿」領域,即前沿AI(Frontier Artificial Intelligence),也就是那些能力強大的通用人工智慧模型,包括可以執行各種任務的基礎模型,以及特定的弱人工智慧(narrow AI),兩者都具有為人類社會帶來傷害的能力。
如果上述前沿AI被故意濫用,或在正當的使用過程中出現意外失控,都會帶來巨大風險。《宣言》認為,這些問題的部分原因是人們對這些前沿AI的能力還不完全了解,因此難以預測。
《宣言》尤其關注網路安全和生物技術等領域的風險,以及前沿AI可能放大虛假資訊等風險。鑑於人工智慧發展速度之快和巨大的不確定性,以及在相關投資加速的背景下,《宣言》強調加深對這些潛在風險的理解,以及應對這些風險的行動尤為迫切。
在接受第一財經採訪時,倫敦國王學院教授、人工智慧研究所所長卡邁恩·文特爾(Carmine Ventre)稱,弱人工智慧解決的是特定任務,如果落入壞人之手,可能會產生極為危險的後果,例如,「為生物工程應用而設計的人工智慧模型,可能會被用來製造生物武器」。
加大投入應對AI風險
「前沿人工智慧模型的威力正在指數級增長。」英國首相里希·蘇納克在社群媒體上發文表示。
一年前的11月,當微軟支持的人工智慧新創公司OpenAI向公眾開放ChatGPT聊天機器人應用時,人們開始擔心人工智慧可能對經濟和社會產生的巨大影響。
英國在峰會上宣布將增加對兩台超級電腦的資助,以支持先進人工智慧模型安全的研究。其中一台超級電腦位於劍橋,由戴爾交付,包含超過1000個英特爾晶片;另一台位於布里斯托爾,由HPE製造,包含5000個英偉達先進人工智慧晶片。
兩台機器將從明年夏天開始運行,並推動藥物發現和清潔能源的突破。
英國政府也表示,在人工智慧研究方面的資金投入將從先前宣布的1億英鎊增加到3億英鎊(約27億元)。
美國政府利用此次高峰會宣布將成立美國人工智慧安全研究所,該研究所將評估AI的潛在風險。美國總統拜登於本週一簽署了一項行政命令,賦予美國政府對人工智慧系統進行更大監督的權力。新成立的美國人工智慧安全研究所將與國際同行機構分享資訊並合作研究。
馬斯克呼籲引入“第三方裁判”
參加會議的還有伊隆·馬斯克和ChatGPT之父薩姆·奧爾特曼等科技大佬。科技高層和領導人警告稱,人工智慧的快速發展如果不加以控制,將對世界構成生存威脅,各國政府和國際機構必須採取保障和監督措施。
目前針對人工智慧大模型的發展主要存在兩派觀點:一派是以馬斯克為代表的“風險警示者”,另一派是以Google、Meta等科技巨頭企業為代表的“風險淡化派”。
馬斯克在會上呼籲,引入「第三方裁判」對人工智慧的風險提出警告。他說:「我不知道公平的規則到底是什麼,但在進行監督之前,你必須從洞察風險開始。」馬斯克還表示,他不認為政府會在不知道該怎麼做之前就匆忙制定人工智慧的監管規則。
Google旗下人工智慧部門Deepmind共同創辦人穆斯塔法·蘇萊曼則認為,目前的人工智慧前沿模型不會造成任何「重大災難性危害」。但他表示,隨著產業訓練更大的模型,提前規劃風險的因應方式是有意義的。
牛津大學網路研究院(OII)網路研究教授、貝利奧爾學院研究員威廉·H·達頓(William H. Dutton)11月2日在參加於沙烏地阿拉伯首都利雅德舉辦的一場全球網路安全論壇期間接受第一財經專訪時表示:「關於人工智慧潛在風險的炒作非常多,但人們必須搞清楚到底何為風險、何為機會。這意味著我們需要更多的國際交流來了解人們對AI的想法。 」
在談到馬斯克提出的在AI治理方面引入“第三方裁判”的措施時,達頓表示:“我認為其中存在的問題是,這個裁判是否能夠公平地進行監督。”
學者呼籲建立國際監管機構
除了監管的必要性,《宣言》也高度強調了國際合作的重要性。《宣言》稱,由於人工智慧產生的許多風險本身俱有國際性,因此最好透過國際合作加以解決。
《宣言》建議,各國應考慮採取有利於創新、適度的治理和監管方法,最大限度地發揮人工智慧的效益,並考慮到人工智慧的相關風險;透過現有國際論壇和其他相關倡議,包括未來的國際人工智慧安全高峰會,加強和維持合作,並擴大與更多國家的合作,以確定、了解並酌情採取行動。
記者在高峰會現場了解到,已有多位參加高峰會的人工智慧領域學者呼籲建立一個國際監管機構,監管人工智慧的開發和應用,具體內容包括:對先進的人工智慧系統進行強制註冊,開發時必須具備快速「關閉」功能,開發者必須將一定比例的研究預算用於確保人工智慧安全。
先前亦有消息稱,英國政府對於本次峰會的目標之一,便是透過為期兩天的峰會,呼籲各國合作,成立一個類似於政府間氣候變遷專門委員會的人工智慧專家監測小組。
卡邁恩·文特爾對此表示,決策者需要考慮到人工智慧的特質,也就是發展方向的不確定性。他認為,目前人工智慧發展的速度遠超預期,因此,正在討論的法規和監管方式,應該是面向未來,並充分考慮到該領域的前沿研究。