拜登首席科學顧問:多次與總統討論AI問題將盡快出台防範風險措施
作為拜登的首席科學顧問兼白宮科技政策辦公室主任,阿拉蒂·普拉巴卡爾(Arati Prabhakar)是一位在美國科技界擁有深厚影響力的女性工程師。在近期接受媒體採訪時,普拉巴卡爾透露,已經與總統拜登多次討論有關於人工智能(AI)問題,拜登要求盡快出台防範人工智能風險的保障措施。 普拉巴卡爾正在幫助美國政府制定國家人工智能發展戰略,以防範錯誤信息和該技術的其他潛在缺點,部分依賴於亞馬遜、谷歌、微軟和Meta等美國大型科技公司的合作。 在上個月,亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI等七家主要人工智能公司將做出自願承諾,承諾內容包括在公開發布之前測試它們人工智能係統的安全性和能力,投資研究該技術對社會的風險,以及促進針對它們的系統漏洞的外部審查。拜登政府表示,為了遏制快速發展的人工智能技術帶來的誤導和其他風險,已與大型科技公司達成一項為這種技術設置更多防護措施的協議,包括開發水印系統,幫助用戶識別人工智能生成的內容。對此,普拉巴卡爾指出,世界上最先進的人工智能公司大多在美國,這是美國國家發展的一個巨大的優勢。但我們也必須清楚,必須要製定相應的規則,七家主要人工智能公司的自願承諾只是在履行自己的責任。普拉巴卡爾補充道,政府部門也必須加強行動,無論是行政部門還是立法部門,如此才能使相關技術和公司行穩致遠,也希望更多的公司和國家加入進來。她表示:“已經與拜登多次談論過人工智能的話題,他非常專注於理解人工智能是什麼,以及人們是如何使用它的。”普拉巴卡爾指出,拜登非常關注人工智能技術帶來的社會影響和可能的結果,這些談話很有探索性和前瞻性,但他也非常關注具體的行動。對於人工智能可能的風險,普拉巴卡爾表示,這些深度學習系統有一個技術特點,那就是它們是不透明的,它們本質上是黑盒子。而作為人類,我們面臨的大多數風險都來自無法解釋的事情。普拉巴卡爾提到,要特別關注人工智能係統的武器化、隱私問題、歧視性決策,以及人工智能生成的內容擾亂選舉等風險。而防範風險方面,她認為不會有完美的措施,但在對這些系統的安全性和有效性有足夠的了解之後,可以真正使用它們,並獲得新興技術所能提供的價值。普拉巴卡爾還表示,雖然還不能給出一個具體的時間表,但總統已經明確表示,這是一個非常急迫的問題,將會盡快出台防範風險的措施。