新加坡政府:目前不急於打算監管AI 正與企業開發AI測試工具
在多國正在探討監管生成式人工智能(AI)的背景下,新加坡政府表態稱,並不急於製定人工智能法規。當地時間6月19日,新加坡信息通信媒體發展局(IMDA)可信人工智能和數據主管李婉詩(Lee Wan Sie)在接受美國全國廣播公司商業頻道(CNBC)採訪時表示:“我們目前沒有考慮監管人工智能。”
不過,新加坡政府也在努力促進負責任地使用人工智能,呼籲企業合作開發“世界上第一個AI測試工具包”AI Verify。AI Verify包括一個AI治理測試框架和一個軟件工具包,使用戶可以對AI模型進行技術測試並記錄過程檢查,作為試點項目於2022年啟動,科技巨頭IBM和新加坡航空公司已參與測試。
政府與企業建立合作
近幾個月來,隨著聊天機器人ChatGPT風靡一時,對於生成式AI風險的擔憂也越來越多。李婉詩認為,“在這個階段,很明顯我們希望能夠向行業學習。在我們決定是否需要從監管方面做更多工作之前,要先了解人工智能的使用方式。”她同時補充道,監管可能會在稍後階段引入。
“我們認識到,作為一個小國,作為政府,我們可能無法解決所有問題。因此,我們與行業、研究機構和其他政府密切合作非常重要。”李婉詩說。
據悉,Google、微軟和IBM都已加入AI Verify基金會,這是旨在討論AI標準和最佳實踐,並就AI治理展開合作的全球開源社區。“微軟對新加坡政府在這一領域的領導力表示讚賞。”微軟總裁布拉德·史密斯(Brad Smith)在一份新聞稿中表示,“通過創建AI治理測試框架和工具包等實用資源,新加坡正在幫助組織建立穩健的治理和測試流程。”
“在AI方面,這個行業更加親力親為。有時,在涉及法規時,你會發現政策制定者對人工智能的想法與企業實際情況之間存在差距。”美國國家AI諮詢委員會(US National AI Advisory Committee)顧問哈尼亞·馬赫莫迪安(Haniyeh Mahmoudian)告訴CNBC,“因此,通過這種類型的合作,專門創建這些類型的工具包,得到了來自行業的投入。這對雙方都有利。”
在6月舉行的Asia Tech x Singapore峰會上,新加坡通信和信息部長楊莉明(Josephine Teo)表示,雖然政府認識到人工智能的潛在風險,但它無法僅靠自身推動人工智能的道德使用,“擁有專業知識的私營部門可以有意義地參與,與我們一起實現這些目標。”
她說,雖然“對AI的發展存在非常真實的恐懼和擔憂”,但需要積極引導AI走向有益用途,遠離不良用途。“這是新加坡如何看待人工智能的核心。”
與此同時,一些國家已採取措施監管人工智能。6月14日,歐洲議會通過《人工智能法案》(AI Act),對ChatGPT等生成式人工智能工具施加更大的限制,開發者將被要求在發布前提交系統以供審查。法國總統馬克龍上周也表示需要對人工智能進行監管。而英國正在組建人工智能基礎模型工作組(AI Foundation Model Taskforce),以研究人工智能帶來的安全風險,並籌備全球人工智能安全峰會,以期讓其成為全球人工智能安全監管的地理中心。
ChatGPT之父在新加坡講話
國際律師事務所Clifford Chance科技集團亞太區負責人斯特拉·克萊默(Stella Cramer)表示,新加坡可以在該地區充當“管家”,允許在安全的環境中進行創新。Clifford Chance正與監管機構合作制定一系列市場指導方針和框架。
“我們看到的是圍繞開放和合作的一貫做法。新加坡被視為一個安全的司法管轄區,在監管機構的支持下,在受控的環境中測試和推廣你的技術。”克萊默說。
這個思路與OpenAI CEO山姆·奧特曼(Sam Altman)的想法似乎不謀而合。6月13日,奧特曼在新加坡管理大學(Singapore Management University)出席OpenAI全球巡迴“爐邊對話”活動,在現場詳細闡述瞭如何管理AI風險。他認為,重點在於讓公眾了解和體驗新的發展,這將確保在影響擴大之前發現並解決任何潛在危害。
“這比關起門來開發和測試一項技術,並假設所有可能的風險都已被識別和預防,然後將其發布給公眾更有效。”奧特曼說,“你不可能在實驗室裡學到所有東西。無論為了將危害降到最低而對產品進行了多少測試,總會有人想方設法以其創造者從未想過的方式利用它。”他指出,任何新技術都是如此。
“我們相信迭代部署是做到這一點的唯一方法。”奧特曼補充說,逐步引入新版本也能讓社會隨著人工智能的發展而適應,同時對如何改進人工智能產生反饋。
新加坡目前已經啟動了幾個試點項目,例如金融科技監管沙盒或健康科技沙盒,供行業參與者上市前在現場環境中測試其產品。“這些結構化框架和測試工具包將有助於指導AI治理政策,以促進企業安全可靠地發展AI。”克萊默說。