嚴格限制AI風險澳洲考慮設置強制性“護欄”
澳洲將考慮對人工智慧的發展引入強制性“護欄”,試圖在這項新技術帶來的生產力效益與傳播虛假訊息等潛在風險之間做些平衡。當地時間週三,澳洲工業和科學部長艾德·胡錫克(Ed Husic)宣布,計劃成立一個專家小組,以權衡限制人工智慧的使用和研究的選擇。
「對AI發展的資源限制是不夠的
該部門正在考慮的其他限制規定包括:設立低風險應用程式的自願安全標準,要求人工智慧創建內容加上浮水印等。
胡錫克在新聞發布會上談到人工智慧技術時表示:“我們確實需要有那些強制性的護欄,告訴你這些是你不能越過的紅線。”
他還提到,政府“清楚地聽到,澳洲人希望有更強的護欄來管理高風險的人工智慧。”
澳洲政府於2023年6月開始對人工智慧的「安全和負責任」使用進行審查,並在收到500多份相關方的意見書後決定延長回應期。
澳政府表示,在政府諮詢期間標記的AI風險中,存在諸如不準確、帶有偏見和缺乏透明度等問題。從審查中可以清楚看出,對人工智慧發展自願做出限制是不夠的。胡錫克表示,將「立即」開始製定人工智慧法規。
更多監理考驗即將到來
在全球範圍內,AI技術既被視為提高生產力的驅動因素,也被各國政府視為潛在風險因素,包括可能助長假訊息的傳播。
在澳大利亞,預計到2030年,採用人工智慧和自動化每年將為經濟產出增加多達6,000億澳元(約3,970億美元)。
澳洲政府表示,他們的目標是限制人工智慧高風險應用的危險,同時允許低風險的人工智慧應用「蓬勃發展」。
雖然政府沒有詳細說明高風險可能包括什麼,但胡錫克在接受採訪時將其定義為「任何影響人們生命安全,或某些人未來工作或法律前景的因素」。
在國際人工智慧安全高峰會之後,澳洲是去年11月在英國簽署布萊切利宣言的27個國家之一,該宣言致力於在人工智慧測試方面進行全球合作。
這是世界各國和地區(特別是歐盟、美國、中國和英國等)為迅速制定人工智慧法規而採取的日益增長的行動的一部分。但這些措施只是開始,從今年開始,人工智慧技術將在各國面臨更多的監管考驗。