日本政府將製定AI指導方針:僅供“參考” 不具法律約束力
據日經新聞周五報導,日本政府希望今年晚些時候推出人工智能(AI)指導方針,消除可能與這種技術有關的偏見和其他濫用行為。考慮到生成式人工智能的發展速度,日本方面對實施嚴格的控制策略猶豫不決。據悉,計劃中的指導方針不具有法律約束力,也不會對違規行為進行處罰。
相比之下,歐盟計劃為這項技術制定詳細規則,嚴格界定從開發者到用戶的法律責任。在美國,包括谷歌、OpenAI在內的七家頂級人工智能公司做出承諾,將負責任地開發人工智能技術,且白宮正在積極制定一項“管理人工智能使用”的行政命令。
而日本政府僅僅打算提供指導方針,供企業在開發和使用人工智能時參考。為了鼓勵採用這些指導方針,日本政府將建立一種認證,證明這些企業正在遵循規範行事。政策制定者還設想要求企業在競標政府合同時遵守這些指導方針。
總之,在對待人工智能的態度上,日本與歐美之間存在著較為明顯的差別。據分析稱,日本積極擁抱人工智能與少子老齡化問題有著緊密的關係,日本政府期待通過人工智能技術解決日本面對的勞動力不足、醫療保健挑戰等問題。
此前,日本政府重申,不會對人工智能訓練中使用的數據實施版權保護,可見日本的立場很明確。該政策允許人工智能使用任何數據,“無論是出於非營利或商業目的,是否是複制以外的行為,也無論是從非法網站或其他方式獲得的內容。”
接下來,日本經濟產業省等部門將與約100名專家合作,制定具體的指導方針,供各部門和企業參考。
據悉,指導方針草案分為兩部分,第一部分包括所有企業通用的人工智能規則。這個章節包括指導操作人員意識到生成式人工智能程序的錯誤信息或偏見風險的基本原則。企業將開發遵守法律並考慮人權的服務,並敦促管理人員建立內部風險管理結構。
草案的第二部分概述了針對五類企業的具體規則。五類企業分別是:為生成式人工智能開發基礎模型的企業、使用數據訓練人工智能的企業、系統開發商、服務提供商和使用人工智能服務的企業。
負責人工智能開發和機器學習的運營商應保持一定程度的透明度,披露其人工智能項目所涉及的功能、目的和風險。
另外,企業還應該披露用於訓練生成式人工智能程序的數據類型。生成式人工智能模型的訓練需要大量的數據和計算資源,訓練這些模型的初始數據要避免包括有危害或有偏見的內容是至關重要的。
了解初始數據的性質也將有助於人工智能服務提供商更好地決定是否採用某個程序。這些披露還將有助於調查與人工智能程序有關的任何問題。日本政府將探索使用外部審計,以確保企業保持透明度。