專家警告歐盟人工智能監管法案或嚴重打擊開源工作的積極性
針對歐盟擬議的開源人工智能監管新政,無黨派智囊團Brookings 已於近日表達了明確的反對意見。其在文章中指出—— 新規強加給通用人工智能係統的法律責任,也將對該領域的技術發展造成嚴重的破壞。根據歐盟的“人工智能法案”草案,開源開發者也必須遵守風險管理、數據治理、技術文檔和透明度、以及準確性和網絡安全標準等方面的指導方針。
截圖(來自:Brookings)
布魯金斯學會分析師Alex Engler 斷言,若一家公司部署了一套導致某些災難性後果的開源人工智能係統,那該公司將可通過起訴構建該產品的開源開發人員來試圖轉移責任,而這樣的後果是不堪想像的。
這麼做或進一步導致未來AI 權利被集中到大型科技企業的手中,並對公眾想要深入的至關重要的AI 研究造成阻礙。
最終歐盟對開源領域的監管嘗試,可能只會產生一系列危及開源AI 貢獻者的複雜要求、而無法改進通用AI 的使用。
2021 年的時候,歐盟委員會公示了旨在促進可信賴人工智能的監管草案(AI Act),以期在今秋投票之前廣泛徵集各行業的意見。
儘管該機構原本想要嘗試在技術創新與問責之間加以平衡,但據一些專家所述—— 紙面上的規定,對AI 系統的開發工作提出了相當繁重的要求。
據悉,該法案包含了對某些類別的開源AI 的例外情況,比如專用於研究和控制以防止濫用的那些。
但正如Alex Engler 所指出的那樣,想要無死角封堵這些項目進入商業系統是相當困難的,因為它們很可能被惡意行為者濫用。
以“Stable Diffusion”這款開源文本轉圖像AI 系統為例,儘管其在發布許可中禁止了某些類型的內容,但社區中還是很快冒出了利用此類工具來實施“深度色情偽造”的案例。
艾倫人工智能研究所(Allen Institute for AI)創始人兼首席執行官Oren Etzioni 也贊同了這一觀點,即當前人工智能監管草案存在多方面的問題。
規則帶來的沉重負擔,或對開源文本生成系統等開發等領域產生寒蟬效應。畢竟單打獨鬥的開發人員,很難趕上Google 和Meta 之類科技巨頭的水平。
歐盟不曾想到這一點—— 通向監管地獄的道路,竟是該機構在善意驅使下舖就的。儘管對於開源開發者來說,他們本不該承受與商業軟件開發商同等的負擔。
以學生開發者為例,他們可能出於無力遵守歐盟AI Act 的考慮,而被迫選擇不分發其辛苦打造的軟件,結果對科研成果和學術進步都造成了可重複性的寒蟬效應。
有鑑於此,Etzioni 認為歐盟監管機構不應尋求廣泛監管的人工智能技術、而應專注於AI 的特定應用。
理由是AI 存在快速變化和太多的不確定性,以至於遲緩的監管過程無法發揮作用。
相比之下,自動駕駛汽車、機器人或玩具等AI 應用,更應成為被監管的對象。