歐盟AI法案或被擱置基礎模型監管據稱是矛盾焦點
根據媒體引述消息人士報道,由於難以就監管ChatGPT等系統達成一致,歐盟人工智慧(AI)法案面臨被擱置的風險。經過兩年的談判,歐洲議會今年6月通過了《AI法案》授權草案。該法案目前處於成員國、議會和歐盟委員會的三方談判階段,這一階段的目的是確定最終版本的法案。若正式獲得批准,該法案將成為全球首部關於AI的全面法規。
談判代表定於當地時間週五舉行會議,在12月6日的最終會談之前進行關鍵討論。歐盟產業政策主管蒂埃里·布雷頓以及《AI法案》的協商領導者之一Dragoș Tudorache等先前表示,希望該法案能在今年底前獲得批准。
然而,消息人士稱,對基礎模型的監管已成為《AI法案》談判的主要障礙。
一些專家和立法者提出了分級方法來監管基礎模型。歐盟將基礎模型定義為擁有超過4500萬用戶的模型。聊天機器人ChatGPT被定義為非常有能力的基礎模型,此類基礎模型需承擔額外的義務,包括定期審查以發現潛在漏洞。
然而,一些立法者認為,那些規模較小的模型可能具備同樣程度的風險。
據悉,達成協議的最大挑戰來自法國、德國和義大利,它們傾向於讓生成式AI模型的開發公司自我監管,而不是製定嚴格的規則。
消息人士稱,10月30日於羅馬舉行的會議上,法國說服義大利和德國支持這項提議,在此之前,談判進展順利,立法者在監管高風險AI等其他幾個爭議領域做出了妥協。
布雷頓、歐洲議員和數十名AI研究人員均反對讓公司自我監管。本週,Geoffrey Hinton等研究人員發表公開信警告稱,自我監管可能遠遠達不到基礎模型安全所需的標準。
消息人士也透露,談判中其他懸而未決的問題包括AI的定義、基本權利影響評估、執法例外和國家安全例外等。
由於下一屆歐洲議會選舉將於明年進行,若立法者無法在年底前就《AI法案》達成一致,該法案可能會被擱置。
非營利組織未來生命研究所政策主管Mark Brakel表示:“如果你在六到七週前問我,我會說,我們看到在所有關鍵問題上都出現了妥協,但現在變得困難多了。”