歐盟正考慮禁止將人工智能用於大規模監控和社會信用評分
歐盟正在考慮禁止將人工智能用於多種目的,包括大規模監控和社會信用評分。這是根據一份洩露的提案,該提案在預計下周正式宣布之前已經在網上流傳。如果該提案草案獲得通過,歐盟將對人工智能的某些應用採取強硬立場,使其與一些國家區分開來。一些用例將以類似於歐盟在GDPR立法下對數字隱私的監管方式進行監管。
例如,成員國將被要求成立評估委員會,對高風險的人工智能係統進行測試和驗證。而在歐盟開發或銷售被禁止的人工智能軟件的公司–包括那些位於世界其他地方的公司–可能會被處以最高達其全球收入4%的罰款。
根據一份草案副本,該法規草案包括:
禁止人工智能用於”無理由的監控”,包括直接跟踪物理環境中的個人或從其他來源匯總數據的系統。
禁止人工智能係統創建社會信用評分,即根據社會行為或預測的人格特徵來判斷一個人的可信度。
在公共場所使用面部識別等”遠程生物識別系統”的特別授權。
當人們與人工智能係統互動時,需要發出通知,除非”從使用環境和背景來看,這是顯而易見的”
對”高風險”的人工智能係統進行監督,包括那些對安全構成直接威脅的系統,如自動駕駛汽車,以及那些很有可能影響人們生活的系統,如用於工作招聘、司法裁決和信用評分的系統。
在高風險系統投入使用前對其進行評估,包括確保這些系統可以向人類監督人員解釋,並確保這些系統是在經過測試的”高質量”數據集上進行訓練的,以防止出現偏差。
成立一個由各成員國代表組成的”歐洲人工智能委員會”,幫助委員會決定哪些人工智能係統算作”高風險”,並提出修改禁令的建議。
也許該文件最重要的部分是第4條,它禁止人工智能的某些用途,包括大規模監控和社會信用評分。不過,數字權利組織和政策專家對草案的反應是,這一部分需要改進。
“對要禁止的人工智能係統的描述是模糊的,而且充滿了不明確的語言,會造成嚴重的漏洞空間,”Access Now的歐洲政策分析師Daniel Leufer表示,這部分內容”遠遠沒有達到理想的程度”。
Leufer指出,禁止導致人們”行為、形成意見或作出不利於他們的決定”的製度是無益的模糊。國家法律究竟如何決定一項決定是否對某人不利?另一方面,Leufer說,禁止人工智能用於大規模監控的規定”太寬鬆了”。他補充說,禁止AI社會信用體系基於”可信度”的定義也過於狹隘。社會信用系統不需要評估某人是否值得信賴來決定他們是否有資格享受福利待遇等事情。
非營利組織IAPP(國際隱私專業人員協會)副總裁Omer Tene評論說,該法規”代表了布魯塞爾對新技術和創新的典型做法。當有疑問時,就進行監管。” Tene表示,如果提案獲得通過,將建立一個”龐大的監管生態系統”,不僅會吸引人工智能係統的創造者,還將吸引進口商、分銷商和用戶,並建立一些國家和歐盟範圍內的監管委員會。
目前還不知道在歐盟政策制定者為4月21日的正式宣布做準備時,這份提案草案可能會有什麼變化。不過該法規一旦提出,就會在歐洲議會議員的反饋意見後進行修改,並必須在各成員國分別實施。