歐盟欲為AI擰上“緊箍咒”,擬沒收違規企業年收入6%
在數字經濟領域,歐盟監管機構再上“緊箍咒”。歐盟委員會(下稱“歐委會”)近日發佈人工智能行業監管草案。歐委會將人工智能應用場景分為“低、有限、高、不可接受”四個風險等級,等級越高的應用場景受到的限制越嚴格。
關於人工智能最受爭議的細分領域——人臉識別,歐委會稱,人臉識別所基於的所有遠距離生物識別系統也都被認定為高風險,並禁止執法部門在公共場合使用這一技術,除非發生兒童失踪、恐怖襲擊、甄別犯罪分子等情況,上述情況也需得到司法部門授權。
高緯伸倫敦辦公室律師斯瓦尼克(Herbert Swaniker)在接受第一財經記者採訪時表示,上述草案將重塑人工智能公司的資產價值。對於歐盟投資者而言,他們將根據新規制定投資決策,或以新規為基準重新審視已投項目。如果不這樣做,他們的一些投資項目可能會被降低估值。同時,歐盟還力圖創造一個有利於投資和創新的環境,以平衡新規帶來的風險。
所有遠距離生物識別系統均為高風險
根據歐委會的劃分,某些明顯威脅民眾安全及侵犯民眾權利的系統,被劃為不可接受風險的場景,包括違反用戶自由意志、誘導未成年人做出危險行為。
涉及交通、教育、醫療、就業等公共服務,及貸款、邊境管制等公民權利的應用均被列為高風險。歐委會對此解釋稱,如果利用人工智能應用,將使公民的生命與安全處於危險之中,剝奪公民獲得教育和職業課程的機會,影響旅行證件的真實性,這些應用將被判定為高風險。
頗受爭議的人臉識別場景均被劃作高風險。此前,歐盟《通用數據保護條例》(GDPR)已對此有所限制,GDPR對生物數據的處理,遵循“原則禁止、特殊例外”的原則。數據控制者可援引“數據主體的同意”作為個人生物數據處理的例外,但該同意必須是“自由給予、明確、具體、不含混”的。
聊天機器人等應用屬於有限風險。歐委會稱,這些應用需要讓用戶知曉自己在與機器互動,並有權決定是否繼續或退出該進程。
基於人工智能的電子遊戲、垃圾郵件識別屬於低風險,低風險應用佔目前歐盟人工智能應用的絕大部分。歐委會表示,對上述應用不做約束。
歐委會稱,如果人工智能公司不遵守上述草案,首先將受到警告,其產品有可能將被下架。如果人工智能公司仍違反規則,可沒收年收入6%。
斯瓦尼克稱,如果將罰款提升到全球營業額的6%,意味著歐盟已將對人工智能領域的懲罰力量提升競爭(反壟斷)領域的維度,後者是歐盟境內執法力度最嚴的領域。
將對歐洲人工智能行業帶來何種影響?
歐委會稱,上述規定首先將規範人工智能行業,高風險人工智能企業在產品上市前將承擔相應義務。
其次,歐委會認為,這將為其他國家關於人工智能行業立法提供先例。歐委會副主席韋斯塔格稱,上述草案解決了人工智能應用所帶來的社會風險問題,可供其他地區參考。
斯瓦尼克認為,在全球範圍內,歐盟是首個對人工智能應用立法的國家與區域,全球各國都將關注此草案所帶來的影響。此前,歐盟已通過GDPR,且已對其它國家產生影響力。
從消極方面來看,有美國媒體援引分析觀點認為,首先,上述草案內容過於模糊,存在太多漏洞。其次,這將給歐盟以外的人工智能企業帶來優勢,因為域外企業不用面對這些規則。
據歐盟《人工智能白皮書》、《歐洲創新記分牌》等文件所提供的數據,在人工智能行業,歐盟在監管方面走在前列。在市場份額方面,歐盟成員國呈現整體強、個體弱的特點。如果以整體計算,歐盟所佔全球市場份額為22%,位列全球第二。如果以個體成員國計算,歐盟所有成員國均落後於美、中、以三國。在投資方面,近五年來,歐盟在該領域的投資金額僅為美國的30%左右。在創新能力方面,歐盟的平均創新水平領先於美國,但落後於加拿大、韓國、澳大利亞和日本。
對於草案漏洞問題,斯瓦尼克認為,對人工智能企業罰款僅是監管的一方面。從另一方面來看,還需關注供應商如何投入金錢和人力成本以實現合規。上述草案迫使人工智能企業重新思考,將如何設計和應用人工技能技術。
其次,他認為,各利益攸關方還需考慮,如何實際遵守這些規則?在現實中,如何真正構建對高風險人工智能應用的監管?未來幾個月,歐委會需要聽取人工智能企業和用戶的意見。
對於為其他歐盟域外人工智能企業帶來優勢的觀點,數據創新中心(Center for Data Innovation)政策分析師穆勒(Benjamin Mueller)認為,上述草案將提高歐洲人工智能企業的成本,也會拖累研發速率,這將為美國、亞洲企業帶來機遇。但是,他也稱,如果美國、亞洲企業想在歐洲開展業務,或成為一些產品的供應商,將面對相應監管規則。
歐委會表示,上述草案歐盟理事會和歐洲議會批准,草案正式生效仍需數年。