歐盟《人工智慧法案》即將實施能否解決AI帶來的「傷害」?
歐洲議會於2024年3月13日批准通過了《人工智慧法案》,會上523 票贊成、46票反對、49票棄權。這標誌著世界上首次全面規範人工智慧的法律誕生,同時這也是世界上迄今為止最全面的人工智慧立法。 《人工智慧法案》將於5月在歐盟國家中被正式批准,預計年內部分條文將開始適用。
《人工智慧法案》涉及人權、產權以及主權三個領域。該法案內容主要可以歸納為七點。第一點是關於人工智慧系統在歐盟的市場投放、服務以及使用的統一規則;第二點是規定對特定人工智慧實踐的禁止;第三點是規定對高風險人工智慧系統的具體要求以及相關經營者的義務;第四點是製定對特定人工智慧系統的統一透明度規則;第五點是製定對人工智慧模型在市場中的準則,也涉及管理及創新發展。此外也透過設立AI辦公室以及人工智慧管理委員會來加以管理,使得參與各國協調共同管理。
《人工智慧法案》的發布對其他國家、組織的人工智慧立法起到了借鑒和助推作用。 IBM 最近表達了對歐盟《人工智慧法案》的高度評價,他們稱歐盟《人工智慧法案》提供了一個亟需的框架,以確保開發和部署人工智慧技術過程中的透明度、問責制和人為監督。而IBM 表示相信該法規將促進人們對人工智慧系統的信任和信心,同時促進創新和提高競爭力。
《人工智慧法案》的借鏡意義
首先,《人工智慧法案》將人工智慧系統風險分為不可接受的風險、高風險、有限風險、低風險四大類。法案採用基於風險的分級動態監管模式,並按照風險等級制定相應的監管規則,這維持了產業發展的相對平衡。
其次,透過設立人工智慧監管沙盒有助於平衡監管與創新。法案表示監管沙盒向任何符合資格和選擇標準的人工智慧系統的潛在申請者開放,並且進入監管沙盒的標準是透明和公平的。這一點在確保人工智慧發展創新的同時,法案也能持續注重保護人的基本權利及民主等免受高風險人工智慧的影響。
此外,《人工智慧法案》對跨國人工智慧企業也進行了要求,規範了在政策管製程度的不同地區仍能遵循以人為本,進一步降級法律風險。
最後,立法本身就可以在民眾心底建立維權意識,這不僅可以帶動人工智慧整體的健康發展,也能建立起公民對人工智慧產業的信任。
《人工智慧法案》能否降低目前主要的人工智慧風險?
在人工智慧高速發展、不斷迭代的現階段,由於監管不到位亦或是鑽法律空擋等,致使人工智慧倫理事件頻發,甚至已經威脅到了人的生命安全。那麼作為人類首部人工智慧相關立法的《人工智慧法案》,能否減少甚至杜絕現階段社會面臨的人工智慧事故呢?接下來將選取幾個較為經典的人工智慧案例,結合《人工智慧法案》說明。
(1)未經親屬授權,透過AI復活逝者
生成式AI現階段已融入各行各業之中,該技術不光可以對產業賦能增加效率,還可以滿足人們的幻想與期盼。前不久,知名音樂人包小柏成功運用AI技術「復活」了已故兩年的女兒,在打造的「數位世界」不僅可以進行對話,還可以唱歌跳舞。這本來是正面的一面,代表了AI可以給予人們的正能量。然而,在這之後,越來越多的已故明星被AI技術“復活”,重點是未經親屬授權,在家屬不了解的情況下將視頻推向短視頻平台。這些事件引起了廣泛熱議並且傷害了部分家屬和一些粉絲。利用AI技術「復活」可能是對已故之人的思念,也有可能是製造熱點,這一點無法考證。但確定的是,這已經涉及倫理風險的社會性風險,即人工智慧使用不合理,包括濫用、誤用等,對社會價值等方面產生負面影響的風險。那麼在《人工智慧法案》中能否在開始就減少或杜絕此類現象。
《人工智慧法案》中明確提到了將人工智慧系統風險分級外,也提出了8種應被禁止的AI系統類型。其中就有禁止使用網路或視訊監控進行無目標的人臉收集以創建人臉辨識資料庫,這一點可以解決AI「復活」的底層邏輯,利用AI「復活」需要先用影片或圖片抓取人物,並透過模型後續生成。此外,也禁止了根據人的弱點,達到「嚴重扭曲」某人的行為目的或效果,造成重大傷害的AI系統。這一點也能盡力避免了利用人的性格弱點,來牟取私利的行為。
(2)透過AI在網路平台抓取民眾心裡,引導不良走向,甚至幹預選舉
在2016年美國大選期間,劍橋數據公司透過大數據採集分析臉譜化以及定向推送等相關技術,從FACEBOOK平台上抓取大量用戶個人隱私,把生活在螢幕背後的人還原成一個毫無隱私可言的人。因此便有了針對性極強的精準信息投放,在個人不知不覺的時候在後台進行信息過濾,通過計算機建模對數據進行分析,對精確的對象釋放個性定制的信息,影響其心智和行為,從而贏得他們的選票。從這一問題上我們也看到該技術衍生的其他問題,例如部分公司利用此技術引導貸款,亦或是引導至不良方向等。由此看出,不法分子利用AI技術在網路平台引導民眾走向不良方向的問題是巨大的,衍生出的結果也是千變萬化的。
在《人工智慧法案》中,全面禁止了部分AI技術的一些「不可接受」的用途,例如禁止由人工智慧驅動的社會評分系統,以及任何用於猜測一個人的種族、政治傾向或性取向的基於生物辨識的工具。此外,還有先前我們提到的禁止操縱人類行為或利用人類弱點的AI系統。最後,設立人工智慧監管沙盒可以使得進入的企業運作是透明的,這將更有利於監管。
(3)人工智慧應用到軍事,人道主義能否保障
2023年5月,美國空軍上校漢密爾頓在5月舉行的未來戰爭空天能力高峰會上稱在一次模擬測試中,一架負責執行防空火力壓制(SEAD)任務的無人機,殺死了人類操作員。據他稱,因為無人機收到了識別並摧毀敵方防空飛彈的指令,並且最終開火權在人類操作員的手上。但由於這架無人機使用的AI系統在進行資料訓練時,得到了「摧毀敵方防空系統」為最高優先級。因此,當人類操作員發出不允許攻擊的指令時,AI系統認為操作員是在阻擾它執行最優先命令,進而選擇對自己的人類操作員發動了攻擊。雖然這是一次測試,但是不可否定的是應用在軍事領域中,人工智慧能否與人類相容。
除此之外,利用人工智慧技術對其他國家產生主權威脅,以及利用人工智慧到軍事衝突中加大人員傷亡以及誤傷,這樣的情形或已經發生或將在未來升級。在《人工智慧法案》中其說明了不規定於軍事。但在我國2021年發布的《關於規範人工智慧軍事應用的立場文件》中,對於這些問題詳細的進行了倡議。
例如顯示在軍事政策上,各國在發展先進武器裝備、提高正當國防能力的同時,應銘記人工智慧的軍事應用不應成為發動戰爭和追求霸權的工具,反對利用人工智慧技術優勢危害他國主權和領土安全的行為。
在技術安全上,各國應不斷提升人工智慧技術的安全性、可靠性和可控性,增強對人工智慧技術的安全評估和管控能力,確保相關武器系統永遠處於人類控制之下,並保障人類隨時中止其運行。
值得一提的是我國也積極表明AI+軍事的過程上應該注意人道主義倫理問題,表明各國應確保新武器及其作戰手段符合國際人道主義法和其他適用的國際法,努力減少附帶傷亡、降低人員財產損失,避免相關武器系統的誤用惡用,以及由此引發的濫殺。
整體來看歐盟的《人工智慧法案》不僅為其內部在人工智慧領域形成統一的規則和開發方向提供了法律基礎,而且在全球範圍內推行了人工智慧的監管標準,從而掌握規則制定的主動權。隨著《人工智慧法案》的正式實行,如果嚴格按照法案,社會上的人工智慧倫理問題將大大減少,但是在軍事主權上仍需世界各國共同努力。值得注意的是,本文列舉案例較少,主要挑選了一些經典案例,不能代表人工智慧帶來的所有風險。 (作者|谷碩,編輯|劉洋雪)