歐盟在大選前就GenAI 風險問題加強對主要平台的監管
歐盟委員會向Google、Meta、微軟、Snap、TikTok 和X 公司發出了一系列正式的資訊請求(RFI),詢問它們如何處理與使用生成式人工智慧相關的風險。
這些要求涉及必應(Bing)、Facebook、Google搜尋、Instagram、Snapchat、TikTok、YouTube 和X。根據規定,這八個平台被指定為超大型線上平台(VLOPs),這意味著它們除了要遵守規則手冊的其他規定外,還必須評估和降低系統性風險。
在周四發布的新聞稿中,委員會表示,它要求這些公司提供更多信息,說明它們各自採取了哪些措施來降低與其服務中的生成式人工智慧相關的風險–包括與人工智慧技術產生虛假資訊的所謂”幻覺”有關的風險、深度偽造的病毒式傳播風險,以及可能誤導選民的自動操縱服務風險。
“委員會還要求提供資訊和內部文件,說明與生成式人工智慧對選舉進程、非法內容傳播、基本權利保護、性別暴力、未成年人保護和精神健康的影響有關的風險評估和緩解措施,」歐委會補充說,強調這些問題涉及”生成式人工智慧內容的傳播和創建”。
歐盟在向記者介紹情況時也表示,它正計劃在復活節後進行一系列壓力測試。這些測試將檢驗平台是否做好了應對人工智慧生成風險的準備,例如在6 月歐洲議會選舉前可能出現的大量政治深度偽造。
一位不願透露姓名的委員會高級官員說:”我們希望推動各平台告訴我們他們正在做什麼,以便盡可能做好準備……應對我們可能發現的所有事件,以及我們在選舉前必須做出的反應。”
歐盟負責監督虛擬業者遵守這些針對大科技的DSA 規則,並將選舉安全列為執法的優先領域之一。最近,歐盟正在就針對虛擬營運商的選舉安全規則進行諮詢,同時著手製定正式指南。
根據委員會的說法,今天的要求部分是為了支持這項指導。儘管這些平台被要求在4 月3 日之前提供與保護選舉有關的信息,這被稱為”緊急”要求。但歐盟表示,希望在此之前,即3 月27 日前完成選舉安全指南。
委員會指出,合成內容的製作成本正在急劇下降,這增加了選舉期間製造誤導性假新聞的風險。正因如此,委員會對具有廣泛傳播政治虛假內容規模的主要平台加強了關注。
在歐盟看來,上個月慕尼黑安全會議上達成的打擊在選舉中欺騙性使用人工智慧的科技業協議還不夠深入,該協議得到了許多與歐盟委員會現在發送的《索取資料書》相同的平台的支持。
委員會的一位官員表示,即將發布的選舉安全指南將”更進一步”,並指出委員會計劃利用三重保障措施:首先是DSA 的”明確盡職調查規則”,該規則賦予委員會針對特定”風險情況”的權力;其次是透過《反虛假資訊行為準則》(無法律約束力)與平台合作五年多的經驗,歐盟打算將該準則變為DSA 下的《行為準則》;最後是即將出台的《人工智慧法》下的透明度標籤/人工智慧模型標記規則。
這位官員補充說,歐盟的目標是建立一個”執法機構生態系統”,在選舉前可以利用這些機構。
歐盟委員會今天的《索取資料書》也旨在解決比操縱選民更廣泛的人工智慧生成風險,例如與深假色情或其他類型的惡意合成內容生成有關的危害,無論生成的內容是圖像/影片還是音頻。這些要求反映了歐盟DSA 執行VLOP 的其他優先領域,其中包括與非法內容(如仇恨言論)和兒童保護相關的風險。
各平台可於4 月24 日之前對其他生成式人工智慧徵求意見稿作出回應。
可能傳播誤導性、惡意或有害深度偽造內容的小型平台,以及能夠以較低成本生成合成媒體的小型人工智慧工具製造商,也在歐盟的風險緩解雷達上。
這些平台和工具不屬於委員會明確的DSA 對VLOP 的監督範圍,因為它們沒有被指定。但委員會擴大監管影響的策略是間接施壓,透過大型平台(在此背景下可能充當放大器和/或傳播管道);透過自我監管機制,如上述《虛假資訊守則》;以及《人工智慧法》(硬法)通過後(預計幾個月內)即將啟動和運行的《人工智慧契約》。