機構警告:AI製作的兒童性虐待圖片”有可能淹沒網路”
一家安全監督機構警告說,人工智慧生成的兒童性虐待圖像正在成為”最可怕的噩夢”,並有可能使網路不堪重負。網路觀察基金會(IWF)稱,它已經發現了近3,000 張人工智慧製作的虐待圖片,這些圖片顯然違反了英國法律。
這家總部位於英國的組織稱,現實生活中現有的虐待受害者圖像正被植入人工智慧模型,然後產生新的描述。
該組織還補充說,這種技術也被用於製作名人圖像,這些名人被”去年齡化”,然後被描繪成性虐待場景中的兒童。兒童性虐待材料(CSAM)的其他例子包括使用人工智慧工具”裸化”在網路上發現的穿著衣服的兒童圖片。
國際婦女論壇曾在今年夏天警告說,人工智慧製造虐待的證據已經開始出現,但它說最新的報告顯示這種技術的使用正在加速。IWF 執行長蘇西-哈格里夫斯(Susie Hargreaves)說,監督機構”最可怕的噩夢成真了”。
「今年早些時候,我們曾警告說,人工智慧圖像可能很快就會變得與真實的兒童遭受性虐待的照片難以區分,我們可能會開始看到這種圖像以更大的數量擴散。”她說:”現在我們現在已經過了這個階段。令人不寒而慄的是,我們看到犯罪分子故意將他們的人工智慧訓練在已經遭受虐待的真實受害者的圖像上。過去曾被強奸的兒童現在正被納入新的場景中,因為有人,在某個地方想要看到它。”
國際婦女論壇表示,它也看到了人工智慧生成的圖像在網路上出售的證據。最新的調查結果是基於對暗網虐待兒童論壇長達一個月的調查。它調查了該論壇上的11108 張圖片,其中2978 張圖片因描述兒童性虐待而觸犯了英國法律。
根據《1978 年兒童保護法》,人工智慧生成的CSAM 是非法的,該法將拍攝、傳播和擁有兒童的”不雅照片或偽照片”定為犯罪。國際婦女論壇說,它發現的絕大多數非法材料都違反了《兒童保護法》,其中五分之一以上的圖片被歸類為A 類,即最嚴重的一類內容,可以描述強姦和性虐待。
2009 年《驗屍官和司法法案》也將兒童的非攝影違禁圖像(如漫畫或圖畫)定為犯罪。IWF 擔心,人工智慧產生的CSAM 浪潮將分散執法機構的注意力,使其無法發現真正的虐待行為並幫助受害者。
哈格里夫斯說:”如果我們不對這種威脅加以控制,這種材料就有可能使互聯網不堪重負。”
IWF 的技術長 Dan Sexton(Dan Sexton)說,影像生成工具穩定擴散(Stable Diffusion)是一個公開可用的人工智慧模型,可以透過調整來幫助產生CSAM,這也是論壇上討論的唯一一個人工智慧產品。
“我們看到圍繞著使用Stable Diffusion 創建內容的討論,這是一款公開可用的軟體。”
Stable Diffusion背後的英國公司Stability AI表示,它”禁止在我們的平台上濫用任何非法或不道德的目的,我們的政策明確規定這包括CSAM”。
政府表示,即將成為法律的網路安全法案將涵蓋人工智慧生成的CSAM,並要求社群媒體公司防止出現在自己的平台上。