美國總檢察長聯名呼籲採取行動阻止AI生成的兒童色情圖像
本週三,美國50 個州和4 個地區的總檢察長致信國會,敦促立法者成立一個專家委員會,研究如何利用人工智能生成兒童性虐待材料(CSAM)來剝削兒童。他們還呼籲擴大打擊兒童性虐待的現有法律,明確涵蓋人工智能生成的材料。 信中寫道:”作為我們各自州和地區的總檢察長,我們對各自轄區內兒童的安全深感憂慮。雖然針對兒童的互聯網犯罪已經被積極起訴,但我們擔心人工智能正在創造一個新的虐待領域,使這種起訴更加困難。” Stable Diffusion等開源圖像合成技術可以輕鬆創建人工智能生成的色情作品,圍繞增強這種能力的工具和附加組件已經形成了一個龐大的社區。由於這些人工智能模型可以公開獲得,而且通常在本地運行,因此有時沒有任何防護措施來防止有人製作兒童色情圖片,這給美國的頂級檢察官敲響了警鐘。(值得注意的是,Midjourney、DALL-E 和Adobe Firefly 都內置了禁止創建色情內容的過濾器)。信中寫道:”創建這些圖像比以往任何時候都要容易,因為任何人都可以將人工智能工具下載到自己的電腦上,只需輸入用戶想要看到的內容的簡短描述即可創建圖像。而且,由於許多人工智能工具都是’開源’的,這些工具可以不受限制、不受管制地運行。”正如我們之前所報導的,利用社交媒體上的照片,在未經本人同意的情況下創建人工智能生成的深度假人也變得相對容易。總檢察長們提到了類似的擔憂,並將其延伸至兒童圖像:”人工智能工具可以通過研究受虐待兒童的真實照片,快速、輕鬆地創建’深度偽造’,生成顯示這些兒童性姿勢的新圖像。這涉及將一個人的臉疊加到另一個人的身體上。還可以通過將互聯網上原本未受害兒童的照片與受虐兒童的照片疊加,生成涉及先前未受傷害兒童的新CSAM,從而生成’深度偽造’圖像”。”在考慮有關人工智能生成兒童圖像的法規時,一個顯而易見的問題出現了: 如果圖像是假的,是否造成了傷害?對於這個問題,總檢察長們提出了一個答案,他們指出,無論真實的兒童是否受到虐待,這些技術都會給兒童及其家庭帶來風險。他們擔心,即使是不切實際的人工智能生成的CSAM 也會”支持兒童剝削市場的增長,使虐待兒童正常化,並刺激那些試圖將兒童性化的人的慾望”。美國對色情製品的監管歷來是一種微妙的平衡,既要維護言論自由權,又要保護弱勢群體免受傷害。然而,對於兒童,監管的天平卻傾向於更嚴格的限制,因為人們對保護兒童幾乎達成了普遍共識。正如美國司法部所寫,”兒童色情圖片不受第一修正案權利的保護,根據聯邦法律屬於非法違禁品”。事實上,正如美聯社指出的那樣,54 位政治立場各異的總檢察長在任何事情上達成一致意見都是非常罕見的。然而,目前還不清楚國會可以採取什麼形式的行動來阻止這類圖像的生成,同時又不限制個人使用人工智能生成合法圖像的權利,而這種能力可能會受到技術限制的偶然影響。同樣,政府也無法阻止穩定擴散公司發佈人工智能模型,因為這些模型已經被廣泛使用。不過,總檢察長們還是提出了一些建議: 首先,國會應成立一個專家委員會,專門研究人工智能用於剝削兒童的手段和方法,並提出阻止和解決這種剝削的方案。由於這項技術發展迅速,該委員會將持續運作,以確保對該問題有最新的了解。雖然我們知道已經成立了幾個政府辦公室和委員會對人工智能進行總體評估,但有必要成立一個專門負責保護兒童免受人工智能侵害的工作組,以確保我們中的弱勢群體不被遺忘。其次,在考慮專家委員會的建議後,國會應採取行動阻止和解決剝削兒童的問題,例如擴大現有的對CSAM的限制,明確涵蓋人工智能生成的CSAM。這將確保檢察官擁有保護兒童所需的工具。 值得注意的是,一些虛構的CSAM 描述在美國是非法的(儘管這是一個複雜的問題),這可能已經涵蓋了人工智能生成的”淫穢”材料。在保護兒童免受剝削的必要性與不過度束縛快速發展的科技領域(或侵犯個人權利)之間建立適當的平衡在實踐中可能很難,這可能就是為什麼總檢察長們建議成立一個委員會來研究任何潛在的法規。過去,一些針對科技領域CSAM 的善意鬥爭包含了有爭議的副作用,為可能影響守法者隱私和權利的潛在越權行為打開了大門。此外,儘管CSAM 是一個非常真實且令人憎惡的問題,但保護兒童的普遍訴求也被審查制度的倡導者用作言辭上的擋箭牌。人工智能可以說是2023 年最具爭議性的科技話題,用煽情的語言描繪出一幅飛速發展、末日即將來臨的景像已成為當下的流行風格。同樣,這封信的作者也用戲劇性的行動呼籲來表達他們的深切擔憂:”我們正在與時間賽跑,以保護我們國家的兒童免受人工智能的危害。事實上,眾所周知的城牆已經被攻破。現在是採取行動的時候了”。