Google宣布其廣告服務將不再與合成成人作品的產出方合作
Google廣告、購物廣告、AdMob 和其他Google廣告產品將很快禁止deepfakes偽造性內容、合成性露骨內容或包含裸體的合成內容,現在,任何圍繞這些類型內容的應用或服務都將被禁止合作,該規定於2024 年5 月30 日生效。
Google寫道:「Google致力於創造一個安全和相互尊重的廣告環境。根據這一目標,我們正在更新有關推廣合成性內容的政策。我們非常重視違反本政策的行為,並將其視為惡劣行為。廣告是否屬於該政策的範圍,如果是,請在2024 年5 月30 日之前刪除這些廣告。
這不僅適用於Google 廣告,也適用於Shopping Ads、AdMob、Ad Manager 和其他Google 廣告項目。
Google表示不再允許合作夥伴實施如下行為:
- 推廣產生、散佈或儲存合成色情內容或合成裸體內容的服務。這包括製作”deepfakes”和其他經過處理的圖像的服務。
- 提供合成色情內容或合成裸體內容製作說明的內容廣告。
有關內容的界定,Google列出了這些例子:
- 聲稱能產生深度偽造色情內容的網站或應用程式。
- 關於如何製作深度偽造色情作品的教學。
- 認同或比較深層偽造色情服務的廣告。
近年來,未經同意的deepfake色情作品已成為一個持續存在的問題。去年12 月,佛羅裡達州兩名國中生因涉嫌製作人工智慧生成的同學裸照而被捕。就在本週,一名57 歲的匹茲堡男子因持有深度偽造的兒童性虐待材料而被判處14 年以上監禁。去年,美國聯邦調查局發布了一份警告,稱用人工智慧生成的裸體照片敲詐勒索的勒索計劃”有所上升”。雖然許多人工智慧模型讓用戶很難(甚至不可能)創建人工智慧生成的裸體,但有些服務確實允許用戶生成性內容。
針對deepfake色情內容的立法行動可能很快就會出台。上個月,眾議院和參議院提出了《DEFIANCE 法案》,該法案將建立一個程序,”數字偽造”的受害者可以通過該程序起訴製作或傳播未經同意的深度偽造者。