「AI換臉」性犯罪引發民眾恐慌韓國女性全網求助類似犯罪在國內也曾發生
近日,韓國出現多起利用AI換臉偽造女性色情露骨圖像的犯罪案,在這背後,犯罪者用深度偽造技術(Deepfake)合成色情照片和視頻,並在通信軟體Telegram的群聊中傳播,參與者多達22萬人,引發韓國民眾恐慌。
韓國女性在包括微博在內的全球各大社交平台上發文求助,這一話題也在近兩日登上多個微博熱搜,有人將其稱之為韓國又一「N號房」醜聞。深度偽造的核心原理是利用深度學習演算法將目標物件的臉部「嫁接」到被模仿物件上,隨著AI技術的進步,這項技術工具越來越普遍,門檻變低,容易被有心者利用進行數位犯罪。不只在韓國,在國內以及全球都有發生,涉及性犯罪以及金融詐騙等領域。
深度偽造犯罪頻傳
今年5月,韓國當地媒體報道,首爾大學畢業生樸某和姜某,從2021年7月至2024年4月的3年多里,盜用女性同學、熟人的照片,用深度偽造技術換臉合成色情製品,在Telegram上建立了近200個網絡聊天室進行傳播,警方稱,樸某共參與製作、傳播約1700份非法照片和視頻,受害女性多達61人。
樸某和姜某先後於今年4月和5月被逮捕,但這件事只是深度偽造性犯罪在韓國氾濫的冰山一角。
最近一周,韓國警方發現了大量與學校、醫院、軍隊有關的疑似分享淫穢影像的社交媒體群組,這些群組裡的淫穢影像經深度偽造換臉而製成。涉及的群組參與人數不等,少的幾百上千人,多的有十萬人以上,總計參與用戶多達22萬人(包含可能重複的情況)。受害女性包括學生、教師、軍人等,甚至有不少未成年人。
韓國婦女人權研究所公佈了一組數據:從今年1月1日到上週日,共有781名深度偽造受害者在線上求助,其中288名(36.9%)是未成年人。根據韓國教師聯盟估計,目前已有超過200所學校受到影響。
隨著輿論在各大社群媒體上發酵,韓國政府也出面作出表態。南韓總統尹錫悅表示,惡意利用深度偽造技術是犯罪行為,希望相關部門透過掌握實際情況和調查,徹底根除這類數位科技犯罪。
據了解,韓國警方已成立特別工作小組,8月28日起,將專門針對深度偽造性犯罪等不實視訊案件展開為期7個月的專案行動。警方統計顯示,韓國今年前7個月共有297件深偽色情罪案,較去年全年的180宗更高。
實際上,深度偽造這項技術犯罪,不僅出現在韓國,這兩年在全球都有出現。
在國內,今年6月,「男子用AI偽造學生同事近7,000張裸照」衝上微博熱搜。根據央視新聞消息,犯罪嫌疑人白某某是網路公司的技術員,他用AI「一鍵去衣」技術,深度偽造淫穢圖片近7000張,再每張1.5元賣出,賺了將近一萬元。圖片涉及女性人數多,包括學生、教師、同事。目前白某某已被提起公訴。
北京市海淀區人民檢察院檢察官助理郭樹正表示,白某某用的這款人工智慧軟體,能很快對被害人的圖片“一鍵去衣”,基本上幾秒鐘、幾分鐘就能批量生成相應的圖片。
針對此一案件,檢察機關認為,被告人白某某以牟利為目的,製作、販賣猥褻物品,情節嚴重,其行為觸犯了《中華人民共和國刑法》的相關規定,應當以製作、販賣猥褻物品牟利罪追究其刑事責任。
今年1月,美國著名歌手泰勒絲(Taylor Swift)也成為了AI深度偽造的受害者,大量由AI生成的泰勒不雅照在各大社交平台瘋轉,瀏覽量過千萬,引發公眾關注。
此外,在8月份,馬斯克(Elon Musk)也因AI偽造技術而捲入了一場詐騙事件。 82歲的退休老人史蒂夫·比徹姆(Steve Beauchamp)在網上看到了一段聲稱由馬斯克親自承諾收益的投資視頻,隨後他聯繫了視頻背後的推銷公司,並投資了超過69萬美元。隨後,這些錢就落入了詐騙犯之手。
據悉,這些詐騙者篡改了一段馬斯克的真實採訪,利用AI技術替換了他的聲音,並微調了他的口型,以匹配他們為這個數字人編寫的新劇本。對一般觀眾來說,這種操作幾乎察覺不出。
監理跟進
Sensity是監測和檢測深度偽造影片的公司,根據該機構發布的數據顯示,在2000多起深度偽造案件中,馬斯克的形像出現了近四分之一的案件,成為AI詐騙案中最常見的代言人之一。深度造假廣告也常常使用像沃倫·巴菲特(Warren Buffett)這樣的著名投資者和亞馬遜創始人傑夫·貝索斯(Jeff Bezos)等商界大佬這樣的形象。
近幾個月來,互聯網上充斥著數以千計的這種由AI驅動的視頻,據德勤估計,這類由AI支持的深度造假每年可能導致數十億美元的欺詐損失。這些影片製作成本極低,幾分鐘內即可完成,並透過社群媒體進行推廣。
深度偽造最初源自英語中新興的組合詞Deepfake,是電腦的深度學習(Deeplearning)與偽造(fake)的融合,通俗來說,深度偽造將圖片和聲音輸入機器學習的演算法,進而能進行臉部操作,即把一個人的臉部輪廓與表情放在其他任何人的臉上,同時憑藉對聲音的逼真處理,締造出實際上為合成但看起來極其真實的視頻。
多數的深度偽造均依賴深度學習技術生成式對抗網路(GAN),這種技術透過兩個相互競爭的神經網路——生成器和判別器來訓練數據,最終生成難以區分真偽的數據內容。 GAN生成器負責創建虛假數據,而判別器則對其進行鑑別。兩者不斷迭代最佳化,直到生成器能夠製造出足以欺騙判別器的高模擬資料。
從應用工具角度來看,市面上已經有若干成熟的深度偽造應用工具。例如,換臉應用程式可以將一個人的臉部置換到另一個人的身體上;重新投射技術允許臉部的運動和表情映射到目標使用者上;口型同步工具可以複製口部動作並結合音訊生成,創造出看似真實的說話影片。這些工具的普及性降低了技術使用門檻,使得一般個體也能創造出深度偽造內容。
鑑於深度偽造技術的潛在風險,各國政府和研究機構已開始採取應對措施。如美國和歐盟已經推出了相關政策和法規,旨在加強對深度偽造內容的監管和處罰。同時,研究人員正在開發檢測深度偽造內容的新技術,以期在複雜多變的虛假資訊環境中保護公眾免受欺騙。
我國已有相應法律手段應對此一問題。根據2023年1月10日起施行的《網路資訊服務深度合成管理規定》,任何組織及個人不得利用深度合成服務製作、發布或傳播法律、行政法規禁止的資訊。
2024年7月23日,美國參議院通過了《2024年打擊精準偽造圖像和未經同意編輯法案》(Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024,DEFIANCE Act),允許私密數字偽造內容的受害人向惡意製作或傳播的人尋求民事賠償。
根據這項法案,一般情形的損害原告可獲得的賠償額為15萬美元,如果被告對原告實施或企圖實施性侵犯、跟踪或騷擾等行為;或者涉案私密數字偽造內容成為任何人對原告實施或企圖實施性侵害、跟蹤或騷擾的直接和近因,賠償則為25萬美元。
監管之外,大型平台也已經開始重視這個問題。今年8月,Google宣布,將採取措施避免色情深度偽造內容出現在搜尋結果中。谷歌表示,將簡化受害者要求移除非自願色情影像的流程,並且會過濾掉相關搜尋的所有色情結果,也會刪除重複的影像。