微軟修復漏洞旗下AI不能再生成名人假裸照
美國時間週一,微軟為其人工智慧文字轉圖像生成工具Designer引入了更多保護措施,禁止人們用它來製作名人的非自願假照片。據悉,上週在X上瘋傳的泰勒絲(Taylor Swift)人工智慧生成裸照來自4chan和Telegram頻道,迫使微軟做出了改變。
微軟發言人證實了這起事件,並表示:「我們對此已展開調查,並採取相應措施解決問題。我們的行為準則明確禁止使用我們的工具創建成人或未經同意的私密內容。任何違反我們政策的行為,尤其是反覆嘗試製作這類內容,都將導致用戶無法繼續使用我們的服務。我們有一支龐大的團隊,致力於根據我們負責任的人工智慧原則開發各種安全系統,包括內容過濾、操作監控和濫用檢測等,以減少系統的濫用可能性,並為用戶創造一個更安全的環境。”
微軟強調,一項正在進行的調查無法證實X上斯威夫特的假裸照是用Designer製作的,但該公司將繼續加強其文字過濾提示,並解決濫用其服務的問題。上週五,微軟執行長薩蒂亞·納德拉(Satya Nadella)在接受採訪時表示,“我們有責任”為人工智慧工具增加更多“護欄”,以防止它們製作有害內容。上週末,X開始徹底封鎖對「泰勒絲」的搜尋。
納德拉說:「這關乎全球社會在規範上的融合。我們可以做到這一點,尤其是在法律、執法部門和科技平台的共同努力下。我相信,我們可以管理的範圍遠遠超過我們目前的認知。”
經過404 Media等媒體測試以及4chan和Telegram上的消息顯示,用戶利用漏洞生成圖像的操作已不再有效。
在斯威夫特人工智慧生成圖片上週引發關注之前,Designer已經阻止用戶生成帶有「泰勒絲裸體」等文字提示的圖片,但Telegram和4chan上的用戶發現,他們可以透過稍微拼錯名人的名字,以及描述不使用任何性術語但會導致性暗示的圖片來繞過這些保護。
微軟修復漏洞後,引發了網友熱議。根據404 Media的報導,Telegram上的一名用戶在頻道中寫道:“我認為微軟的Designer已經被打補丁了。”
另一位用戶回應:「好像它再也無法產生名人的照片了。即使是搜尋克洛伊·莫瑞茲(Chloe Moretz),也只會產生普通的金髮女孩。我嘗試更換伺服器和帳號,但得到的結果都是一樣的。”
還有用戶表示:“我覺得它現在已經完蛋了。Ariana,、Kylie Jenner,、Lisa、Zendaya這樣的名人,現在都只展示出與她們長相或種族相似的普通女孩照片。”
404 Media並未公佈Telegram頻道的名稱,因為Telegram並未刪除該頻道,而且通常不會從其平台上刪除太多有害內容。該頻道擁有數萬名成員,但404 Media並未公佈特定用戶的身分。分享Telegram頻道的名稱只會吸引更多人關注它,無益於為有害內容的目標提供任何追索權。
儘管Telegram頻道仍在分享人工智慧生成的成人圖片,其中一些似乎是用其他人工智慧工具產生的,還有一些是從其他網站上提取的。雖然該頻道的重點是利用微軟的Designer這項免費且易於使用的工具,但有許多其他方法可以在網路上製作這種有害的內容。例如,目前任何人都可以下載名人模型並在自己的電腦上本地運行,以產生有害內容。在4chan上,一些用戶聲稱他們已經發現了必應和Designer的新漏洞。
Telegram頻道上的一位用戶表示:「我堅信,如果這裡被關閉了,我們會找到其他地方來製作人工智慧內容。」(小小)