薩蒂亞·納德拉:基於AI的偽造不良內容是”令人震驚和感到可怕的”
微軟公司執行長薩蒂亞-納德拉(Satya Nadella)對人工智慧製作的泰勒絲(Taylor Swift)色情假圖引發的爭議做出了回應。在接受將於下週二播出的NBC 晚間新聞採訪時,納德拉稱未經同意的AI生成裸體圖片的氾濫”令人震驚,非常可怕”,並對採訪者萊斯特-霍爾特( Lester Holt)說:”我認為我們應該對此迅速採取行動。”
在1 月30 日節目播出前由NBC 發布的文字稿中,霍爾特要求納德拉對”互聯網上充斥著泰勒-斯威夫特(Taylor Swift)的虛假色情圖片做出回應。納德拉的回答成功地揭開了科技政策的幾個謎團,但對這些謎團卻知之甚少–在沒有萬全之策的情況下,這也不足為奇。
我想說兩點:第一,我再次回到我認為的我們的責任上,那就是我們需要在技術周圍設置所有的防護欄,以便生產出更安全的內容。有很多事情要做,也有很多事情正在做。但是,這關係到全球、社會–你知道,我會說,在某些規範上的趨同。我們可以做到–尤其是當法律、執法部門和科技平台能夠走到一起的時候–我認為我們能夠管理的東西比我們想像的要多得多,我們給自己的信任也比我們想像的多得多。
而微軟本身就可能與偽造的史威夫特圖片有關。404 Media 的一份報告顯示,這些圖片來自一個基於Telegram 的色情內容製作社區,該社區推薦使用Microsoft Designer 圖片產生器。從理論上講,Designer 拒絕生成名人圖片,但人工智慧生成器很容易被欺騙,404 發現只要對提示稍作調整,就可以打破它的限制。雖然這並不能證明Taylor Swift的圖片是用Designer 製作的,但這是微軟可以解決的技術缺陷。
但是,人工智慧工具大大簡化了製造真人假裸照的過程,這給那些權力和名氣遠不如Taylor Swift的女性帶來了極大的麻煩。而控制其生產並不像讓大公司加強防護那麼簡單。即使像微軟這樣的”大科技”平台被鎖定,人們也可以重新訓練像Stable Diffusion 這樣的開放工具來產生NSFW 圖片,儘管有人試圖增加這種難度。訪問這些生成器的用戶可能要少得多,但Swift 事件表明,一個小社區的工作可以傳播得多麼廣泛。
納德拉模糊地暗示了更大的社會和政治變革,然而,儘管在監管人工智慧方面有一些早期舉措,但微軟並沒有明確的解決方案。一般來說,立法者和執法部門都在為如何處理未經同意的性相關影像而苦苦掙扎,而人工智慧的偽造又增加了額外的複雜性。一些立法者正試圖重新調整公開權法來解決這個問題,但所提出的解決方案往往會為言論帶來嚴重風險。白宮呼籲就這一問題採取”立法行動”,但即使是白宮,也沒有提供太多關於這意味著什麼的細節。
還有其他權宜之計–例如社群網路限制未經同意的圖片的傳播範圍,不過目前,納德拉唯一明確的計畫就是把微軟自己的人工智慧部門打理得更井井有條。