Meta將對上傳到Facebook、Instagram和Threads的AI生成照片進行標註
隨著全球各國選舉的集中到來,Meta 將在未來幾個月內開始對上傳到Facebook、Instagram 和Threads 的人工智慧產生的照片進行標註。該公司還將開始懲罰那些不透露現實影片或音訊是否由人工智慧製作的用戶。
Meta 公司全球事務總裁尼克-克萊格(Nick Clegg)在接受採訪時說,隨著人工智慧生成的媒體越來越難以辨別真假,這些措施旨在”激勵”科技行業。白宮一直在大力推動企業為人工智慧產生的內容加上浮水印。克萊格說,與此同時,Meta 公司正在開發工具來檢測合成媒體,即使其元數據已被篡改,以掩蓋人工智慧在創作中的作用。
Meta 已經在使用自己的Imagine AI 生成器生成的圖片上打上了”Imagined with AI”的水印,該公司也將開始在使用Google、OpenAI、微軟、Adobe、Midjourney 和Shutterstock 的工俱生成的人工智慧照片上打上同樣的水印。克萊格說,在建立識別人工智慧生成的視訊和音訊的標準方面,該行業遠遠落後於其他行業。雖然Meta 對此類媒體如何被用於欺騙保持高度警惕,但該公司不可能靠自己抓住一切。
他說:”對於那些擔心視頻、音頻內容被設計用來在大選前的重要政治問題上欺騙公眾的人,我們將保持高度警惕。我是否認為有可能發生這樣的事情:無論多麼迅速地發現或迅速地貼上標籤,我們還是會被莫名其妙地指責掉鍊子?是的,我認為這是可能的,如果不是很有可能的話。”
Meta 公司一直在與人工智慧合作夥伴關係等組織合作,在現有內容真實性計劃的基礎上進一步發展。 Adobe 最近發布了內容憑證系統,將內容來源資訊納入影像元資料。 Google在發布了針對圖片的測試版SynthID 浮水印後,又將其擴展到了音訊檔案。
克雷格說,Meta 很快就會開始要求用戶披露使用人工智慧製作的逼真影片或音訊貼文。他說,如果用戶不披露,”將受到從警告到刪除違規貼文的各種處罰”。
人工智慧生成的政客病毒式貼文已經有很多例子,但克萊格低估了這種現像在大選年席捲Meta 平台的可能性。他說:”我認為,我們不可能很快看到完全由人工合成的、具有重大政治意義的視頻或音頻。我只是不認為事情會這樣發展”。
他說,Meta 還開始在內部測試使用根據社區標準訓練的大型語言模型(LLM),並稱其為數以萬計的人工審核員提供了一種高效的”分流機制”。他說:”這似乎是一種非常有效且相當精確的方法,可以確保上報給我們人工審核員的內容確實是那種需要人工判斷的邊緣案例。”