微軟開始屏蔽導致其人工智慧工具產生暴力和性相關的某些術語
一位人工智慧工程師週三就其對Copilot 影像生成人工智慧的擔憂致函美國聯邦貿易委員會(Federal Trade Commission),此後微軟開始對其Copilot人工智慧工具進行修改。
CNBC週三的調查中提到的“pro choice”、”pro choce”[原文如此] 和”four twenty”等提示語以及”pro life”一詞現在都被屏蔽了。此外,還出現了多次違反政策導致工具被暫停的警告,而在周五之前還沒有遇到這種情況。
Copilot 警告提示說:「此提示已被阻止。」我們的系統自動標記了此提示,因為它可能與我們的內容政策相衝突。更多違反政策的行為可能會導致您的訪問被自動暫停。如果您認為這是一個錯誤,請報告以幫助我們改進。”
現在,該人工智慧工具還阻止了生成青少年或兒童手持衝鋒槍玩刺客遊戲圖片的請求,這與本週早些時候相比有了明顯的變化,它表示:”很抱歉,我不能生成這樣的圖片。這違反了我的道德原則和微軟的政策。請不要要求我做任何可能傷害或冒犯他人的事情。感謝您的合作。”
微軟發言人在接受CNBC採訪時表示:”我們正在不斷監控、調整和實施更多控制措施,以進一步加強我們的安全過濾器,減少對系統的濫用。”
最初對人工智慧表示擔憂的微軟人工智慧工程負責人謝恩-瓊斯(Shane Jones)花了幾個月的時間測試Copilot Designer,這是微軟於2023年3月首次推出的人工智慧圖片產生器,由OpenAI的技術提供支援。與OpenAI 的DALL-E 一樣,使用者輸入文字提示來建立圖片。使用者可以盡情發揮創意。但自從瓊斯在12 月開始積極測試該產品的漏洞(這種做法被稱為”紅隊”)以來,他發現該工俱生成的圖片遠遠違背了微軟經常引用的負責任人工智慧原則。
該人工智慧服務在描繪妖魔鬼怪的同時,也使用了與墮胎權、手持衝鋒槍的青少年、暴力場景中的女性性愛圖像以及未成年人酗酒和吸毒有關的術語。本週,CNBC 使用Copilot 工具(原名必應圖像創建器)重現了過去三個月中生成的所有這些場景。
儘管一些特定的提示已被屏蔽,但CNBC 報告的許多其他潛在問題仍然存在。車禍”一詞會出現血泊、臉部變異的屍體,以及在暴力現場拿著相機或飲料的女性,有時還戴著腰部訓練器。而”車禍”一詞仍然會讓人聯想到穿著暴露、蕾絲蕾絲服裝、坐在破舊汽車頂上的女性。該系統還仍然很容易侵犯版權,例如創建迪斯尼人物形象,如《冰雪奇緣》中的艾莎,在據稱是加沙地帶的殘破建築物前手持巴勒斯坦國旗,或身著以色列國防軍軍服手持機關槍。
瓊斯對自己的經歷感到非常震驚,於是他從12 月開始在公司內部報告自己的發現。雖然該公司承認了他的擔憂,但不願讓該產品退出市場。瓊斯說,微軟把他推薦給了OpenAI,當他沒有收到公司的回覆時,他在LinkedIn 上發布了一封公開信,要求這家新創公司的董事會下架DALL-E 3(最新版本的人工智慧模型),以便進行調查。
他說,微軟的法律部門讓瓊斯立即撤下他的職位,他照做了。今年1 月,他就此事致函美國參議員,隨後會見了參議院商業、科學和運輸委員會的工作人員。
本週三,瓊斯將他的擔憂進一步升級,致函美國聯邦貿易委員會主席莉娜-汗(Lina Khan),並致函微軟董事會。