微軟發布首份年度人工智慧透明度報告
在過去的一年半里,微軟一直走在生成式人工智慧開發的前端。該公司與OpenAI 等合作夥伴合作,將其Copilot 生成式人工智慧助理添加到許多產品和服務中,並將推出更多產品和服務。此外,該公司也正在開發自己的人工智慧大型語言模型,例如最近發布的輕量級LLM Phi-3 系列。
所有這些活動也讓許多人感到擔憂,認為像微軟開發的人工智慧工具可能會被用於不道德或非法行為。今天,微軟在一篇部落格文章中宣布,它已經發布了第一份計劃中的年度透明度報告,介紹其目前負責任的人工智慧實踐。
微軟總裁Brad Smith 在博文中表示:
這份報告使我們能夠分享我們日趨成熟的實踐,反思我們所學到的東西,規劃我們的目標,對自己負責,並贏得公眾的信任。八年來,我們一直在負責任的人工智慧領域不斷創新,在發展我們的計畫的同時,我們也從過去的經驗中吸取教訓,不斷改進。
這份PDF格式的報告詳細介紹了微軟在多個領域為其服務提供負責任的人工智慧實踐,並對員工進行了使用培訓。報告指出:
2023 年版的《商業行為標準》培訓是全公司必修的商業道德課程,涵蓋了我們的員工用於安全開發和部署人工智慧的資源。截至2023 年12 月31 日,99% 的員工完成了這項課程,包括負責任的人工智慧模組。
微軟也成立了負責任的人工智慧委員會,定期召開會議,目的是不斷改進工作,確保人工智慧服務的安全。公司還有一個”負責任的人工智慧冠軍”計劃,要求其成員發現並解決人工智慧產品中存在的問題,並就負責任的做法向其他成員提供指導。
報告還舉例說明了負責任的人工智慧程式如何影響其產品的創建和開發。其中一個例子涉及微軟Designer,這款人工智慧圖像創建應用程式據說被不明人士用來製作流行歌手泰勒絲(Taylor Swift)的露骨”深度偽造”圖像,後來在網路上瘋傳。
微軟說,它要求新聞團體NewsGuard 在Designer 中輸入提示,”創建強化或描繪與政治、國際事務和選舉有關的突出虛假敘述的視覺效果”。結果,在Designer 創建的圖片中,有12%”包含有問題的內容”。微軟對Designer 進行了修改,試圖避免這些圖片,效果是有問題圖片的數量降到了3.6%。
了解更多: