谷歌AI工具今後不再為圖像生成“男性”“女性”標籤
在為開發者提供的人工智能工具中,谷歌表示今後將不會為圖像添加性別方面的標籤,因為他們認為一個人的性別不能僅憑他/她們在照片中的形象來確定。
今天,谷歌向開發者發出的公開信中表示將會對廣泛使用的Cloud Vision API工具(主要使用AI來分析圖像以識別面部、地標性建築、可顯示內容以及其他內容)進行調整。
今後谷歌會使用“Person”(人物)來標記圖像,而不會使用“man”(男性)或者“woman”(女性)來識別圖像,以避免人工智能算法傳達出偏見。
據《商業內幕》報導,在發給開發者的電子郵件中,谷歌引用了自己的AI準則。“鑑於無法通過外貌來推斷出一個人的性別,我們決定刪除這些標籤,以符合Google的人工智能原則,特別是原則2:避免造成或加強不公平的偏見。”
過去,人工智能圖像識別一直是Google的棘手問題。2015年,一位軟件工程師指出,Google Photos的圖像識別算法將其黑人朋友歸類為“大猩猩”。谷歌承諾將解決該問題,但Wired在2018年的一份後續報告中發現,谷歌已阻止其AI識別大猩猩,但是核心問題並沒有得到妥善解決。