麻省理工學院研究稱亞馬遜的面部技術表現出性別和種族偏見
根據麻省理工學院週四公佈的研究報告,亞馬遜的面部技術更難以認識到膚色較深的女性的性別,並且比微軟和IBM的競爭技術在識別性別方面犯了更多錯誤。根據這項研究,亞馬遜的Rekognition軟件在19%的時間裡錯誤地將女性視為男性。此外還錯誤地將黑皮膚女性識別為31%的男性。相比之下,微軟的軟件發現黑人女性佔男性的比例為1.5%。
亞馬遜網絡服務公司人工智能負責人Matt Wood表示,該研究的測試結果是基於面部分析,而不是面部識別。他說,分析技術可以在或圖像中找到面孔並分配通用屬性,例如佩戴眼鏡。他說,將具體個人的面孔與視頻和照片中的圖像相匹配,Rekognition技術同時包括這兩種功能。
“根據使用面部分析獲得的結果,不可能對任何用例(包括執法)的面部識別準確性得出結論,”Wood在一份聲明中說,同時,亞馬遜還表示MIT該研究沒有使用最新版本的Rekognition 。最新版本的Rekognition的誤報情況比較罕見。
此前亞馬遜向執法機構提供了Rekognition,儘管公民自由團體,國會議員和亞馬遜自己的員工都對這種技術的隱私保護提出了擔憂。本月早些時候,一群股東還呼籲亞馬遜停止向政府機構出售其Rekognition技術。