聯邦貿易委員會警告正計劃打擊有偏見的人工智能技術
美國聯邦貿易委員會警告各公司不要使用有偏見的人工智能技術,因為它們可能違反消費者保護法。一篇新的博客文章指出,人工智能工具可以反映出”令人不安的”種族和性別偏見。如果這些工具被應用於住房或就業等領域,虛假宣傳為無偏見,或以欺騙性方式收集的數據進行訓練,該機構表示它可以進行干預。
聯邦貿易委員會律師Elisa Jillson寫道:”在急於擁抱新技術的時候,要小心不要過度承諾你的算法可以提供什麼,”特別是在承諾不反映種族或性別偏見的決定時。”結果可能是欺騙、歧視,當然還會有FTC的執法行動”。
正如議定書指出的那樣,聯邦貿易委員會主席麗貝卡·斯洛特最近稱基於算法的偏見是”一個經濟正義問題”。Slaughter和Jillson都提到,公司可以根據《平等信貸機會法》或《公平信貸報告法》對有偏見和不公平的人工智能驅動的決策進行起訴,不公平和欺騙性的做法也可能屬於《聯邦貿易委員會法》第5條。
“對你的算法的表現負責是很重要的。我們關於透明度和獨立性的建議可以幫助你做到這一點。但請記住,如果你不對自己負責,聯邦貿易委員會可能會幫助你負責,” Jillson寫道。
人工智能有可能減輕人類在招聘等過程中的偏見,但它也可能重現或誇大這種偏見,特別是如果它被訓練成反映這種偏見的數據。例如,面部識別對黑人對象產生的結果不太準確,當警察使用它時,有可能鼓勵虛假識別和逮捕。2019年,研究人員發現,一種流行的醫療保健算法使黑人患者不太可能得到重要的醫療護理,反映了系統中預先存在的差異。自動性別識別技術可以使用簡單的方法,對變性人或非二元人進行錯誤分類。而自動程序,通常是專有的和秘密的這可能會產生”黑箱”,難以理解或質疑錯誤的結果。
歐盟最近表示,它可能會對一些人工智能應用採取更強硬的立場,可能會禁止將其用於”不加區分的大規模監視”和社會信用評分。通過這些最新的聲明,聯邦貿易委員會已經表明,它對打擊特定的、有害的用途感興趣。
當然,FTC此舉仍然處於這樣做的早期階段,批評者質疑它是否能對主要的科技公司有意義地執行其規則。在今天的參議院聽證會上,聯邦貿易委員會委員Rohit Chopra抱怨說,”一次又一次,當大公司公然違反法律時,聯邦貿易委員會不願意採取有意義的問責措施”,敦促國會和其他委員”翻過聯邦貿易委員會被認為無能為力的一頁”。在人工智能領域,這可能意味著對Facebook、亞馬遜、微軟和谷歌等公司進行審查–這些公司都在強大的系統中投入了大量資源。