AI研究人員:當算法出錯時我們需要更多的力量反擊
據外媒報導,雖然政府和私營企業正在快速部署AI系統,但公眾卻缺少在這些系統出現故障時追究其責任的工具。這是AI Now最新發布的一份報告的結論之一。AI Now是一家面向微軟、谷歌等科技公司的研究機構,同時它隸屬於紐約大學。
AI Now在報告中審視了AI和算法系統的社會挑戰,它將問題聚焦於研究人員所稱的“問責缺口”。對此,他們提出了十項建議,包括呼籲政府對面部識別進行監管以及對AI產品製定“廣告真實法”,讓企業不能簡單地利用該技術的聲譽來銷售其服務。
現在許多大型科技公司都開始發現自己正處於AI的淘金熱中,於是它們大舉進入從招聘到醫療保健等多個市場並出售自己的服務。但是,正如AI Now的聯合創始人、谷歌Open Research Group負責人Meredith Whittaker所說的那樣,這些公司許多關於利益和效用的主張並沒有得到公開的科學證據支持。Whittaker舉了IBM沃森系統的例子,據了解,該系統在斯隆凱特林癌症中心進行實驗診斷時給出了“不安全且不正確的治療建議”。對此,Whittaker表示:“他們(IBM)的營銷部門對近乎神奇的特性所做的斷言從未得到過同行評論研究的證實。”
AI Now最新報告的作者們指出,這一事故只是涉及AI和算法系統的一系列“連鎖醜聞”的其中一件,另外還有Facebook協助促成了緬甸的種族滅絕、谷歌Maven項目對美國軍方製造無人機AI工具的幫助以及劍橋分析公司數據醜聞等等。
在所有這些案例中,既出現了來自公眾的強烈抗議也有來自矽谷最具價值的公司內部的不同意見。這一年,谷歌員工因五角大樓的合同辭職、微軟員工向該公司施壓要求其停止與移民和海關執法局的合作以及谷歌、Uber、eBay和Airbnb為抗議涉及性騷擾而展開的罷工運動。
Whittaker指出,這些抗議活動得到了勞工聯盟和像AI Now等這樣的研究機構的支持,這已經成為了一股意想不到、令人欣慰的公眾問責力量。
但報告的目的很清楚,那就是公眾需要的更多。當涉及到政府採用自動決策系統(ADS)時對公民正義的威脅尤為明顯。報告的作者們指出,通常情況AI系統被引入這些領域則是為了降低成本和提高效率,然而結果往往是系統作出了說不通或無法上訴的決定。
Whittaker和另外一位AI Now聯合創始人、微軟研究員Kate Crawford指出,將ADS整合到政府服務中已經超過了他們審計這些系統的能力範圍。不過他們表示可以採取一些具體的步驟來解決這一問題,比如要求向政府出售服務的技術供應商放棄貿易保密保護從而讓研究人員可以更好地去檢查它們的算法。
另外他們還提到了另外一個需要立即立即採取行動的領域–面部識別和情感識別。現在全球已經有多個國家的警察開始使用前者。例如為奧蘭多和華盛頓縣警方部署的亞馬遜Rekognition系統,儘管測試顯示該軟件在不同種族中的表現不同,但在一項用Rekognition識別國會議員的測試中白人議員的錯誤率只有5%而非白人議員的錯誤率卻有39%。在情感識別方面,這家公司聲稱他們的技術可以通過掃描一個人的面部來讀取其性格甚至意圖。對此,AI Now的看法是企業們經常都在兜售偽科學。
儘管面臨不少的挑戰,但Whittaker和Crawford表示,2018年的情況已經表明,當AI問責和偏見問題被曝光時,技術員工、立法者和公眾願意採取行動而不再是默許。
完整報告請戳這裡