Twitter將研究其算法造成的潛在“無意傷害”
據外媒Engadget報導,Twitter宣布了一項研究其算法公平性的新計劃。作為這項被該公司稱為“負責任的機器學習計劃”的努力的一部分,來自整個公司的數據科學家和工程師將研究其算法造成的潛在“無意傷害”,並將研究結果公之於眾。
“我們正在進行深入的分析和研究,以評估我們使用的算法是否存在潛在的危害,”該公司在宣布該倡議的一篇博客文章中寫道。
首先,該公司將研究Twitter的圖像裁剪算法,該算法一直被批評為偏向皮膚較白的人。Twitter還將研究其內容推薦,包括“對我們的Home時間線推薦在不同種族亞群中的公平性評估”,以及“對七個國家不同政治意識形態的內容推薦進行分析”。
目前還不清楚這一舉措會產生多大的影響。Twitter指出,在某些情況下,它可能會根據其研究結果改變其平台的各個方面,而其他研究可能只是導致“圍繞我們構建和應用ML(機器學習)的方式進行重要討論”。但對於Twitter和其他社交媒體平台來說,這個問題是一個及時的問題。在美國國會大廈發生暴亂後,立法者已經向Twitter、YouTube和Facebook施壓,要求它們的算法更加透明。一些立法者已經提出立法,要求這些公司評估其算法是否存在偏見。
Twitter首席執行官傑克·多西(Jack Dorsey)也曾表示,他希望建立一個算法“市場”,讓用戶可以控制自己使用哪些算法。該公司在其最新的博客文章中表示,對於類似的想法,它正處於“探索的早期階段”。