“吹哨人”向媒體指稱Facebook鼓勵仇恨言論傳播以藉機牟利
向《華爾街日報》洩露大量Facebook文件的舉報人法蘭西斯·豪根(Frances Haugen)周日在《60分鐘》節目中公開了這個世界上最強大的社交媒體平臺的內部運作情況。 豪根在NBC披露了她的身份,描述了一個致力於產品優化的公司接受了放大仇恨言論的演算法。
豪根告訴《60分鐘》主持人斯科特-佩利:”它用我們的安全來換取利潤。 “
根據已經刪除的LinkedIn資料,豪根是Facebook的產品經理,被分配到公民誠信小組。 在該小組解散后,她於2021年選擇離開該公司。 她說,她不”相信他們願意投入真正需要投入的東西,以保持Facebook的危險性,因為對公眾有利的事情和對Facebook有利的事情之間…… 存在著衝突。 “
因此,她向證券交易委員會洩露了一份內部研究報告,希望能推動對該公司的更好監管。 她指出,她曾在許多公司工作過,包括Google和Pinterest,但”在Facebook的情況顯然更糟”,因為該公司希望將其利潤置於使用者的福利之上。
“對公眾有利的東西和對Facebook有利的東西之間存在衝突,Facebook一次又一次地選擇為自己的利益進行優化–比如賺更多的錢。”
雖然該公司一再聲稱它正在説明阻止仇恨言論,至少是在其自己的產品上,但豪根洩露的一份Facebook內部檔說:”我們估計,儘管我們在這方面是世界上最好的,但我們可能只對Facebook上3-5%的仇恨和~0.6%的V&I[暴力和煽動]採取行動。 “錯誤資訊、毒性和暴力內容在轉發中極為普遍”,一份內部檔說。
另一份檔甚至更加直白。 “我們有來自各種渠道的證據表明,Facebook和App家族中的仇恨言論、分裂性政治言論和錯誤資訊正在影響世界各地的社會。”
豪根聲稱,問題的根源在於2018年推出的演算法,這些演算法管理著你在平臺上看到的內容。 據她說,這些演算法是為了推動參與,而該公司發現,最好的參與是在使用者中灌輸恐懼和仇恨的那種。 “激發人們的憤怒比激發其他情緒要容易得多,”哈根說。
當時,馬克·紮克伯格將演演算法的變化說成是積極的,他曾表示”我們感到有責任確保我們的服務不僅僅是使用上的樂趣,而且對人們的福祉也有好處。 “
但是,根據《華爾街日報》對豪根的擔憂的報導,其結果是急劇轉向憤怒和仇恨,其引用的一份內部備忘錄說:”錯誤的資訊、毒性和暴力內容在轉發中極為普遍”,評估了這一變化的影響。
《華爾街日報》於9月開始以「Facebook檔案」的名義公佈其從緩存中獲得的發現。 有一篇報導稱,Facebook有研究證明Instagram傷害了少女,這讓國會對此開始關注並引發了聽證會的召開。 在聽證會之前,Facebook試圖在一篇博客文章中改變說法,其中引用了《紐約時報》報導中提到的兩份報告。
在《60分鐘》報導之前,Facebook試圖以不同的形式進行同樣的轉述。 周日下午,Facebook全球事務副總裁尼克·克萊格(Nick Clegg)出現在美國有線電視新聞網(CNN)的《可靠消息》(Reliable Sources)節目中,為該公司辯護,此時距豪根出場僅數小時。
“我認為這很可笑,”克萊格在談到社交媒體應對1月6日的騷亂負責的指控時說。 “我認為這給了人們錯誤的安慰,認為美國的政治兩極化問題一定有一個技術,或者技術上的解釋。”
豪根在採訪結束時呼籲對社交網路進行更廣泛的監管,而Facebook本身也以更有限的形式呼籲這樣做。 她定於週二出席參議院商業小組的會議。