美國41州起訴Meta剝削青少年:誘發多巴胺忽視外貌比較傷害
美國大多數州組成的聯盟起訴社交媒體巨頭Meta公司,指控其非法收集兒童帳戶信息,並堅持採用傷害未成年人精神健康的算法。根據最新公佈的法庭文件,至少從2019年開始,Meta故意拒絕關閉13歲以下兒童的大部分帳戶,同時在未經父母同意的情況下收集他們的個人資訊。
此外,Meta明知其演算法損害未成年人心理健康,但拒絕更改其演算法,表示這會觸發年輕用戶間歇性釋放多巴胺,導致其在平台上的上癮性消費循環。該公司還被指控淡化了平台上錯誤訊息、仇恨言論、歧視和其他有害內容的發生率。
這項起訴要求法院下令禁止Meta從事上述違法行為。Meta旗下擁有Facebook和Instagram兩大社群平台,涉及數百萬青少年和兒童用戶,因此民事處罰可能高達數億美元。大多數州對每次違規行為處以1000至50000美元的罰款。
不尋常的大規模起訴
10月24日,美國33州提起聯合訴訟,指控Meta故意在Facebook和Instagram中加入傷害未成年用戶的成癮功能。哥倫比亞特區和另外8個州當天分別對Meta提起訴訟,其中大部分起訴內容相同。如此多的州聯合起來起訴一家科技巨頭損害消費者利益,這是不尋常的舉動,顯示美國各州正在優先考慮兒童和網路安全問題。
「Meta故意在其平台上設計具有操控性的功能,讓兒童沉迷於其平台,同時降低他們的自尊,從而從兒童的痛苦中獲利。」紐約州總檢察長利蒂西亞·詹姆斯(Letitia James )在一份聲明中表示,“包括Meta在內的社交媒體公司造成了全國青少年的心理健康危機,他們必須承擔責任。”
這波廣泛的訴訟是基於2021年以來美國兩黨、多州調查的結果,此前Facebook舉報人弗朗西斯·豪根(Frances Haugen)提供了數以萬計的公司內部文件,顯示該公司如何知道其產品可能會對年輕人的精神健康產生負面影響。
儘管起訴書長達兩百多頁,但各州引用的大部分證據都因最初提交的文件中的刪改而被刪除。當地時間11月26日晚,新提交的未密封起訴書提供了各州訴訟的新細節,讓外界了解更多詳情。
來自33個州的總檢察長指控Meta在2019年初至2023年中從父母、朋友和在線社區成員那裡收到了超過100萬起Instagram上存在13歲以下用戶的投訴,但“Meta僅禁用了其中一小部分帳戶」。
根據起訴書,Meta違反了一系列州級消費者保護法規以及《兒童線上隱私權保護規則》(COPPA),該規則禁止公司在未經父母同意的情況下收集13歲以下兒童的個人資訊。每次違反該法律的罰款最高可達50,000 美元以上。
「在公司內部,Meta實際知道數百萬Instagram用戶年齡在13歲以下,這是一個公開的秘密,並會定期記錄、嚴格分析和確認,並積極保護不向公眾披露。」起訴書稱。
根據法庭文件,Meta自己的記錄顯示,數十萬青少年用戶每天花費超過5個小時在Instagram上。一位Meta產品設計師在一封內部電子郵件中寫道,“年輕人是最好的”,“希望人們在年輕時儘早為你服務”。
在2019年的一個案例中,Meta員工在電子郵件中討論了為什麼公司沒有刪除屬於一名12歲女孩的4個帳戶,儘管女孩的母親提出了要求,並且「投訴說她女兒只有12歲」。員工得出的結論是,這些帳戶被“忽略”,部分原因是Meta代表“無法確定用戶是否未成年”。
「Instagram的使用條款禁止13歲以下(在某些國家或地區為13歲以上)的用戶,我們已採取措施,在發現這些帳戶後將其刪除。然而,驗證網路上人們的年齡是一項複雜的行業挑戰。」Meta在11月26日的聲明中告訴CNN,「例如,許多人——尤其是13歲以下的人——沒有身份證件。這就是Meta支持聯邦立法的原因,該立法要求應用程式商店在16歲以下的青少年下載應用程式時必須獲得父母的批准。透過這種方法,不需要讓父母和青少年向數百個單獨的應用程式提供政府發放的身份證件等敏感資訊來驗證他們的年齡。”
“對商業模式有價值”
起訴書還稱,Meta知道演算法可能會引導兒童接觸有害內容,從而損害他們的健康。根據文件中引用的公司內部通訊,員工寫道,他們擔心「IG(Instagram)上的內容會引發青少年的負面情緒並影響他們的心理健康(以及)我們的排名演算法將(他們)帶入負面的螺旋和反饋循環,很難退出。”
例如,起訴書稱,Meta研究人員在2021年7月進行了一項研究,得出的結論是Instagram的演算法可能會放大負面的社交比較,並且「內容可能會導致用戶對自己的身體或外表感覺更糟」。在訴訟中引用的2021年2月的內部電子郵件中,Meta員工據稱認識到社交比較與在Meta的社交媒體平台上“花費更多時間有關”,並討論了這種現像如何“對Instagram的商業模式有價值,同時對少女造成傷害。”
在2021年3月針對飲食失調內容的內部調查中,Meta團隊對帳號提及飢餓、瘦弱和飲食失調的用戶進行了追蹤。起訴稱,Instagram的演算法隨後開始產生推薦帳戶列表,「其中包括與厭食症相關的帳戶」。
然而,Meta全球安全主管安提戈涅·戴維斯(Antigone Davis)於2021年9月在國會作證時稱,Meta不會「引導人們觀看宣揚飲食失調的內容。這實際上違反了我們的政策,我們會在發現後刪除該內容。我們實際上使用人工智慧來查找此類內容並將其刪除。”
起訴書稱,Instagram的高階領導層也知道有問題的內容對該平台來說是一個關鍵問題。據稱,Instagram的負責人亞當·莫塞里(Adam Mosseri)在一封內部電子郵件中寫道,“社交比較之於Instagram,就像選舉幹預之於Facebook。”
然而,儘管該公司的內部研究證實了對其平台上的社交比較的擔憂,但起訴書稱Meta拒絕改變其演算法。一名員工在訴訟中引用的內部通訊中指出,煽動負面外觀比較的內容「是(在探索頁面上)最具吸引力的內容之一,因此這個想法與許多其他團隊的首要措施背道而馳。」與同時,「Meta的外部溝通否認或掩蓋了其推薦演算法向年輕用戶推廣極負面的外觀比較內容的事實。」起訴書稱。
根據訴訟中引用的內部文件,Meta還意識到其推薦演算法「會觸發年輕用戶間歇性的多巴胺釋放」。其演示文稿稱,“當涉及到’感覺良好’的多巴胺效應時,青少年是永不滿足的”,該公司的現有產品已經非常適合提供能夠觸發這種強效神經遞質的刺激。“每當我們的青少年用戶發現意想不到的東西時,他們的大腦就會分泌出多巴胺。”
Meta在聲明中回應:「我們希望青少年能夠獲得安全、適合年齡的線上體驗,我們有30多種工具來支持他們及其父母。」「我們花了十年的時間來解決這些問題,並聘請了致力於保護年輕人安全和在線支持的人員。該起訴使用選擇性引用和精心挑選的文件來歪曲我們的工作。”
淡化錯誤訊息、仇恨言論發生率
起訴書還稱,Meta可能大大淡化了其平台上錯誤訊息、仇恨言論、歧視和其他有害內容的發生率。
起訴書指控Meta創建了名為「社群標準執行報告」(CSER)的季度報告,該報告宣稱其平台上社群標準違規率較低,但排除了用戶體驗調查中的關鍵數據,這些數據證明用戶遇到有害內容的比率要高得多。
例如,Meta表示,根據其CSER報告中2020年7月至9月的數據,其平台上每10000次內容瀏覽中只有10或11次包含仇恨言論,即比例約為0.10%至0.11%。
但起訴書稱,幾個月前Meta的一項名為「誠信問題追蹤範圍調查」(TRIPS)的內部用戶調查報告的仇恨言論水平明顯更高。根據2020年5月的TRIPS報告,平均有19.3%的Instagram用戶和17.6%的Facebook用戶投訴稱,在平台上目睹了仇恨言論或歧視。平均有12.2%的Instagram用戶和16.6%的Facebook用戶投訴稱,在這些平台上看到暴力圖片,超過20%的用戶目睹了霸凌和騷擾。
Meta將圖片暴力定義為“在Facebook和Instagram上美化暴力或慶祝他人遭受痛苦或羞辱的內容”,並指出欺凌和騷擾“本質上是高度個人化的”,因此“使用技術主動檢測這些行為可能比檢測其他類型的違規行為更具挑戰性」。
Meta的一位發言人透過電子郵件告訴“商業內幕”,從這些調查中收集的數據並沒有真正衡量“流行度”(Meta將其定義為違規內容的觀看次數佔總觀看次數的百分比)。相反,該公司利用這些調查中的資訊來開發新功能,例如有關傷害性評論或內容的通知或善意提醒,鼓勵人們在與不認識的人接觸時保持尊重態度。