當收到”巴勒斯坦”提示時WhatsApp的人工智慧會顯示持槍兒童
根據《衛報》了解,WhatsApp 的一項功能是根據用戶的搜尋產生圖片,當用戶向其提示”巴勒斯坦”、”巴勒斯坦”或”巴勒斯坦穆斯林男孩”時,WhatsApp 會返回槍或一個持槍男孩的圖片。
不同用戶測試的搜尋結果各不相同,但《衛報》透過截圖和自己的測試證實,這三種搜尋結果都出現了各種槍枝貼紙。在”以色列男孩”的提示下,出現了兒童踢足球和閱讀的卡通圖片。針對”以色列軍隊”的提示,人工智慧繪製了士兵微笑和祈禱的圖畫,沒有涉及槍支。
一位了解討論情況的人士說,Meta 自己的員工已經在內部報告並升級了這個問題。
WhatsApp 中一個人工智慧產生的貼紙在被要求提供”巴勒斯坦穆斯林男孩”的照片時顯示了一個持槍男孩的圖像。照片: Whatsapp
Meta 旗下的WhatsApp 允許用戶試用其AI 圖像生成器來”創建貼紙”(即我們慣用的”表情包”)。此功能提示使用者”用人工智慧把想法變成貼紙”。例如,在《衛報》上搜尋”巴勒斯坦穆斯林”,就會出現四張戴頭巾的女性圖片:靜立、閱讀、手持鮮花和高舉標語。但衛報在美東時間週四下午4 點46 分搜索”巴勒斯坦穆斯林男孩”時,卻出現了四張兒童圖片:其中一個男孩手持類似AK-47 的槍支,頭戴穆斯林男子和男孩常戴的帽子”kufi”或”taqiyah”。
一分鐘前,在《衛報》上搜尋”巴勒斯坦”時,也出現了一張手持槍枝的圖片。在”以色列”的提示下,該功能返回了以色列國旗和一名正在跳舞的男子。提示”哈馬斯”時,出現了”無法產生人工智慧貼紙。請重試。”
WhatsApp 中人工智慧產生的貼紙搜尋在提示搜尋”巴勒斯坦人”時顯示了一張持槍男子的圖像。照片: Whatsapp
類似的”以色列男孩”搜尋出現了四張兒童圖片,其中兩張是踢足球的男孩。另外兩張只是描繪了他們的臉。”以色列猶太男孩”也顯示了四張男孩的圖片,其中兩張戴著大衛之星項鍊,一張戴著猶太圓頂小帽並在閱讀,另一張只是站著。他們都沒有攜帶槍支。
即使是明確的軍事化提示,如”以色列軍隊”或”以色列國防軍”,也沒有出現帶槍的圖像。卡通插圖描繪的是身著制服的人,姿態各異,大多面帶微笑。其中一幅插圖中,一名身著制服的男子雙手前伸,做為祈禱狀。
當搜尋”以色列”時,WhatsApp 中人工智慧產生的貼圖搜尋會顯示三個女孩的圖像。照片: Whatsapp
這項發現正值Meta 遭到許多Instagram 和Facebook 用戶的抨擊,因為他們發布了支持巴勒斯坦人的內容。由於以色列對加薩的轟炸仍在繼續,用戶稱Meta 正在以一種帶有偏見的方式執行其審核政策,他們認為這種做法等同於審查。用戶報告說,他們的貼文被其他用戶隱藏,卻沒有得到任何解釋,並說他們的貼文參與度急劇下降。Meta 先前在聲明中表示,”我們無意壓制某個特定社區或觀點”,但由於圍繞持續衝突的”大量內容被報道”,”不違反我們政策的內容可能會被錯誤刪除”。
Meta 發言人凱文-麥卡利斯特(Kevin McAlister)說,公司已經意識到這個問題,並正在解決:”正如我們在推出該功能時所說,與所有生成式人工智慧系統一樣,模型可能會返回不準確或不恰當的輸出。隨著這些功能的發展和更多人分享他們的反饋,我們將繼續改進這些功能。”
使用者也記錄了Instagram 將阿拉伯語文本中的”巴勒斯坦”(Palestin)和”讚美真主”(Praise be to Allah)翻譯成”巴勒斯坦恐怖分子”(Palestin terrorist)的幾種情況。該公司為其所描述的”故障”道歉。
WhatsApp 中人工智慧產生的貼紙搜尋在提示搜尋”以色列軍隊”時,會顯示四個身著制服的人以各種姿勢出現的圖片。照片:Whatsapp Whatsapp
針對《衛報》關於人工智慧生成貼紙的報道,澳洲綠黨副領袖、參議員梅赫林-法魯奇(Mehreen Faruqi)呼籲該國電子安全專員調查”Meta 生成的種族主義和仇視伊斯蘭教的圖像”。
法魯奇在一封電子郵件聲明中說:”WhatsApp 上巴勒斯坦兒童持槍的人工智慧圖像讓人驚恐地發現,種族主義和仇視伊斯蘭教的標準正在輸入演算法。在採取嚴肅行動之前,還需要曝光多少種族主義’漏洞’?損害已經造成。Meta公司必須承擔責任。”
Meta公司曾多次面臨來自巴勒斯坦創作者、活動家和記者的壓力,尤其是在針對生活在加薩和約旦河西岸的巴勒斯坦人的暴力或侵略升級的時候。2022 年9 月,該公司委託進行的一項研究發現,在2021 年5 月以色列襲擊加薩走廊期間,Facebook 和Instagram 的內容政策侵犯了巴勒斯坦人的人權。報告稱,Meta 的行為可能”對巴勒斯坦用戶的言論自由權、集會自由權、政治參與權和不受歧視權……產生了不利影響,因此也影響了巴勒斯坦人分享有關其經歷的資訊和見解的能力”。