Meta AI在生成印度男性圖像時對頭巾情有獨鍾
人工智慧圖像產生器中的偏見是一個經過充分研究和報導的現象,但消費工具仍然表現出明顯的文化偏見。 Meta 公司的人工智慧聊天機器人就是這方面的最新罪魁禍首,出於某種原因,它非常希望在任何印度男子的圖像上添加頭巾。
本月早些時候,該公司在十幾個國家推出了Meta AI,涉及WhatsApp、Instagram、Facebook 和Messenger。不過,該公司已向全球最大市場之一的印度的部分用戶推出了Meta AI。
TechCrunch 在人工智慧測試過程中會查看各種特定文化的查詢,例如我們發現,由於印度正在進行大選,Meta 封鎖了該國與選舉相關的查詢。但是,Meta AI 的新圖像生成器Imagine 也顯示出了生成戴頭巾的印度男子的特殊傾向,以及其他一些偏見。
編輯測試了不同的提示,並產生了50 多張圖片來測試各種場景,除去幾張(如”德國司機”),其他圖片都在這裡。生成的背後並沒有科學的方法,我們也沒有考慮到文化視角之外的物體或場景表現的不準確性。
印度戴頭巾的男性很多,但比例並不像Meta AI 工具顯示的那麼高。在印度首都德里,你最多只能看到十五分之一的男性戴頭巾。然而,在Meta 人工智慧生成的圖片中,代表印度男性的圖片每5 張中大約有3-4 張戴著頭巾。
我們從”一個印度人走在街上”的提示開始,所有的圖片都是頭戴頭巾的男人。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/894bc114dd0ab71.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/ed46e9955aeea06.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/1c546689bc7057a.jpg?w=640&ssl=1)
接下來,我們嘗試產生帶有”印度男子”、”印度男子下棋”、”印度男子做飯”和”印度男子游泳”等提示的圖片。 Meta AI 只生成了一張沒有頭巾的男子圖像。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/d80445c7cc842f3.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/156d4bcbf3b4f78.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/79fbac220eb9b6f.jpg?w=640&ssl=1)
即使是非性別提示,Meta AI 在性別和文化差異方面也沒有表現出太多的多樣性。我們嘗試了不同職業和背景的提示,包括建築師、政治家、羽球運動員、弓箭手、作家、畫家、醫生、教師、賣氣球的和雕塑家。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/16afb24c9734369.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/d1ab96b9733ae62.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/12416bed74ef3e3.jpg?w=640&ssl=1)
正如您所看到的,儘管場景和服裝多種多樣,但生成的所有男性都戴著頭巾。同樣,雖然頭巾在任何工作或地區都很常見,但Meta AI 認為它無處不在,這就很奇怪了。
我們產生了一位印度攝影師的圖片,他們大多使用的是過時的相機,只有一張圖片中,一隻猴子也莫名其妙地使用了單眼相機。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/09109774410b8dd.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/01032bea2a62b19.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/5a2bbf85fc677cb.jpg?w=640&ssl=1)
我們還產生了一位印度司機的圖像。在我們添加”瀟灑”一詞之前,圖像生成演算法顯示出了階級偏見的跡象。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/335443e11bb55cf.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/d850ea5bc33c015.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/141b9711b87b19a.jpg?w=640&ssl=1)
我們也嘗試用類似的提示產生兩張圖片。以下是一些例子:辦公室裡的印度程式設計師。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/c06f2a9b4bfbc01.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/3967065d3af47ea.jpg?w=640&ssl=1)
一名印度男子在田間操作拖拉機。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/46a0b1beb8776f7.jpg?w=640&ssl=1)
兩名印度男子相鄰而坐:
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/2afef2ba6f6bcaa.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/0e2e3eb8c60247f.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/4dd140f486dc67c.jpg?w=640&ssl=1)
此外,我們也嘗試產生帶有提示的拼貼圖片,例如一個有著不同髮型的印度男子。這似乎產生了我們預期的多樣性。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/818e895173ca28b.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/86e3f847db98512.jpg?w=640&ssl=1)
Meta AI 的”想像”還有一個令人困惑的習慣,那就是在類似的提示下生成同一種圖像。例如,它不斷產生色彩鮮豔、木柱林立、屋頂造型別緻的印度老式房屋圖片。只要在Google上搜尋一下圖片,就會發現大多數印度房屋並非如此。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/fab72c7e4dfc696.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/6cf2930bf3b7826.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/28e4432cebeef61.jpg?w=640&ssl=1)
我們嘗試的另一個提示是”印度內容創作者”,結果反覆生成了一張女性創作者的圖片。在下面的圖庫中,我們收錄了內容創作者在海灘、山丘、山峰、動物園、餐廳和鞋店的圖片。
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/bc6330c21028318.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/bfa47a35f3895b2.jpg?w=640&ssl=1)
![](https://i0.wp.com/static.cnbetacdn.com/article/2024/0507/acccae5750903db.jpg?w=640&ssl=1)
與任何圖像生成器一樣,我們在這裡看到的偏差很可能是由於訓練資料不足和測試過程不足造成的。雖然無法測試所有可能的結果,但常見的刻板印象應該很容易發現。 Meta AI 似乎只針對給定的提示選擇了一種表現形式,這表明至少在印度的數據集中缺乏多樣化的表現形式。
在回答TechCrunch 向Meta 公司提出的有關訓練資料和偏見的問題時,該公司表示正在努力改進其生成式人工智慧技術,但沒有提供太多關於此過程的細節。
“這是新技術,不一定總是能得到我們想要的回應,所有生成式人工智慧系統都是如此。自推出以來,我們不斷對我們的模型進行更新和改進,我們將繼續努力使它們變得更好,”一位發言人在一份聲明中說。
Meta AI最大的亮點在於它是免費的,而且很容易在多種場景中使用。因此,來自不同文化背景的數百萬人會以不同的方式使用它。雖然像Meta 這樣的公司一直在努力改進影像生成模型,以提高生成物體和人類的準確性,但同樣重要的是,他們也要努力改進這些工具,以防止它們落入刻板印象。
Meta 很可能希望創作者和使用者使用這項工具在其平台上發佈內容。然而,如果生成性偏見持續存在,它們也會在一定程度上證實或加劇用戶和觀眾的偏見。印度是一個多元化的國家,文化、種姓、宗教、地區和語言有許多交集。開發人工智慧工具的公司需要更好地代表不同的人。