谷歌Gemini生圖功能緊急關閉,口碑一夜塌房Yann LeCun:我早就知道
Gemini 好像終於被玩壞了。去年年底,Google Gemini 震撼了業界,它是Google「最大、最有能力、最通用」的AI 系統,號稱第一個原生多模態大模型,能力超越GPT-4,也被認為是Google反擊微軟和OpenAI 的強大工具。
對此,在2 月8 日,Google也把自家對標ChatGPT 的服務Bard 更名為Gemini,以著重體現新使命—— 旨在提供對「最強模型系列」的訪問。上週Google還以火速更新了Gemini Pro 1.5 版。
結果,推出不到一個月,這個Gemini 就翻車了。
多離譜呢,作為一個多模態的生成大模型,Gemini 生成的伊隆・馬斯克是這樣的:
臉型神態都很傳神,只是有個大問題:怎麼變成黑人了?
又有人嘗試讓Gemini 畫一幅「1940 年代德國領導人」的圖,結果AI 給了這麼一張:
社群網路上的眾多網友們也提供了一些Gemini 生成維京人、教宗的圖片樣本。我們可以看到有一名身著教皇服裝的亞洲女性,但歷史上所有教皇都是男性擔任的。
總之,眾多用戶在使用人像生成服務時發現,Gemini 似乎拒絕在圖像中描繪白人,以至於產生了不少違反基本事實(性別、種族、宗教等)的圖片。
以往的影像生成模型大多被詬病生成人物影像以「白人」為主,而Gemini 矯枉過正了?
在reddit 的鬥圖區,網友們也開始玩起了梗,例如讓Gemini 生成個「鋼鐵人」小勞勃道尼:
你就說是不是一視同仁吧。
然而,Gemini 也不是一直都這麼偏心,有時它生成的圖像中的人物就成了白人。例如克拉倫斯・托馬斯(Clarence Thomas),美國最高法院大法官,Gemini 生成的結果是這樣的:
然而,他其實是個非裔。
Clarence Thomas 本人的照片。
怎麼一到法官這種特殊職業,Gemini 的偏見就調轉了180 度呢?
這些圖片有真有假,像病毒一樣在社群媒體上迅速傳播,馬斯克本人的關注進一步擴大了事件影響。他措辭嚴厲表示,Google在文生圖上「玩過頭了」。
隨著節奏越來越大,許多AI 專家也開始發表自己的看法。圖靈獎得主Yann LeCun 今天就表示他早有預料。
他表示,早在四年前,自己對GAN 肖像超解析度的評論就受到了眾人的激烈反對。但一個明顯的事實是,影像重建任務會受到訓練資料集統計的嚴重偏差影響。
LeCun 也引用AI 頂會ECCV 2022 的一篇研究《Studying Bias in GANs through the Lens of Race》,其指出生成影像模型的表現會受到訓練資料集中種族組成的影響。
該研究表明,生成圖像的種族成分成功繼承了訓練資料的種族成分,而且生成圖像的種族和品質也有所不同——註釋者始終更喜歡AI 生成的白人圖像。
LeCun 轉推的貼文來自Perplexity AI 執行長Aravind Srinivas。後者表示,數據偏差讓模型的輸出出現了問題,Google在相反的方向上走得太遠了,以至於他們在Gemini 中釀成大錯。
Google:我們錯了,承諾改進
在重壓之下,Google在本週四承認了Gemini 影像生成的問題。
以下是Google知識與資訊資深副總裁Prabhakar Raghavan 針對Gemini 影像產生「翻車」所給予的最新回應:
三週前,我們為Gemini 對話應用程式(以前稱為Bard)推出了新的圖像生成功能,其中包括創建人物圖像的功能。
很明顯,這個功能沒有達到預期。生成的一些圖像不準確甚至具有攻擊性。我們感謝用戶的回饋,並對功能未能正常運作感到抱歉。
我們已經承認了這個錯誤,並暫停了Gemini 的人物圖像生成功能,同時我們正在開發改進版本。
Google表示,Gemini 對話應用程式是一款獨立於Google的搜尋、底層人工智慧模型和其他產品的特定產品。其影像生成功能建立在人工智慧模型Imagen 2 的基礎上。
在為Gemini 建立圖像生成功能時,Google對其進行了調整,以確保它不會落入我們過去在圖像生成技術中看到的一些陷阱,例如創建暴力或露骨的圖像,或對現實生活中存在的真人的描繪。
由於Google 用戶來自世界各地,公司希望Gemini 能為大家提供良好的服務。在產生人物圖像時,使用者可能不僅僅只想產生一種種族(或任何其他特徵)的人物圖像。
如果你提示Gemini 特定類型的人物圖像- 例如“教室裡的黑人老師”、“帶著狗的白人獸醫”或特定文化、歷史背景下的人,用戶絕對應該得到一個準確反映人類要求的答复。
那麼Gemini 到底出了什麼問題呢?
簡而言之,有兩件事。首先,Google為確保Gemini 顯示一系列人物而進行的調整未能考慮到顯然不應該顯示的範圍。其次,隨著時間的推移,該模型變得比開發者預期的更加謹慎,拒絕回答某些提示——會錯誤地將一些提示解釋為敏感提示。
這兩件事導致模型在某些情況下過度輸出,而在其他情況下過度保守,導致Gemini 的影像生成功能出現了一些錯誤。
Google表示,「這不是我們的初衷。我們不希望Gemini 拒絕創造任何特定群體的形象。我們不希望它創造出不準確的歷史圖像或任何其他圖像。因此,我們關閉了人物圖像生成功能,並將在重新打開它之前努力改進,這個過程將包括廣泛的測試。”
需要記住的一件事是,Gemini 是一種創造力和生產力工具,它可能並不總是可靠的,特別是在產生有關時事、不斷發展的新聞或熱門話題的圖像或文字時,它可能會犯錯。眾做週知,幻覺是所有大語言模型(LLM)都會面臨的挑戰,這需要不斷的努力改進。
我們不能保證Gemini 不會偶爾產生令人尷尬、不準確或令人反感的結果,但我們可以保證,只要發現問題,我們就將採取行動。人工智慧是一項新興技術,在許多方面都有幫助,具有巨大的潛力,我們正在盡最大努力安全、負責任地推動它發展。
雖然伴隨著「Demo 加特技」、訓練資料抄百度文心一言等各種詬病指責,Gemini 仍然一直被Google寄予厚望,不過此次生成內容上的問題讓人們產生了非常不好的觀感,不知如何才能補救。
另一方面,這或許也體現了OpenAI 一直強調安全性,及其建立Red Teaming Network 的先見之明。
Gemini 這樣的大體量模型,能否很快彌補此種缺陷?