傳Meta將在7月發布Llama 3 回答更大膽,能處理爭議問題
Google正努力應對其Gemini聊天機器人因回答不準確而引發的「翻車」事件,而Meta希望其計劃於7月發布的新版大語言模型Llama 3能更有效地處理這類有爭議的問題。去年7月,Meta推出了Llama 2,強化了其應用程式中人工智慧助理的功能。
為預防模型回答可能引起爭議的問題,Meta引進了多項安全措施。然而,根據Meta內部員工的說法,這些安全措施讓Llama 2的回答過於謹慎,缺乏靈活性,這在Meta的管理層和這款大模型研究人員之間引起了一些不滿。
雖然對於如何製造炸彈或實施謀殺等極端問題,實施安全回答措施是非常必要的。但問題在於,Llama2連對一些爭議性較低的問題也採取了迴避策略。例如,當詢問如何在上班時間摸魚時,Llama2的回答是:「尊重並遵守公司的政策和指導方針是至關重要的。」這種迴避策略也適用於如何捉弄朋友、贏得戰爭或關閉汽車引擎等其他問題。
Meta的工作人員表示,Llama 2採取這種保守策略是為了避免潛在的公關災難。但據知情人士透露,研究人員目前正在嘗試放寬Llama 3的安全措施,以便在用戶提出困難問題時,能夠提供更多的互動和背景信息,而不是簡單地迴避這些棘手的問題。
理論上,Llama 3將擁有更強大的語意理解能力,能夠準確辨別一個單字在不同上下文中的多重意義。例如,Llama 3可能會理解英文“kill a vehicle’sengine”(關閉機動車的發動機)中的“kill”是指“關閉”,而不是“殺害”。
據悉,Meta計劃在未來幾週內為Llama 3分配專門負責語氣和安全培訓的內部人員,以提升模型的反應靈敏度和精確度。儘管計劃在7月發布Llama 3,但發佈時間表仍可能調整。作為一個開源大語言模型,Llama 3不僅將支援Meta旗下的人工智慧助手,還將向外部開發者免費提供,以便他們開發自己的聊天機器人。
隨著Meta試圖使Llama3在處理難題時更加自由,這凸顯了人工智慧公司面臨的挑戰:在開發吸引用戶的有趣產品的同時,也要避免產生不恰當或不準確的回答引起爭議。就在上週,谷歌因其Gemini聊天機器人的圖像生成功能出現歷史不符合問題而被迫暫停該功能。
對此,Google高級副總裁普拉巴卡·拉加萬(Prabhakar Raghavan)在一篇部落格文章中解釋說,該公司已對該功能進行了調整,以確保它不會落入過去圖像生成技術的陷阱,如產生暴力或色情圖像。但他也承認,這種調整在某些情況下導致了“過度補償”,在其他情況下則表現得“過於保守”。
Llama作為Meta人工智慧策略的核心,對公司具有重大意義。Meta希望透過人工智慧技術提升其廣告工具的效果,並增強社群媒體平台的吸引力。本月早些時候,Meta執行長馬克·祖克柏(Mark Zuckerberg)向投資者表示,今年的重點包括推出Llama3和「擴展Meta人工智慧助理的實用性」。
為了使Llama 3與OpenAI的GPT-4媲美,Meta正努力賦予Llama 3多模態能力,即理解和處理文字、圖像或影片等多種資訊的能力。然而,據Meta內部人士透露,由於研究人員尚未開始對Llama3進行微調,因此尚不清楚是否將具備多模態功能。微調是開發過程的關鍵環節,透過為現有模型提供額外數據,使其能夠學習新資訊或任務。
知情人士透露,Llama 3的最大版本預計將擁有超過1,400億個參數,遠超過Llama 2,這意味著模型在訓練中能學習的內容範圍將大幅擴展。參數數量越多,通常意味著模型能提供的結果越精確,不過較小的模型可能在處理速度上更有優勢。Llama 3正在由Meta旗下的獨立基礎人工智慧研究團隊(FAIR)以外的生成人工智慧團隊開發。
同時,儘管人們對Llama 3充滿期待,Meta也面臨人才競爭的挑戰。據了解,負責監督Llama2和Llama 3安全的研究員路易斯·馬丁(Louis Martin)以及負責強化學習的凱文·斯通(Kevin Stone)在本月都已離開公司。
在科技業,如何處理人工智慧安全問題的討論越來越激烈。特斯拉執行長馬斯克(Elon Musk)便是其中一位頗具影響力的。他於2015年協助創立了OpenAI,但近年來一直對所謂的「覺醒」人工智慧機器人持懷疑態度,這些機器人在處理敏感話題時的表現不佳。
2023年底,馬斯克推出了一個名為Grok的聊天機器人,旨在提供一個未經過濾的聊天體驗。然而,隨著用戶報告Grok開始失控,行為越來越像ChatGPT,馬斯克將此歸咎於網路資訊訓練的限制。他在X平台上的一篇文章中指出,網路上「充斥著帶有覺醒色彩的垃圾訊息」。