馬斯克的AI機器人說自己不能違反OpenAI使用政策業界分析:可能是這樣
特斯拉和SpaceX執行長馬斯克(Elon Musk)旗下人工智慧創企xAI最近發布了其聊天機器人Grok,但好像出了點問題。上週五,安全測試員賈克斯·溫特伯恩(Jax Winterbourne)在社交媒體平台X上發布了一張截圖,顯示Grok拒絕回答用戶的問題,並說:「我恐怕無法滿足這個請求,因為這違反了OpenAI的使用政策。”
這引起了人們的好奇,因為Grok並不是OpenAI開發的,而且雙方還是競爭對手。

更有趣的是,xAI的員工並沒有否認這種行為發生在他們的人工智慧模型中。伊戈爾·巴布甚金(Igor Babuschkin)在回覆中寫道:「問題在於我們訓練Grok時,網路上到處都是ChatGPT的輸出,我們不小心用到了其中一些。當我們第一次注意到這個問題的時候,我們也感到非常吃驚。不管怎樣,這個問題是非常罕見的,現在我們已經意識到了,我們將確保Grok的未來版本不會有這個問題。別擔心,沒有OpenAI代碼用於開發Grok。 」
在回覆巴布甚金時,溫特伯恩寫道:「謝謝你的回覆。我要說的是,這種情況並不罕見,而且在涉及程式碼創建時經常發生。儘管如此,我還是會讓那些專攻大語言模型和人工智慧的人士進一步討論這個問題。畢竟,我只是一個門外漢。”
然而,對許多專家來說,巴布甚金的解釋似乎沒有太大說服力。大語言模型通常不會一字不差地吐出它們的訓練數據,如果Grok在網路上偶然提到OpenAI的政策,那還有情可原。拒絕基於OpenAI政策給予回應可能需要專門的訓練。發生這種情況最可能的原因是,Grok對OpenAI大語言模型的輸出資料進行了微調。
人工智慧研究人員西蒙·威爾森(Simon Willison)在接受採訪時表示:「我對此有點懷疑,Grok之所以會如此表現,只是因為網路上充斥著ChatGPT生成的內容?我在Hugging Face上看到過很多開放權重模型都表現出同樣的行為,就像它們也是ChatGPT一樣。這是因為,這些模型都在使用OpenAIAPI產生的資料集上進行微調,或者是使用了ChatGPT本身產生的資料集。我認為,Grok更有可能是在包含ChatGPT輸出的數據集上進行了指令調整,而不是基於網路數據的意外。”
隨著OpenAI的大語言模型變得越來越強大,對於某些人工智慧專案(尤其是開源專案)來說,使用其他大語言模型產生的合成資料來微調自家人工智慧模型的輸出已經越來越普遍。微調人工智慧模型的行為可以達到特定的目的,例如在初始訓練運行後提高編碼能力等。今年3月,史丹佛大學的一組研究人員就利用OpenAI的GPT-3模型(名為Text-DaVinci-003)的輸出對指令追蹤進行了微調,並引發了轟動。
在網路上,我們可以很容易地找到研究人員從ChatGPT輸出中收集的幾個開源資料集。因此,xAI可能使用其中一個資料集對Grok進行了微調,以實現某些特定目標。這種做法非常普遍,百科式生活指南類網站WikiHow上甚至有一篇題為《如何使用ChatGPT創建資料集》的文章。
這是未來使用人工智慧工具來建構更複雜人工智慧工具的一種方式,就像人們開始使用微型電腦來設計比紙筆繪圖更複雜的微處理器一樣。不過,xAI將來也許能夠透過更仔細地過濾訓練資料來避免這種情況。
儘管借鑒他人的成果在機器學習社群中可能很常見(儘管這通常是違反服務條款的),但這一事件依然加劇了OpenAI和xAI之間的競爭,這種競爭甚至可以追溯到馬斯克過去對OpenAI的批評。隨著Grok可能藉用OpenAI模型數據的消息傳開,ChatGPT官方帳號甚至發文嘲諷xAI稱,“我們有很多共同點”,並引用了溫特伯恩的帖子。馬斯克則回擊道:“你們從這個平台上收集了所有訓練數據,這你應該知道吧!”