OpenAI訓練資料從哪裡來、與蘋果合作進展如何? 「ChatGPT之母」最新回應
美國約翰霍普金斯大學公佈了對「ChatGPT之母」、OpenAI首席技術官米拉·穆拉蒂(Mira Murati)的訪談影片。這場訪談時間是6月10日,訪談中,穆拉蒂不僅與主持人討論了OpenAI與Apple的合作關係,還深入探討了人工智慧的潛在風險、資料隱私以及科技對社會的深遠影響。
核心要點
1.關於“ChatGPT-5”
下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍。
2.關於AGI的預測
在未來十年內,我們將有超強的AI系統。
3.關於AI與教育
如果教育能夠根據你的思維方式、文化規範和具體興趣進行定制,這將極大地擴展知識和創造力的水平。 AI非常強大,能夠推動人類知識的進步,從而推動整個文明的進步。
4.關於數據來源
我們主要有三個資料來源:公開資料、與出版商的合作資料、我們支付人力標註的特定資料。
5.關於OpenAI與Apple的合作關係
OpenAI的目標是讓人工智慧來覆蓋盡可能多的用戶。 OpenAI將在接下來的幾個月與Apple密切合作。
6.關於資料隱私
對於OpenAI的使用者和客戶,我們不會在未經允許的情況下使用他們的資料來訓練我們的模型。
圖片來源:截圖於Youtube
穆拉蒂表示,與Apple的合作是OpenAI的一個重要里程碑,目標是讓人工智慧覆蓋更多用戶,透過在Apple裝置上內建GPT技術,使用戶無需更換裝置即可享受智慧服務。她強調,接下來的幾個月裡,OpenAI將與Apple密切合作,共同確定產品細節,並在適當時機與公眾分享更多資訊。
在產品整合方面,穆拉蒂提到,希望將正在開發中的模型能力、多模態性和互動性引入Apple設備,這將是人工智慧領域的重大突破。她認為,這種進步不僅限於模型能力的提升,還能讓訊息傳遞和使用者互動變得更加豐富自然。
談到用戶資料隱私時,穆拉蒂明確表示,OpenAI不會在未經用戶許可的情況下使用他們的資料來訓練模型,並強調了隱私和信任在合作關係中的重要性。
關於Sora的發佈時間,穆拉蒂表示目前沒有公開發布的時間表,OpenAI正在與內容創作者合作,以識別如何使技術更加穩定,並進行大量的安全工作。她認為,雖然Sora技術具有巨大的潛力,但其影響也很大,因此需要確保產品的適用性和安全性。
圖片來源:截圖於Youtube
穆拉蒂在訪談中也提到了AGI的預測,她認為AGI的定義會隨著科技的發展而不斷演變。她強調,評估人工智慧的實際影響比單純評估技術進步更為重要。她還提到:“在未來十年內,我們將有超強的AI系統。 ”
穆拉蒂談到了圍繞OpenAI涉嫌在其人工智慧模型中盜用斯嘉麗·約翰遜(Scarlett Johansson)的聲音的爭議,以及研究人員因擔心該公司將產品開發置於安全考慮之上而高調離職的問題。她強調OpenAI對人工智慧開發和部署的承諾,同時承認需要提高透明度。
面對員工對公司安全的擔憂,穆拉蒂回應OpenAI有許多安全團隊,公司非常重視安全問題。她提到,OpenAI從GPT-2時代就開始研究假資訊問題,並且一直非常開放地討論這些問題。
穆拉蒂承認,ChatGPT因過於自由而受到批評,但她強調這種偏見是無意的,「我們一直非常注重減少模型行為中的偏見,我們正在努力減少這些偏見,」不過,穆拉蒂尚未說明有關補救措施的具體細節。
對話還涉及了人工智慧對教育的潛在影響,穆拉蒂表示:「如果教育能夠根據你的思維方式、文化規範和具體興趣進行定制,這將極大地擴展知識和創造力的水平。」穆拉蒂認為AI對教育的影響是巨大的,「能推動人類知識的進步,從而推動整個文明的進步」。
圖片來源:截圖於Youtube
以下米拉·穆拉蒂與主持人對話以及觀眾問答環節的片段:
主持人:
首先,我很想問你關於與Apple合作的事。我們今天要談一點這個話題。這個合作是在世界開發者大會上與OpenAI達成的。從今年某個時候開始,Apple的電腦、手機和iPad將內建GPT,這顯然是一個巨大的事件。
Apple是第一次做這樣的事情,他們與許多人進行了談判,可能會逐步包括其他人。我想從你的角度談談這個合作是如何運作的。我今天早些時候和Tim Cook(Tim Cook)聊了一下他的觀點,現在我想聽聽你的看法。
米拉·穆拉蒂:
這是我們的一項重要里程碑。 Apple是一家標誌性的消費性產品公司。我們的目標是讓人工智慧來覆蓋盡可能多的用戶。這是一個將ChatGPT帶給所有Apple用戶的絕佳機會,無需更換裝置。我們將在接下來的幾個月與他們密切合作,弄清楚產品方面的具體細節,到時候會和大家分享更多的內容。
主持人:
如果你不介意的話,我們來聊一些更具體的內容。目前具體在做什麼? Apple顯然需要改進Siri,因為它非常糟糕。從你的角度來看,你希望在與Apple的合作中實現什麼目標?
米拉·穆拉蒂:
我可以具體談談產品整合的內容。我們希望帶來的是真正開發中的模型的能力、多模態性和互動性,並將這些引入Apple設備。
這是我們在人工智慧領域的重大突破,特別是在模型與使用者之間的互動方式以及模型所展現的多樣化功能上,實現了前所未有的飛躍。這種進步不僅限於模型能力的提升。
這非常有意義,因為迄今為止,我們與設備的互動主要還是透過文字。而現在,這是一個絕佳的機會,能讓訊息的傳遞和我們之間的互動變得更加豐富和自然,同時也大大減少了互動過程中的限制。
主持人:
當用戶向OpenAI發送請求時,這些請求資訊不會被保存下來,同時用戶的IP位址也會被隱藏。這對Apple用戶來說,無疑是個重要的好消息。那麼,這個過程是如何運作的呢?你們是否仍然可以使用這些請求的資料來訓練你的模型?
米拉·穆拉蒂:
不會的。對於我們的用戶和客戶,我們不會在未經允許的情況下使用他們的資料來訓練我們的模型。
主持人:
那麼,在與像Apple這樣重視品牌聲譽的企業合作時,他們最為重視、關心的議題有哪些呢?其中一項特別關鍵的是,這些資訊會被如何處理和利用,也就是關於資料流向及用途的擔憂。
米拉·穆拉蒂:
我認為這是一個非常一致的合作關係。隱私和信任是關鍵,OpenAI的使命是確保我們建置和部署的技術讓人們感到信任和有參與感。因此,這種合作關係是非常自然的,並且引領我們朝著期望的目標邁進。
關於假訊息的問題,這顯然是非常複雜的。我認為這將是一個循序漸進的過程,我們需要不斷嘗試,隨著時間推移慢慢調整。
主持人:
我知道與Apple合作必須嚴謹無誤,因為一旦出錯,後果可能相當棘手。我很好奇這次合作是如何開始的?是山姆和庫克之間的對話促成的嗎?還是你也參與其中了呢?
米拉·穆拉蒂:
其實我不太記得是什麼時候開始的,但已經醞釀了一段時間。
主持人:
你也在與其他公司進行類似的合作談判。 OpenAI已經與新聞集團和Vox Media等公司達成了內容授權協議,這就減少了潛在的訴訟問題。要是我的話,我可能不會考慮這種合作。
那麼,你打算怎麼說服我,讓我同意你們使用我的資訊呢?
米拉·穆拉蒂:
我知道你對此很關心,我可以告訴你我們如何看待資料訓練模型的問題。我們主要有三個資料來源:公開資料、與出版商的合作資料、我們支付人力標註的特定資料。
此外,我們還有用戶自願允許我們使用的數據。關於出版商合作,我們關心的是資訊的準確性,使用者也非常重視這一點。
因此,我們與特定產品建立了一對一的合作關係,提供對用戶有價值的信息,同時也在探索不同的方式來補償內容創作者,讓他們的數據在產品中展示或用於訓練。
觀眾:
我是史丹佛大學電腦科學教授,也是史丹佛人類中心AI研究所的共同創辦人。我想問你一個關於數據的問題。很多人認為OpenAI的成功與數據密切相關。我們了解到你的公司從網路和其他來源獲得了大量數據。
那你認為數據與模型之間的關係是什麼?是否簡單地認為輸入的資料越多,模型就越強大?還是需要花費大量時間來整理不同類型的資料以使模型有效?最後,你如何解決對大量人類產生數據的需求與這些數據的所有權和權利問題?
米拉·穆拉蒂:
關於資料和模型的關係,這其實是很多人對AI模型,特別是大型語言模型的誤解。開發這些模型的人並不是預先編程它們做特定的事情,而是輸入大量資料。
理解這一點非常重要,因為它展示了大型語言模型的工作方式,結合神經網路架構、大量資料和運算能力,產生了驚人的智能,隨著資料和運算能力的增加,這種能力會不斷提升。
當然,我們需要做大量工作來使這些數據可供模型使用。但這就是它的基本結構。我們正在考慮如何提供透明度以了解模型行為的工作原理。我們有一些工具可以讓人們對使用這些模型有信心,並讓他們有參與感。
主持人:
我覺得大家困惑的點在於,模型訓練過程中到底用了哪些內容,又排除了哪些。我記得在三月份,你接受了《華爾街日報》喬安妮·斯特恩(Joanne Stern)的採訪,她問你是否使用了YouTube、Instagram和Facebook的視頻來訓練Sora(OpenAI旗下一款文生視頻模型),你當時回答說不知道。那麼,關於是否使用了這些數據,你真的不清楚嗎?
米拉·穆拉蒂:
我當時沒有很好地回答這個問題,現在我可以回答一下。我不能具體告訴你數據的來源,但數據來自這三類:公開數據、我們透過許可和與內容提供者達成的交易支付的數據,以及用戶數據。
我不能告訴你具體的來源,因為這是商業機密,幫助我們保持競爭力。但我可以告訴你數據的類別,它們是我之前提到的幾種。
主持人:
唯一的區別是複雜性。因為他們基本上是在快速抓取內容,而沒有給出內容來源,任何媒體公司都會對此感到擔憂。
米拉·穆拉蒂:
是的,我們希望確保尊重內容創作者,並嘗試補償他們。我們正在開發一個工具,稱為內容媒體管理器,這將讓我們更具體地識別資料的類型,就像唱片公司所做的那樣。
主持人:
這在過去是可以做到的。所以這並不是不可能的事。說到Sora,本週阿什頓庫徹(Ashton Kutcher,好萊塢著名演員)告訴埃里克施密特(Eric Schmidt,前GoogleCEO),他有一個測試版的Sora,非常驚人。
他也提到,這會讓門檻變得更高,因為人們可能會想:「我為什麼要看你的電影,而不直接看我腦海裡的電影呢?」他的意思是,人們有能力在腦海中構想電影情節,而AI能將這種構想轉化為可觀看的電影。雖然現在聽起來還有些粗糙,但這種想法是否有可能實現呢?
那麼,Sora這款應用程式大概什麼時候會準備好,向大眾發布呢?
米拉·穆拉蒂:
我們目前沒有Sora公開發布的時間表。我們現在正在與一些內容創作者合作,幫助我們識別如何使其更加穩定。我們正在進行大量的安全工作,但也在研究如何以有用的方式向公眾推出這項技術。這並不是一件簡單的事。
現在它更多的是一種技術。我們通常會與那些在特定領域有專長的人合作,就像我們最初與DALL·E合作時一樣,他們幫助我們識別出一種感覺更有能力的介面,可以創造更多的專案。基本上來講,我們想擴展Sora的創造力。
主持人:
關於影響,科技公司往往不關心影響,通常他們會發布一個測試版的軟體。如果他們發布的是一輛車,這種情況是絕對不會允許發生的,因為他們會被起訴到破產。
但許多科技公司發布的產品往往都是測試版,並強加在大眾身上。關於影響這個概念,你是否覺得身為技術官,即使你不能預見所有的影響,你是否尊重每項發明可能帶來的影響?
米拉·穆拉蒂:
這些影響會對我們和我們的社會產生影響。因此,我不一定指的是監管或法律上的影響,而是道德上的責任感,確保我們做對。我對這項技術充滿樂觀。
它將允許我們做出驚人的事情。我對它在科學、教育和特別是醫療方面的潛力感到非常興奮。但每當你有如此強大的東西,也會有潛在的災難性風險。一直以來,都是這樣的情況。人類試圖放大其影響。
主持人:
我引用的一句話來自保羅·維利裡奧(Paul Virilio):「當你發明了船時,你也發明了船難。」這是比船難更嚴重的可能性,對嗎?
米拉·穆拉蒂:
我不同意這個說法。我的專業是工程學。我們的整個世界都是透過工程建造的。工程學就是風險。整個文明建立在工程實踐之上。我們的城市、橋樑,一切都是如此。這總是伴隨著風險的。你透過責任和細緻的工作來管理這些風險。
這不僅僅是開發人員的責任。這是一種共同的責任。為了使其成為共同責任,你實際上需要給人們存取權限和工具,並與他們一起前進,而不是在真空中建造不可訪問的技術。
主持人:
我想多了解一下這個話題。你上個月宣布了ChatGPT-4的迭代更新。它是免費的,對吧?
米拉·穆拉蒂:
確實如此。 GPT-4o代表的是Omni-model,因為它結合了所有的模態:視覺、文字、音訊。這個模型的特別之處在於,它使與模型的互動變得非常流暢自然,幾乎察覺不到延遲。
這是AI互動上的巨大飛躍,與我們之前的版本有很大不同。我們希望將最新的功能免費提供給所有用戶,讓大家了解這項技術的潛力和限制。正如我之前所說,透過實際體驗,大家更容易理解科技的潛力和限制。
主持人:
它就像是一道開胃菜,讓大家期待ChatGPT-5。那麼,ChatGPT-5有什麼不同呢?是個巨大的飛躍還是逐步改進?
米拉·穆拉蒂:
我們還不知道。其實我們還沒決定叫什麼名字。下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍,但具體細節還不確定。
主持人:
顯然,你參與了很多項目,我們也聊過很多。 OpenAI內部的路線圖預測,人類將在2027年實現AGI,這將是一個巨大的里程碑。解釋一下這個時間點的重要性。你們是否真的認為會在那時實現AGI?
米拉·穆拉蒂:
AGI的定義因人而異。根據我們的章程,AGI是指在不同領域可以完成經濟上有價值工作的系統。從我們目前所看到的情況來看,智能的定義不斷改變。過去,我們用學術基準測試系統的智慧程度。然後,我們看考試成績。
當我們達到了這些基準,我們需要提出新的評估標準。這讓我們思考,在工作環境中如何評估智能?我們有面試、有實習等方式。因此,我預計這個定義會不斷演變。或許更重要的是評估和預測在現實世界中的影響,無論是社會影響還是經濟影響。
主持人:
根據這個定義,OpenAI認為何時會實現AGI? 2027年這個數字準確嗎?
米拉·穆拉蒂:
我會說,在未來十年內,我們將有超強的AI系統。
主持人:
但是人們擔心的是安全與產品之間的討論。 OpenAI的創立有兩個目標,一個是幫助人類,一個是追求巨大的經濟利益。我認為你可能介於兩者之間。
上週,13名現任和前任OpenAI和GoogleDeepMind員工聯名發表公開信,呼籲公司允許他們警告先進AI的風險。這並不新鮮,Facebook、Google和微軟的員工也曾簽署公開信,無論是與高階部門合作等。
但在這個案例中,員工們說,「廣泛的保密協議阻止我們表達擔憂,而公司可能未能解決這些問題。」基本上就是說,我們不能告訴你風險是什麼,但大家可能會遭遇災難。對此你有什麼回應?人們擔心遭到報復,而我不想談論股票的問題,因為我知道你們道歉並糾正了這一點。但如果他們有擔憂,難道不該讓他們表達嗎?我知道不同人有不同的看法。
米拉·穆拉蒂:
當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂並討論安全問題也非常重要。自從OpenAI成立以來,我們一直非常開放地討論假資訊問題,從GPT-2時代開始,這就是我們早期研究的問題之一。
過去幾年,科技進步令人難以置信,速度之快超乎預期,也增加了人們對社會準備的普遍焦慮。我們看到科學的發展方向,所以可以理解人們對未來的擔憂。
具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑑於技術進步的速度和我們自身的進展,專注於安全、保護框架非常重要,我們需要考慮如何看待前緣模型訓練和部署的風險。
主持人:
你提到過這些問題。我好奇的是,為什麼OpenAI需要簽訂保密協議,以及實施比其他公司更嚴格的規定?公開信是在一系列高調離職後發布的,包括楊·萊克(Jan Leike)和伊爾亞·蘇茨克維(Ilya Sutskever)。他們領導了對齊團隊,負責安全工作。
伊爾亞是OpenAI的共同創辦人,他與其他三位董事一起罷免了CEO,但萊克在X上發布了這條消息:「在過去的一年裡,安全文化和流程被光鮮亮麗的新產品所取代了。
這是外界對OpenAI持續不斷的批評之一。你認為這個批評公正嗎?為什麼?如果你確實非常重視安全,但外界卻認為你不夠重視,你會如何回應這樣的批評呢?
米拉·穆拉蒂:
首先,對齊團隊不是唯一負責安全的團隊。 OpenAI有許多安全團隊,對齊團隊是其中一個非常重要的安全團隊,但只是其中之一。
我們有很多人在OpenAI從事安全工作,我可以稍後再詳細解釋。萊克是一位了不起的研究人員和同事,我與他共事了三年,非常尊重他,他離開OpenAI後加入了Anthropic,這是我們的一個競爭對手。
我認為我們確實需要更加專注於安全、保護和監管參與,鑑於我們預期領域內的進展。但我不同意我們可能將產品放在安全之前的觀點。為什麼你認為他們這麼說?
主持人:
因為這些都是和你共事的人?
米拉·穆拉蒂:
我認為你需要問他們,但我認為許多人認為安全和能力是分開的。我認為整個產業需要朝更嚴格的安全學科發展。我們有安全系統,有嚴格的操作安全紀律,這包括許多方面,不僅是操作紀律,還有我們今天產品和部署的安全性,例如有害偏見、虛假資訊、錯誤資訊分類器等。
主持人:
但這在OpenAI中一直存在。我認為因為你們是當前的領先公司,所以這個問題更加突出。但人們擔心的是安全問題,OpenAI的創立目的之一就是確保安全。
上週,有13名現任和前任OpenAI和GoogleDeepMind員工聯名發表公開信,呼籲公司允許他們警告先進AI的風險。這並不新鮮,但在這種情況下,員工們說,“廣泛的保密協議阻止我們表達擔憂,而公司可能未能解決這些問題。”
你對此有什麼回應?人們擔心發聲會遭到報復,而我不想談論股票的問題,因為我知道你們道歉並糾正了這一點。但如果他們有擔憂,難道不該讓他們表達嗎?我知道不同人有不同的看法。
米拉·穆拉蒂:
當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂並討論安全問題也非常重要。自從OpenAI成立以來,我們一直非常開放地討論假訊息的問題,從GPT-2時代開始,這就是我們早期研究的問題之一。
過去幾年,科技進步令人難以置信,速度之快超乎預期,也增加了人們對社會準備的普遍焦慮。我們看到科學的發展方向,所以可以理解人們對未來的擔憂。
具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑑於技術進步的速度和我們自身的進展,專注於安全、保護框架非常重要,我們需要考慮如何看待前緣模型訓練和部署的風險。
主持人:
對於這種情況,你打算如何應對呢?我能理解這種變化,畢竟在Google、微軟和亞馬遜的早期階段都經歷過類似的情況。隨著公司的成長,很多事情都會改變。 Google早期也是一團亂麻,Facebook也換過不少營運官,多得我都數不清了。很多人都經歷過這樣的階段,所以這是很正常的。但對於山姆這種情況,你打算如何應對呢?
例如,他投資了一些外國公司,有些公司與OpenAI有業務往來。他投資了3.75億美元在一家名為Helion的能源公司,這是一個很酷的公司,他們目前正在與OpenAI談論大量的電力需求。眾所周知,計算需要大量電力。你每天是如何與他打交道的?你如何看待這種關係?你在哪些方面會提出反對意見?
米拉·穆拉蒂:
我一直在提出反對意見。我認為這是正常的,特別是在我們所做的工作中。山姆會對團隊提出很高的要求,我認為這是好的。有遠大的抱負,挑戰我們的極限是很重要的。當我覺得事情超出界線時,我會提出反對意見。這就是我們六年來的合作關係,我認為這種關係是有成效的。你需要能夠提出反對意見。
主持人:
你能舉個例子嗎?比如,史嘉莉·約翰遜的例子。我知道你和山姆在ChatGPT的音色這塊工作上,是合作完成的,對吧?
米拉·穆拉蒂:
是的,我們有很強的合作關係。但選擇聲音並不是我們的優先事項之一,不是我們共同工作的內容。我在這方面做了決策,但有山姆他自己的聯繫。在我選擇了Sky之後,他聯絡了史嘉蕾喬韓森。我們沒有討論這個具體的決定,這是很不幸的。
主持人:
所以他是單獨行動的。
米拉·穆拉蒂:
他有自己的聯繫,我們在這件事上沒有完全協調一致。
主持人:
你覺得這在很多方面很有趣,特別是因為電影和他的推文。但我認為這是OpenAI的一個錯誤,因為人們會覺得你們在偷竊,即使你們沒有偷她的聲音,山姆看起來就像是《小美人魚》裡的烏蘇拉,偷走了她的聲音。即使事實並非如此,但這種感覺是存在的。
那麼,讓我最後談談選舉和虛假訊息,然後我們會接受觀眾的提問。當你考慮到AI對假訊息的力量和即將到來的總統選舉時,是什麼讓你感到擔憂?從你的角度來看,最糟糕的情況和最可能的負面結果是什麼?
米拉·穆拉蒂:
首先,我們盡可能防止AI的濫用,包括提高資訊檢測的準確性,了解平台上的情況並迅速採取行動。第二是減少模型中的偏差因素。儘管ChatGPT因過於自由而受到批評,但這並非我們的本意,我們正不遺餘力地降低模型中的偏見因素,並將持續努力。第三是我們希望在選民尋找投票資訊時,模型可以指向正確的資訊。這是我們在選舉時關注的三件事。
關於假訊息,編造資訊是不可接受的。我們需要有非常可靠的方法讓人們了解他們在看的是編造的資訊。我們已經做了一些事情。我們為圖像實施了C2PA,它類似於護照,隨著內容在不同平台上傳播。我們也開放了DALL·E的分類器,可以偵測影像是否由DALL·E產生。
元資料和分類器是處理這個問題的兩種技術方法。這是資訊來源的證明,專門針對圖像。我們也正在研究如何在文本中實現水印技術。
主持人:
我再問你一個最後的問題,然後我們會接受觀眾提問。你今天得到了這個問題的不同版本。你對這項技術非常樂觀,但我想讓你總結一下。如果你是個悲觀主義者,甚至有公司說如果我不阻止山姆·阿爾特曼,他會毀滅人類,我覺得這有點誇張。
而其他人則認為,無論如何,這會是最好的事情,我們都會在火星上享受美味的士力架。所以我希望你能告訴我,你最擔心的事情和最希望的事情,然後我們會接受觀眾提問。
米拉·穆拉蒂:
首先,我不認為這是一個預定的結果。我認為我們在建構和部署這項技術方面有很大的自主權。為了做好這件事,我們需要找到創造共同責任的方法。
我們今天談了很多這個問題,我確實認為控制人們做特定的事情,是非常非常可怕的,這意味著你可以控制社會朝著特定方向發展。
就希望而言,我非常興奮的一件事是能夠在任何地方提供高品質和免費的教育。對我來說,教育非常重要,它改變了我的生活。
今天我們有這麼多工具可用,例如電和互聯網,很多工具都是可用的。但大多數人仍然是這種狀況——在一個教室裡有一個老師,50個學生,每個人都學到同樣的東西。想像一下,如果教育能夠根據你的思維方式、文化規範和具體興趣進行定制,這將極大地擴展知識和創造力的水平。
如果我們能夠真正掌握這個,在很年輕的時候就學會如何學習,我認為這非常強大,並能推動人類知識的進步,從而推動整個文明的進步。
觀眾:
ChatGPT的模型截止到2021年9月,你們會依賴網路搜尋來補充資料。當我輸入搜尋請求時,確保你們從正確的參考資料中獲得正確答案?由於你們授權的受信任來源是商業機密,我們如何知道你們提供的資訊是正確的?
米拉·穆拉蒂:
實際上,有趣的是,ChatGPT計畫最初是一個關於真實性的研究計畫。我們希望能夠表達不確定性,並希望能夠在大型語言模型中引用訊息,然後它轉變成了不同的研究計畫。
所以,我們今天在平台上所做的事情,我們有瀏覽器和工具,我們引入了工具和瀏覽功能,可以查找內容,我們也在與出版商合作,以便將新聞和額外內容帶到平台上,提高準確性。
我們正在努力解決大模型編造虛假資訊的問題,這顯然是大型語言模型的一個主要問題,但其出現的頻率正在逐步降低。我認為這類問題不會完全消失,但隨著模型變得更聰明,我們有理由相信它們的表現會越來越好,我們應該期待它們輸出的內容也會更加貼近真實情況,不會編造虛假資訊.虛假資訊問題非常複雜,我們正在努力探索解決之道,以確保資訊的真實性和準確性。
我們希望資訊來源盡可能廣泛,同時也需要考慮產品的應用場景,不同的應用場景會有所不同。