OpenAI CEO談GPT4:人類迄今開發的最偉大技術有點害怕了
創建ChatGPT的公司背後的首席執行官認為,人工智能技術將重塑我們所知的社會。他認為它會帶來真正的危險,但也可能是“人類迄今為止發展出的最偉大的技術”,可以極大地改善我們的生活。“我們在這裡必須小心,” OpenAI首席執行官薩姆奧特曼說。“我認為人們應該為我們對此有點害怕而感到高興。”
Altman 坐下來接受ABC 新聞首席商業、技術和經濟記者Rebecca Jarvis 的獨家採訪,談論GPT-4 的推出——AI 語言模型的最新版本。
在接受采訪時,Altman 強調OpenAI 需要監管機構和社會盡可能地參與ChatGPT 的推出——堅持認為反饋將有助於阻止該技術可能對人類造成的潛在負面影響。
他補充說,他與政府官員保持“定期聯繫”。
ChatGPT是一種AI語言模型,GPT代表Generative Pre-trained Transformer。
僅在幾個月前發布,它已被認為是歷史上增長最快的消費者應用程序。該應用程序在短短幾個月內就達到了1 億月活躍用戶。
相比之下,根據瑞銀的一項研究,TikTok 用了九個月才達到這麼多用戶,而Instagram 用了將近三年。
雖然“不完美”,但根據Altman 的說法,GPT-4 在統一律師考試中得分為第90 個百分位。它還在SAT 數學測試中取得了近乎滿分的成績,現在它可以熟練地用大多數編程語言編寫計算機代碼。
GPT-4 只是朝著OpenAI 最終構建通用人工智能的目標邁出的一步,即當AI 跨越一個強大的閾值時,這個閾值可以被描述為通常比人類更聰明的AI 系統。
儘管他慶祝自己產品的成功,但Altman 承認AI 可能的危險實施讓他徹夜難眠。
“我特別擔心這些模型可能會被用於大規模的虛假信息,”Altman說。“現在他們在編寫計算機代碼方面做得越來越好,[他們] 可以用於攻擊性網絡攻擊。”
Altman沒有分享的一個常見的科幻恐懼:不需要人類的人工智能模型,它們自己做出決定並策劃世界統治。“它等待有人給它輸入,”Altman說。“這是一種非常受人類控制的工具。”
然而,他說他確實擔心哪些人可以控制。“會有其他人不設置我們設置的一些安全限制,”他補充說。
“我認為,社會只有有限的時間來弄清楚如何對此做出反應,如何監管,如何處理。”
2017 年開學第一天,俄羅斯總統弗拉基米爾·普京(Vladimir Putin) 告訴俄羅斯學生,無論誰在人工智能競賽中領先,都可能“統治世界”。
“所以這肯定是一個令人不寒而栗的聲明,”Altman說。“相反,我希望的是,我們不斷開發出越來越強大的系統,我們都可以以不同的方式使用這些系統,將其融入我們的日常生活,融入經濟,並成為人類意志的放大器。”
對錯誤信息的擔憂
根據OpenAI 的說法,GPT-4 與之前的迭代相比有了巨大的改進,包括將圖像理解為輸入的能力。演示展示了GTP-4 描述某人冰箱裡的東西、解決難題,甚至闡明互聯網模因背後的含義。
目前只有一小部分用戶可以使用此功能,包括參與Beta 測試的一群視障用戶。
但根據Altman 的說法,ChatGPT 等AI 語言模型的一個持續問題是錯誤信息:該程序可以為用戶提供事實上不准確的信息。“我最想提醒人們的是我們所說的’幻覺問題’,”Altman說。“該模型會自信地陳述事物,就好像它們是完全虛構的事實一樣。”
根據OpenAI 的說法,該模型存在這個問題,部分原因是它使用演繹推理而不是記憶。
OpenAI 首席技術官Mira Murati 告訴美國廣播公司新聞:“我們從GPT-3.5 到GPT-4 看到的最大差異之一是這種新興的更好推理能力。”
“我們的目標是預測下一個詞——由此,我們看到了對語言的理解,”Murati 說。“我們希望這些模型能像我們一樣看待和理解世界。”
“考慮我們創建的模型的正確方法是推理引擎,而不是事實數據庫,”Altman 說。“它們也可以充當事實數據庫,但這並不是它們的特別之處——我們希望它們做的是更接近於推理能力,而不是記憶能力。”
Altman 和他的團隊希望“隨著時間的推移,這個模型將成為這個推理引擎,”他說,最終能夠使用互聯網和它自己的演繹推理來區分事實和虛構。
根據OpenAI 的說法,GPT-4 產生準確信息的可能性比其之前的版本高40%。
儘管如此,Altman表示,依賴該系統作為準確信息的主要來源“是你不應該使用它的地方”,並鼓勵用戶仔細檢查程序的結果。
防範不良行為者
ChatGPT等AI語言模型所包含的信息類型也一直備受關注。例如,ChatGPT 是否可以告訴用戶如何製造炸彈。
根據Altman 的說法,答案是否定的,因為編碼到ChatGPT 中的安全措施。
“我擔心的一件事是……我們不會成為這項技術的唯一創造者,”奧特曼說。“會有其他人不對我們施加的一些安全限制加以限制。”
根據Altman 的說法,針對AI 的所有這些潛在危害,有一些解決方案和保護措施。其中之一:讓社會在風險較低的時候玩弄ChatGPT,並學習人們如何使用它。
Murati 表示,目前,ChatGPT 向公眾開放主要是因為“我們正在收集大量反饋”。
隨著公眾繼續測試OpenAI 的應用程序,Murati 表示,識別需要保護措施的地方變得更加容易。
“人們用它們做什麼,還有它的問題是什麼,缺點是什麼,以及能夠介入[和] 改進技術,”Murati 說。Altman 表示,讓公眾與每個版本的ChatGPT 進行互動非常重要。
“如果我們只是秘密地開發這個——在我們這裡的小實驗室裡——然後製造出GPT-7,然後一下子把它投放到世界上……我認為,這是一個有更多不利因素的情況,”
Altman 說。“人們需要時間來更新、做出反應、習慣這項技術,[並]了解缺點在哪里以及可以採取哪些緩解措施。”
關於非法或道德上令人反感的內容,Altman 表示他們在OpenAI 有一個政策制定者團隊,他們決定將哪些信息輸入ChatGPT,以及允許ChatGPT 與用戶共享哪些信息。
“[我們]正在與各種政策和安全專家交談,對系統進行審計,試圖解決這些問題,並推出我們認為安全和好的東西,”Altman 補充道。“再一次,我們不會在第一次就做到完美,但吸取教訓並在風險相對較低的情況下找到優勢非常重要。”
人工智能會取代工作嗎?
這項技術的破壞性能力令人擔憂的是工作的替代。Altman 說這可能會在不久的將來取代一些工作,並擔心這會發生多快。
“我認為經過幾代人的努力,人類已經證明它可以很好地適應重大技術變革,”Altman 說。“但如果這種情況發生,你知道,在個位數的年數中,其中一些轉變,這是我最擔心的部分。
但他鼓勵人們更多地將ChatGPT 視為一種工具,而不是替代品。他補充說,“人類的創造力是無限的,我們找到了新的工作。我們找到了新的事情要做。”
“我認為在幾代人的時間裡,人類已經證明它可以很好地適應重大技術變革,”Altman 說。“但如果這種情況發生在個位數年內,其中一些轉變……這是我最擔心的部分。”
根據Altman 的說法,ChatGPT 可以用作人類工具的方式超過了風險。
Altman說:“我們都可以在口袋裡擁有一位為我們量身定制的不可思議的教育者,它可以幫助我們學習。” “我們可以為每個人提供超出我們今天所能獲得的醫療建議。”
ChatGPT 作為“副駕駛”
在教育領域,ChatGPT 引起了爭議,因為一些學生用它來作弊。教育工作者對這是否可以作為他們自己的延伸,或者是否會阻礙學生自學的動力感到困惑。
Altman說:“教育將不得不改變,但隨著技術的發展,這種情況已經發生了很多次,”他補充說,學生將能夠擁有一種超越課堂的老師。“讓我最興奮的其中一個是提供個人學習的能力——為每個學生提供很好的個人學習。”
在任何領域,Altman 和他的團隊都希望用戶將ChatGPT 視為“副駕駛”,即可以幫助您編寫大量計算機代碼或解決問題的人。
奧特曼說:“我們可以為每一個職業都做到這一點,我們可以擁有更高質量的生活,比如生活水平。” “但我們也可以擁有我們今天甚至無法想像的新事物——所以這就是承諾。”