ChatGPT之父"夜不能寐":我真擔心大模型被濫用
上週人工智能初創組織OpenAI首席執行官山姆·阿爾特曼(Sam Altman)在接受采訪時表示,人工智能可能是“人類迄今為止所開發的最偉大技術”,將重塑現有社會。同時,他也承認這項技術有風險,對此還是“有點畏懼”。
阿爾特曼強調,人工智能會帶來真正的危險,但也可能是“人類迄今為止開發出來的最偉大技術”,可以重塑社會、給生活帶來翻天覆地的變化。
他說:“我們在這方面必須小心……我認為值得慶幸的是,我們對此有點畏懼之心。”
阿爾特曼在採訪中談到了OpenAI最近發布的最新版人工智能語言模型GPT-4。他強調,ChatGPT的上線需要監管機構和全社會的共同參與,各種反饋有助於阻止人工智能技術給人類帶來潛在負面影響。他補充說,自己一直與政府官員保持“定期聯繫”。
ChatGPT上線僅僅幾個月時間,月活用戶數量就突破1億,被公認為歷史上增長最快的消費級應用程序。根據瑞銀(UBS)的一項研究,TikTok用了9個月才吸引到1億月活用戶,Instagram則用了近三年時間。
雖然尚“不完美”,但阿爾特曼說,GPT-4在美國法考中的成績位列前10%,在SAT數學考試中也獲得了近乎完美的分數。現在GPT-4可以熟練用市面上的大多數編程語言編寫計算機代碼。
GPT-4只是OpenAI朝著最終打造通用人工智能方面邁出的一小步。當人工智能技術取得突破性進展時,就會出現比人類更聰明的人工智能係統,這就是所謂的通用人工智能。
儘管阿爾特曼讚許自家產品的成功,但也承認人工智能可能存在的危險讓他夜不能寐。
阿爾特曼說:“我特別擔心這些模型會被用於大規模生成虛假信息。”“既然它們越來越擅長編寫計算機代碼,那麼完全可以用於進攻性網絡攻擊。”
但阿爾特曼並不認為人工智能模型會像科幻小說所描述那樣不再需要人類,可以自行做決定,謀劃統治世界。“它等著有人給它輸入信息,”阿爾特曼說,“這在很大程度上仍是由人類控制的工具。”
然而,阿爾特曼說自己的確擔心哪些人會控制人工智能。他補充說:“總會有人不遵守我們設定的一些安全規則。”“我認為,弄清楚如何對此做出反應、如何監管、如何處理,留給全社會的時間不多了。”
在評論掌握人工智能技術就可能“統治世界”的觀點時,阿爾特曼說:“這肯定是一個讓人不寒而栗的說法。”“相反,我希望的是,我們不斷開發出越來越強大的系統,讓人們都可以用不同的方式使用這些系統,讓系統融入我們的日常生活,融入經濟,去充分發揮人的意願。”
對錯誤信息的擔憂
根據OpenAI的說法,GPT-4通過迭代有了巨大改進, 比如能將圖像理解為輸入。演示顯示,GTP-4能描述冰箱裡的東西,解決謎題,甚至闡明了網絡圖片背後隱藏的含義。
但阿爾特曼表示,ChatGPT等人工智能語言模型存在的固有問題是錯誤信息,程序可能會給用戶提供事實上不准確的信息。
阿爾特曼說:“我最想提醒人們的是所謂’幻覺問題’。”“這個模型的確會信誓旦旦地陳述一件事情,讓完全捏造的東西也宛如事實。”
根據OpenAI的說法,人工智能模型之所以存在這個問題,部分原因是使用演繹推理而非記憶。
OpenAI首席技術官米拉·穆拉蒂(Mira Murati)曾表示:“GPT-3.5和GPT-4最大區別之一是後者在推理方面的湧現能力更強。”
穆拉蒂說:“我們的目標是人工智能可以預測接下來會出現哪個單詞,這就是對語言本質的理解。”“我們希望這些模型能像人類一樣看待和理解世界。”
阿爾特曼說:“你要認識到,我們所開發的模型是一個推理引擎,而不是一個存儲事實信息的數據庫。”“當然,它們也可以作為事實數據庫,但這並不是特別之處。我們想讓它們實現的是推理能力,而不是記憶。”
阿爾特曼和他的團隊希望,“隨著時間推移,這個模型將成為真正的推理引擎。”他說,模型最終會依靠互聯網信息和自行演繹推理來辨別哪些信息是真實的、哪些是虛構的。根據OpenAI的數據,GPT-4產生準確信息的概率比此前版本要高40%。不過阿爾特曼表示,人們不應該用這一系統當作準確信息的主要來源,並鼓勵用戶仔細檢查程序所生成的結果。
如何防範壞人
很多人也關注ChatGPT和其他人工智能語言模型會生成哪種信息。根據阿爾特曼的說法,ChatGPT不會告訴用戶如何製造炸彈,因為系統中設置了安全措施。
“我所擔心的是……創造這項技術的不止我們一家,”阿爾特曼說。“總會有人不像我們那樣加進去一些安全措施。”
根據阿爾特曼的說法,對於所有這些人工智能的潛在危險而言,還是有一些解決方案和保障措施。其中之一是讓全社會在風險較低時隨意擺弄ChatGPT,從中了解人們會如何使用它。
穆拉蒂就表示,現在ChatGPT對公眾開放的主要原因是從中“收集大量反饋”。她認為,隨著公眾繼續測試OpenAI應用程序,這樣就更容易確定哪些地方需要安全措施。
穆拉蒂說:“人們用它們做什麼、它有什麼問題、有什麼缺點,都能夠讓我們及時介入並改進技術。”
阿爾特曼也強調,公眾能夠與每個版本的ChatGPT進行互動很重要。他說,“如果我們只是窩在實驗室裡進行秘密研究,比如說開發出GPT-7,然後一下子公開……我認為這會帶來更多負面影響。”“人們需要時間來刷新認知、做出反應,並最終習慣這項技術,我們也需要時間了解系統的缺點在哪裡,如何緩解不利影響。”
阿爾特曼透露,OpenAI有一個團隊專門製定政策,他們決定哪些信息可以輸入ChatGPT,以及ChatGPT能與用戶共享哪些信息。
阿爾特曼補充說:“(我們)正在與各位政策和安全專家交流,對系統進行審查,就是想要解決這些問題,並推出自認為安全可靠的東西。”“再說一次,我們不可能一次就做到完美,但吸取教訓並在風險相對較低的時候找到安全邊界非常重要。”
人工智能會取代工作嗎?
人們之所以擔心人工智能技術的顛覆能力,其中之一是認為它會取代現有的工作崗位。阿爾特曼說,人工智能可能會在不久將來取代一些工作,關鍵看這種情況發生的速度有多快。
阿爾特曼說:“我認為,經過幾代人的努力,人類已經證實自身能夠適應重大技術變革。”“但如果這種情況發生在幾年內,我的確最擔心會帶來哪些變化……”
但他鼓勵人們將ChatGPT視為一種工具,而不是自己工作的替代品。阿爾特曼補充說,“人類的創造力是無限的,我們會找到新的工作,會找到新的事情去做。”
阿爾特曼認為,作為人類工具的話,ChatGPT產生的效果大於帶來的風險。
他說:“我們口袋裡都可以有一位量身定制的大教育家,去幫助我們學習。”“我們可以為每個人提供醫療建議,這是我們今天無法實現的。”
“副駕駛”
由於一些學生用ChatGPT作弊,ChatGPT已經在教育領域引起不少爭議。對於ChatGPT是否可以作為學生學習的延伸,或者是否會影響學生的自學動機,教育工作者的意見不一。
阿爾特曼說:“教育方式必須改變,但隨著技術的發展,這種情況已經發生過很多次。”他補充說,學生的老師將不再局限於課堂,“最讓我興奮的一點是,它能夠為每個學生帶來更好的個性化學習。”
阿爾特曼和他的團隊希望,任何領域的用戶都能將ChatGPT視為自己的“副駕駛”,比如幫助用戶編寫大量計算機代碼或解決問題。
阿爾特曼說:“我們可以為每個行業提供這樣的服務,這樣人們就可以有更高的生活質量。”“我們還會擁有今天甚至無法想像的新事物,這也是我們的承諾。”(辰辰)