OpenAI CEO對話脫口秀女王:避談信任危機自稱與政府往來密切
近日,美國著名女脫口秀主持人歐普拉溫芙瑞(Oprah Winfrey)錄製了一檔45分鐘的AI特別節目,主題為「AI與我們的未來」。嘉賓包括OpenAI共同創辦人兼CEO薩姆·阿爾特曼(Sam Altman)、微軟共同創辦人比爾·蓋茲(Bill Gates)、YouTube知名科技部落客馬庫斯·布朗利(Marques Brownlee,又稱MKBHD )和現任FBI局長克里斯多福·雷伊(Christopher Wray)等人。
這檔節目也是OpenAI發布傳說中「草莓」模型的部分預覽版——OpenAI o1預覽版後,阿爾特曼首次公開露面。 OpenAI o1擁有進化的推理能力,在物理、生物、化學問題的基準測試中準確度甚至超過了人類博士水平。這些無一不引發人們對AI安全的擔憂。
在對話中,作為目前這家最受矚目的AI創企的CEO,阿爾特曼強調了對AI系統進行安全測試的重要性,並透露他每隔幾天就會和政府官員就此碰面討論。
但同時,阿爾特曼也分享了AI能透過數據來學習並理解概念以及「AI將幫助我們解決一切問題」等極具爭議性的觀點,並在歐普拉提及他面對的信任危機時轉移話題。
蓋茲則強調,10年內AI會大幅改變教育和醫療領域。然而,他並未提及這些改變可能並非全是正面的。有研究顯示,AI在醫療上的應用可能會對診斷和治療效果帶來負面影響。
其它嘉賓則關注了深度偽造造成的危害和「超級智慧帶來的全新風險」。
這檔節目在發布前後引起軒然大波,許多網友和批評家質疑該節目在嘉賓選擇上過於單一,阿爾特曼與蓋茨都是從本場AI熱潮中直接受益的利益相關方,他們對AI的觀點可能有所偏頗。此外,部分嘉賓在節目中過度強調AI的遠期危害,可能導致大眾忽視AI目前已經對環境、社會造成的現實影響。
一、阿爾特曼再度開啟“推銷員”模式,稱AI能解決“一切問題”
阿爾特曼是接受歐普拉訪問的第一位嘉賓,他提出了一個頗具爭議的觀點:當今的AI是透過訓練資料來學習概念的。
在向節目觀眾解釋AI的原理時,阿爾特曼說:「我們向系統展示一千個單字的序列,並要求它預測接下來的內容,反覆重複這個過程,系統就能學會預測,進而學會背後的概念,這就是模型的底層邏輯。
許多專家並不同意這項說法。最近,OpenAI發布了傳說中「草莓」模型的部分預覽版——OpenAI o1預覽版。這類系統和先前的GPT系列模型確實可以有效率、準確地完成下一句話預測的任務,但許多研究者認為這個模型只是統計機器──它們只是學習資料模式,沒有意圖,只是做出有根據的猜測。
阿爾特曼稱,AI對經濟發展的影響程度之大是前所未有的,稱到2035年,「AI能幫助我們解決一切問題」。假設我們能讓模型變得極為安全,但也無法改變AI融入經濟的速度,他認為:「人們想要更多、更好(的AI),似乎有某股強大的力量在推動其發展」。
不過,高盛和紅杉在近期都曾指出AI領域有投資與收益不符的問題。
二、阿爾特曼強調AI監管,避而不談信任危機
阿爾特曼可能誇大了當今AI的能力,他也同時強調了對這些系統進行安全測試的重要性:「我們需要做的第一件事就是要讓政府開始研究如何對這些系統進行安全測試,類似於飛機和藥物那樣的測試。
但他的重點可能是後半句話:「如果我們現在能研究清楚這些問題,就能在之後發展出適合的監管框架。」換言之,他可能不希望在當下就出現完整的監管體系。
▲阿爾特曼接受採訪(圖源:ABC)
在過去的幾年中,阿爾特曼常常以支持AI監管的形象示人,在本次採訪中,他說到:“我個人可能每隔幾天就會和政府裡的某個人交談一次。 ”
不過,在面臨歐洲和美國加州地方政府的實際監管政策時,阿爾特曼卻選擇反對。 OpenAI的強力競爭對手Anthropic一開始雖然反對加州AI安全法案的初稿,但積極參與了修訂工作,OpenAI並未提出具體修改意見。
歐普拉還質疑阿爾特曼,他作為OpenAI的「頭目」(ringleader),之前曾被董事會以不信任為由開除,人們為什麼要繼續相信他?阿爾特曼迴避了這個問題,他只提到其公司正在努力逐漸建立信任。
阿爾特曼曾在多個場合提到,人們不應該相信他或任何一個人能確保AI造福世界。不過,他不同意有些人稱他為“世界上最有權勢和最危險的人”,他稱自己有機會和責任推動AI朝著對人類有利的方向發展。
三、深度偽造技術風險激增,青少年成侵害對象
在節目中,歐普拉和MKBHD談論了深度偽造的話題。
為了證明合成內容的可信度,MKBHD將OpenAI的視訊生成模型Sora的樣本片段與幾個月前AI系統生成的片段進行了比較。 Sora的視訊效果遙遙領先,這表明該領域的進步非常迅速。 MKBHD也現場利用語音合成器產生了一段自己繞口令的音訊。
▲YouTube科技部落客MKBHD現場示範深度偽造技術(圖片來源:ABC)
歐普拉對這項技術感到擔憂,但MKBHD認為就像之前的種種技術一樣,在開始階段總是會存在混亂,但人類最終總是能解決問題。
來自美國人道技術中心的崔斯坦·哈里斯(Tristan Harris)和阿扎·拉斯金(Aza Raskin)在節目中強調了「超級智能帶來的全新風險」。然而,過去已有AI界人士批評,過度強調遙遠的“超級智慧”,可能會導致社會忽視近期的AI風險,如AI的環境影響。
美國FBI現任局長雷伊談到AI詐騙日益盛行的情況。美國網路安全公司ESET的數據顯示,2022年至2023年間,性勒索案件增加了178%,部分原因是AI技術。
雷伊說:「有人冒充同儕瞄準青少年群體,然後使用(AI生成的)的圖片說服孩子發送真實照片作為回報。一旦他們拿到這些照片,就將其用來威脅孩子們。」雷伊還談到了美國總統大選的假訊息。他認為“現在還不是恐慌的時候”,但強調了每個人都有責任加強對AI使用的關注和謹慎。
四、蓋茲看好AI教育、醫療應用,但偏見與濫用頻傳
歐普拉也採訪了微軟聯合創始人比爾蓋茲(Bill Gates),他認為10年內AI會大大改變教育和醫療領域。
蓋茲說:「AI就像是坐在就診現場的第三人,記錄診斷結果,並提出處方建議。醫生不需要再面對電腦螢幕,而是可以與病患互動,讓軟體確保診斷結果完整記錄。
▲蓋茲在節目中談論AI與醫療和教育(圖源:ABC)
然而,由於醫療、醫藥領域的樣本通常為白人男性,因此使用這些數據來訓練AI可能造成偏見。 2023年發佈在學術期刊《自然》子刊上的一項研究表明,AI系統在某些情況下降低了手術的效果,特別是在涉及少數族裔的手術中。
在教育領域,蓋茲認為AI可以在課堂上「隨時待命」並且給任何程度的孩子提供激勵,但實際上許多教室裡的情況並非如此。
英國安全網路中心的調查顯示,超過一半的孩子表示曾看過同儕以不當方式使用生成式AI,如創造看起來可信的假訊息或冒犯性的圖像。
聯合國教科文組織(UNESCO)去年底曾敦促各國政府規範生成式AI在教育領域的使用,包括對使用者實施年齡限制以及對資料保護和使用者隱私設定限制。
五、節目安排引發軒然大波,網友質疑歐普拉「拉偏架」
其實,在這檔特別節目發布之前,就有不少網友和批評家對其嘉賓安排和內容提出質疑。
部分網友認為,在AI界阿爾特曼等人顯然不算是最權威的專家。 OpenAI前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)可能更了解AI,而OpenAI的強力競爭對手Anthropic的創始人達裡奧·阿莫蒂(Dario Amodei)也應該被邀請,以體現對AI不同的看法。
▲網友吐槽歐普拉AI特別節目的嘉賓人選(圖源:X平台)
起訴Stability AI和Runway AI等公司、並讓Runway AI於不久前“刪庫跑路”的藝術家卡拉·奧爾蒂斯(Karla Ortiz)認為,這檔節目應該找一些“真正的專家”來參與討論。
她也進一步分析道,這檔節目或許將會是許多人第一次獲得與生成式AI相關的信息,然而參與這檔節目的人大多是既得利益者,他們忽視了生成式AI對大眾造成的現實影響。她的系列帖子獲得了大量閱讀和點讚。
▲卡拉·奧爾蒂斯批評歐普拉的節目嘉賓選擇(圖片來源:X平台)
前《洛杉磯時報》科技專欄作家布萊恩·莫欽特(Brian Merchant)在X平台上將這場節目稱之為生成式AI行業困局中的一次「銷售宣傳」。
結論:批評聲浪減退但影響持續,或成部分觀眾“AI第一課”
這檔節目在發布後繼續在社群媒體平台上引發討論,反對的聲浪並未如播出前般巨大。有部分網友認為,這檔節目其實是面對「祖父母輩」族群介紹AI,並不是十分深刻。但也有網友認為這正是非技術人員所需要的。
▲Reddit論壇上的相關討論(圖片來源:Reddit)
相對較少的討論並不意味著這檔節目的影響力有限。歐普拉的觀眾群體龐大,但可能不是社群媒體的用戶,他們十分願意相信歐普拉和她的節目中其他嘉賓的觀點。
通觀這檔45分鐘的節目,歐普拉似乎將重點放在了AI安全問題上,卻又沒有進行深入且實際的探討,並呈現來自不同方面的觀點。不論這些觀點是否正確,偏頗與否,似乎已經成為了部分觀眾的AI第一課。