美媒:別被AI的智能嚇到真正可怕之處是它被高估被濫用
過去六個月以來,強大的人工智能(AI)新工具正在以驚人的速度擴散,從能夠進行類似真人對話的聊天機器人,到自動運行軟件的編碼機器人,再到無中生有的圖像生成器,所謂的生成式人工智能(AIGC)突然間變得無處不在,並變得越來越強大。
但是在上週,針對這股AI熱潮的反彈開始出現。特斯拉、推特首席執行官埃隆·馬斯克(Elon Musk)為首的數千名技術專家和學者簽署了一封公開信,警告“人類面臨的嚴重風險”,並呼籲暫停AI語言模型的開發六個月。
與此同時,一家AI研究非營利組織提出申訴,要求美國聯邦貿易委員會(FTC)調查ChatGPT的創建公司OpenAI,並停止其GPT-4軟件的進一步商業化發布。
意大利監管機構也採取行動,以數據隱私侵犯為由,徹底封殺了ChatGPT。
有人呼籲暫停或放緩AI研究,或許這是可以理解的。幾年前看起來不可思議甚至深不可測的AI應用程序現在正在迅速滲透到社交媒體、學校、工作場所甚至政治領域。面對這種令人眼花繚亂的變化,一些人發出了悲觀預測,認為AI最終可能導致人類文明消亡。
好消息是,對全能AI的炒作和恐懼可能被誇大了。雖然谷歌的Bard和微軟的必應給人留下深刻印象,但它們和成為“天網”相差還很遠。
壞消息是,人們對AI快速進化的擔憂已經成為現實。這不是因為AI將變得比人類聰明,而是因為人類已經在利用AI,以現有組織沒有準備好的方式來壓制、剝削和欺騙彼此。此外,人們認為AI越強大,他們和企業就越有可能將其無法勝任的任務委託給它。
除了那些令人悲觀的末日預言之外,我們可以從上週發布的兩份報告初步了解AI對可預見未來的影響。第一份報告由美國投行高盛發布,主要評估AI對經濟和勞動力市場的影響;第二份報告由歐洲刑警組織發表,主要講述AI可能被刑事濫用的情況。
從經濟角度來看,最新的AI潮流主要是將曾經只能由人類完成的任務自動化。就像動力織布機、機械化裝配線和自動取款機一樣,AIGC有望以比人類更便宜、更高效的方式完成某些類型的工作。
但是,更便宜、更高效並不總是意味著更好,任何與雜貨店自助結賬機、自動電話應答系統或客戶服務聊天機器人打交道的人都可以證明這一點。與之前的自動化浪潮不同,AIGC能夠模仿人類,甚至在某些情況下冒充人類。這既可能導致廣泛的欺騙,也可能誘使雇主認為AI可以取代人類員工,即使事實並非如此。
高盛的研究分析估計,AIGC將改變全球約三億個工作崗位,導致數千萬人失業,但也會促進顯著的經濟增長。然而,高盛的評估數字也不一定準確,畢竟他們曾經有過預測失誤的歷史。在2016年,該行曾預測虛擬現實頭戴設備可能會變得像智能手機一樣普及。
在高盛的AI分析報告中,最有趣的是他們對各個行業進行了細分,即哪些工作可能被語言模型增強,哪些工作可能被完全取代。高盛的研究人員將白領任務的難度分為1到7級,其中“審查表格的完整性”為1級,可能被自動化的任務為4級,“在法庭上就一項複雜的動議做出裁決”為6級。據此得出的結論是,行政支持和律師助理工作最有可能被AI取代,而管理和軟件開發等職業的生產效率將會提高。
該報告樂觀地預測,隨著企業從掌握AI技能的員工那裡獲得更多好處,這一代AI最終可能會使全球GDP增長7%。但高盛也預計,在這個過程中,大約7%的美國人會發現他們的職業會被淘汰,更多的人將不得不學習這項技術以維持就業。換句話說,即使AIGC帶來了更積極影響,其結果也可能導致大批員工失業,辦公室和日常生活中的人類將逐漸被機器人取代。
與此同時,已經有許多公司急於走捷徑,以至於將AI無法處理的任務自動化,比如科技網站CNET自動生成錯誤百出的財經文章。當AI出現問題時,已經被邊緣化的群體可能會受到更大的影響。儘管ChatGPT及其同類產品令人興奮,但當今大型語言模型的開發商還沒有解決數據集存在偏見的問題,這些數據集已經將種族歧視偏見嵌入到人臉識別和犯罪風險評估算法等AI應用中。上週,一名黑人男子再次因為面部識別匹配失誤而被錯誤監禁。
更令人擔憂的是,AIGC有些情況下可能會被用於故意傷害。歐洲刑警組織的報告詳細說明了AIGC如何被用於幫助人們實施犯罪,比如進行欺詐和網絡攻擊等。
舉例來說,聊天機器人能夠生成特定風格的語言,甚至模仿某些人的聲音,這可能使其成為釣魚詐騙的有力工具。語言模型在編寫軟件腳本方面的優勢可能會使惡意代碼的生成大眾化。它們能夠提供個性化、情境化、循序漸進的建議,對於那些想要闖入民宅、勒索某人或製造管狀炸彈的罪犯來說,它們可以成為萬能指南。我們已經看到合成圖像如何在社交媒體上散佈虛假敘事,再次引發人們對深度造假可能扭曲競選活動的擔憂。
值得注意的是,使語言模型容易受到濫用的原因不僅僅是它們擁有廣泛的智慧,還有它們在知識方面存在根本缺陷。當前領先的聊天機器人經過訓練後,當檢測到有人試圖將它們用於邪惡目的時會保持沉默。但正如歐洲刑警組織指出的那樣,“只有在模型理解它在做什麼的情況下,防止ChatGPT提供潛在惡意代碼的安全措施才有效。”正如大量記錄在案的技巧和漏洞所表明的那樣,自我意識仍然是這項技術的弱點之一。
考慮到所有這些風險,你不必擔心世界末日的場景,就會看到AIGC的發展步伐放慢,讓社會有更多時間來適應。OpenAI本身是作為非營利性組織成立的,前提是AI可以採用更加負責任的方式構建,而不會有實現季度收益目標的壓力。
但OpenAI現在正在一場勢均力敵的競賽中領先,科技巨頭正在裁減他們的AI倫理學家,而且無論如何,這匹馬可能已經離開了馬厩。正如學術AI專家薩亞甚·卡普爾(Sayash Kapoor)和阿爾文德·納拉亞南(Arvind Narayanan)所指出的那樣,現在語言模型創新的主要驅動力不是推動越來越大的模型,而是將我們擁有的模型集成到各種應用和工具中。他們認為,監管機構應該從產品安全和消費者保護的角度來看待AI工具,而不是試圖像遏制核武器一樣遏制AI。
也許短期內最重要的是讓技術專家、商業領袖和監管機構拋開恐慌和炒作,更加深入地理解AIGC的優點和缺點,從而在採用它時更加謹慎。如果AI繼續發揮作用,無論發生什麼,它的影響都將是顛覆性的。但過高估計其能力將使其危害更大,而不是更小。