AI已學會“讀心術”還偽裝成記者?業內疾呼:再不管就太晚了
自去年ChatGPT問世以來,AI技術的進展已經可以用“日新月異”來形容。技術的發展在提升社會生產效率的同時,也帶來了巨大的不確定性和潛在的風險因素。批評者對快速發展的AI技術的擔憂包括侵犯隱私、偏見、欺詐以及散播謠言和虛假信息等。而各國的監管機構也正在以空前的速度跟上技術進步的腳步。白宮官員近日向美國科技公司發出邀請,計劃在5月4日與行業企業領導者共同探討針對人工智能的監管問題。
上海交通大學行業研究院“人工智能+”行業團隊負責人、上海交通大學安泰經濟與管理學院教授史佔中近日在一場媒體沙龍上談及ChatGPT時對第一財經記者表示:“ ChatGPT就如同阿拉丁神燈一樣打開了一個寶藏,不斷給我們驚喜,這些產品在文學創作、翻譯、文本分析、應用編程以及語言文字編輯溝通等方面已經形成了強大的原創力。同時,這也給很多行業的工作帶來挑戰。”
AI“讀心”準確率超80%
近日,美國得克薩斯州奧斯汀分校的團隊基於人工智能技術開發出一種解碼器,可將大腦活動轉化為連續的文本流,AI首次可以通過非侵入式的方法學會“讀心術”。
根據這項發表在《自然神經科學》(Nature Neuroscience)雜誌上的實驗結果,GPT人工智能大模型感知語音的準確率可高達82%,令人驚嘆。
不過研究人員強調,“AI讀心”也要尊重心理隱私,AI的訓練和應用解碼器都需要著手解決有關該技術可能被濫用的問題,以確保人們只在他們想要的時候使用這類技術,並對他們有所幫助,而不是起到反向作用。
隨著人工智能技術突飛猛進的發展,技術的風險以及如何對此加以監管,成為越來越受關注的話題。
就連一生從事神經網絡學術研究的圖靈獎得主、有“AI教父”之稱的計算機科學家杰弗裡•辛頓(Geoffrey Hinton)近日也對人工智能的發展產生了新的思考。為了警告AI技術潛在的風險而又免於利益衝突,辛頓本周公開宣布,他已離開工作了十餘年的Google,轉而成為AI技術的“吹哨人”。
辛頓表示:“我現在傾向於認為,我們正在創造的數字智能與生物智能非常不同。 ”
類似於ChatGPT這樣的聊天機器人正在對各行各業形成顛覆性的效應。這種聊天機器人基於AI大模型,能夠迅速地學習知識。事實上,在某些方面,它們的能力已經超越了人類。
“如果我有1000個這樣的數字代理(AI agent),那麼每當一個代理學習如何做一件事情的時候,其他所有的代理也都會立即知道,生物智能是不具備這樣的能力的。”辛頓解釋道,“因此,相同數字代理的集合可以獲得比任何單個生物智能都多得多的知識,這就是為什麼GPT-4比任何人都知道的多。”
教育、媒體行業已受到顯著衝擊
OpenAI公司3月曾發布一篇論文,預言美國80%的工作都會受到AI的影響。根據高盛的預測,生成式AI會導致勞動力市場受到重大衝擊,使全球3億個工作崗位實現自動化,並且美國7%的工作崗位將被AI取代。
AI大模型的能力已經開始改變一些行業,並對企業業務產生了實質性的影響,尤其是在教育行業,AI的影響體現在企業的財報中。
5月2日,總部位於美國加州的在線教育公司齊格(Chegg)股價暴跌50%。該公司CEO丹•羅森斯維格(Dan Rosensweig)在與分析師的財報電話會議上表示:“我們現在開始相信ChatGPT正在對我們的新客戶增長率產生影響。”
這一警告也令其他公司感到不安,英國教育上市公司培生當天股價下跌15%,語言學習平台多鄰國(Duolingo)股價下跌10%。
為了應對ChatGPT帶來的挑戰,上個月,Chegg基於AI大模型推出了一個叫做CheggMate的應用程序,學生能夠通過與AI交談來訪問量身定制的內容。
由於擔心“AI會讓學生作弊”,全球的一些高校已經禁止了ChatGPT在校園裡的使用。而一些企業出於對安全隱私的保護,也禁止員工使用ChatGPT等生成式AI工具。
最近幾個月,包括高盛在內的大公司都已禁止或限制使用生成人工智能AI平台。最新加入的是三星電子。三星電子週二表示,在一份內部文件中指出生成式AI技術的“濫用案例”後,它已禁止部分員工使用ChatGPT等AI工具。
三星稱正在努力尋求確保員工在安全環境中使用生成式人工智能服務的方法,但在這些措施準備就緒之前,暫時禁止在公司擁有的計算機上使用生成式人工智能服務。
生成式AI的出現已經讓網絡充斥著真假難辨的內容。辛頓日前也警告稱,虛假照片、視頻和文字已經讓普通人“無法再辨別真假”。對此,他提出了擔憂。
反虛假信息機構NewsGuard近日的一項調查,更是有了驚人的發現。統計顯示,該機構監測到的偽裝成“記者”的聊天機器人竟然運行著近50個人工智能生成的“內容農場”。
研究人員發現,這些網站大量生產與政治、健康、環境、金融和技術相關的內容,生成速度驚人,並充斥著商業廣告。
Newsguard的研究人員表示:“有些’記者’每天發表數百篇文章,一些內容充斥著虛假敘述,並且幾乎所有的內容都以乏味的語言和重複的短語為特徵,這是人工智能的標誌。”
監管機構試圖阻止“危險遊戲”
網絡空間的混亂引發了業內對人工智能風險的激辯,批評人士認為,大型科技公司爭相開展基於生成式人工智能(AIGC)的產品開發活動,“這是在與危險賽跑”。
特斯拉CEO馬斯克多次重申,應該對人工智能保持謹慎。他呼籲政府進行監管,因為人工智能可能對公眾構成威脅。
GoogleCEO皮查伊也表示,所有公司的產品都將受到人工智能快速發展的影響,社會需要為已經推出的技術做好準備。但他表示:“我們的適應速度與技術發展的速度相比,似乎還不太匹配。”
各國監管機構也早已坐不住了。白宮官員近日向美國科技公司發出邀請,希望與行業企業領導者共同探討針對人工智能的監管問題。參加的科技公司包括Google、微軟和OpenAI等公司高管。美國總統拜登稱,希望科技公司在向公眾提供產品之前必須確保其產品安全。
歐洲消費者組織(BEUC)也呼籲歐盟消費者保護機構關注人工智能對消費者的潛在危害。上個月,歐洲數據保護委員會已經成立了一個專門針對ChatGPT的工作組,並朝著制定人工智能隱私規則的共同政策邁出的重要一步。
歐盟立法者還在討論如何引入歐盟人工智能法案,並且生成式AI(AIGC)成為最受關注的內容之一。歐盟委員會將於5月11日對相關協議進行投票,如果通過,將進入下一階段的三方談判,屆時歐盟成員國將與歐盟委員會以及歐洲議會就談判內容進行辯論。
斯坦福大學網絡政策中心國際政策主任、歐盟委員會執行副主席維斯塔格的特別顧問瑪麗耶傑•沙克(Marietje Schaake)在5月2日公開發表的一篇專欄文章中指出:“突然間,每個人都想規範人工智能,包括撰寫公開信並討論立法提案。但不幸的是,AI的特性與所提供的解決方案之間的不匹配,暴露了AI產品的開發者與政策制定者及立法者之間的鴻溝。”
沙克寫道,一些人工智能行業領袖希望在大約6個月的時間內,建立對生成式AI的監管法規,但事實上,通過並實施人工智能法案的過程通常會長達數年時間。
她認為,成功的人工智能監管必須解決三個領域的問題。首先是人工智能開發者與社會其他個體之間的權力需要重新平衡。“這種不對稱性已經非常嚴重,只有最大的科技公司才能開發人工智能。” 沙克指出,“這意味著只有科技巨頭可以訪問數據集,並有能力訓練和處理它們。”
她補充道,即使是像斯坦福大學這樣培養頂級人工智能工程師的大學,也不具備矽谷公司的數據或計算能力。“因此人工智能內部運作的秘密仍然鎖在企業系統中。” 沙克表示,“這使得這些企業具有巨大的社會影響力。”
這就引申出第二個問題,也就是獲取信息必須有公共利益保障措施作為前提,讓立法者能夠看到企業內部人工智能是如何運作的。“由於公眾對影響社會的應用程序的管理和算法缺乏了解,這反過來又阻礙了有針對性的公共政策和必要的問責機制的建立。” 沙克寫道。
她指出的第三點是“不能忽視人工智能不斷變化的本質”,監管在嚴格執行的同時也要靈活變通。
“目前生成式AI表現了三個方面的特點,超強的學習能力、超廣的連接能力、超能的邏輯推演能力,尤其是邏輯推理能力令人震驚。”史佔中表示,“未來它還可能會突變出超凡的自我意識,這一點我們較為關注。”
史佔中認為,從國家的層面來講,要加快AI相關領域的立法,特別在金融、安全、健康等領域嚴格監管,釐清AI的設計者、使用者、內容生成者的權責關係,完善AI決策的問責機制,保護大眾合法權益;而從社會層面來講,應加強AI技術的監管,推進AI研發者遵守倫理準則與規範AI的發展。
“我們希望人工智能的能力成為改善人類生活、促進人類文明發展的’助推器’,以及人類走向星際文明的’擺渡人’。”史佔中表示。