幾百名大佬聯名給ChatGPT們踩剎車:AI到了失控邊緣?
眼看AI 起高樓、眼看它樓塌了?就在昨天早上,一封公開信刷屏了朋友圈,著名安全機構生命未來研究所( Future of Life Institute , FLI )呼籲全球所有研究機構暫停訓練比GPT-4 更強的AI。至少六個月。並且要在這六個月中來製訂和AI 相關的安全協議,其中就包括如何監管AI 輸出的內容,還有如何把AI 創造出的內容和真實的內容區分開來。
咱別看這個研究所名字中二感滿滿,但在上面留下名字的,個個都是行業裡的頂尖大牛。
圖靈獎得主約書亞 · 本吉奧、蘋果聯合創始人史蒂夫 · 沃茲尼亞克、《 人類簡史 》的作者尤瓦爾 · 赫拉利、以及什麼地方都會刷一腳存在感的埃隆馬斯克。
可以說是 “ 滿級人類閃耀時 ” 了。
雖然,關於這次簽名事件的準確性沒有那麼高,也有些人在自己不之情的情況下 ”被簽名“ 了,比如一開始OpenAI CEO 奧特曼的簽名也在上面( 我殺我自己? )
再比上面還有急速追殺的主角 John Wick
但不管怎麼說,可以感到大家都緊張起來了。
在信中,生命未來研究所提了四個問題:
我們一定要讓機器用宣傳和謊言充斥我們的信息渠道嗎?
我們一定要把所有工作都自動化嗎?包括哪些人工完全可以做得令人滿意的工作嗎?
我們一定要發展最終可能超過我們、超越我們、並取代我們的非人類思維嗎?
我們一定要冒險失去對我們文明的控制嗎?
講道理,這些問題在過去幾十年裡一直是科幻小說中流行的題材。
但是可能誰也想不到,隨著去年年底OpenAI 一聲槍響。這些難題真真切切的被搬到了我們面前,變成了我們可能需要立刻面對的元素。
>/ 眼見為真?耳聽為實?
前幾天,有人在網上發布了一組圖片,記錄了2001 年發生在美國西部小鎮卡斯卡迪亞上的了一場9.1 級的地震之後的景象。
略帶模糊的鏡頭記錄下了當時哭喊的民眾
被摧毀的建築和房屋
甚至還有當時的美國總統小布什訪問災區的合影
無論是破損的城市,街道上大家的穿著,都在告訴觀眾這是一組來自2001 年的照片。
不那麼清晰的畫質反而給大家一種 “ 路人隨手拍 ” 的感覺,讓照片的真實性再上了一個台階。
但唯一的問題是,根本沒有這場大地震,卡斯卡迪亞上一次有記錄的災難,是在1700 年。
沒錯,這組照片就是用Midjounrney 來生成的。
比起前段時間流行的 “ 賽博COS” ,明暗對比更強烈,更擅長描述場景關係的Midjourney 用來製作 “ 虛假歷史 ” 明顯更加得心應手了。
也更容易騙到大家的眼睛。前幾天流行的 “ 川普被捕 ” 或者是 “ 教皇穿羽絨服 ” ,都是出於Midjourney 的手筆。
圖片來源 @ 谷大白話
說實話,看到這個照片的第一瞬間,還真覺得有點懵,畢竟做為解放神學出身的教皇,方濟各穿個羽絨服也很正常對吧。
但是,這些圖片用來圖一樂倒是還好,一旦用來深究,那事情可能就大條了。
萬一下回,這項技術被用來詐騙呢?
和前些年流行過的DeepFake 換臉不同,如今的AI 作圖不需要特別好的顯卡,更不需要很長的時間去調試,對Midjourney 來說,只要坐在瀏覽器前敲敲鍵盤就行。
當AI 讓圖像造假的成本足夠低廉之後,咱又要花多少時間去分辨一張圖是不是AI 畫的?
比如川普返鄉:
可能生成一張假的圖片需要10 秒,但咱們想要看出來是這張圖是不是AI 畫的,可能少說得要花個半分鐘。
不是每個人都有那麼多精力能分辨AI 的,只要有1% 的人認不出來上當受騙,就可以說是一本萬利的生意了好吧。
以往我們說耳聽為虛,眼見為實,然而現在,眼見也不再為真。
過去幾十年來人類習以為常的秘密,已經悄悄被AI 解構成了一堆的線性矩陣,在排列組合中,對人類瞞天過海。
而圖片生成還只是AIGC ( 人工智能技術來生成內容 )中的一部分。
這次被大佬們試圖聯名叫停的 “ 巨型AI” 更是重量級,對標的產品自然是出盡風頭的ChatGPT 。
這玩意有多離譜,咱們也寫文章聊過很多,今天就不再做贅述。
前段時間還生成了一段杭州取消限行的文案,騙過了不少人。
實際上,這類大語言模型並不是沒有監管,從它們出生的那刻開始,監管就如影隨形了。
上個月OpenAI 在發布GPT-4 的時候就提到,他們早在22 年8 月就完成了GPT-4 的開發,但是之後花了六個月來搞安全問題,為的就是不讓AI “ 亂說話 ” 。
GPT-4 經過拷打之後胡言亂語的水平大幅度下降:
但問題是,現在的AI 和過去那些一步步執行編譯的程序不一樣,這AI 有一個算一個,全是黑箱。
不像過去那些程序,要是出了問題,程序員還可以進去打斷點,一個環節一個環節的調試Bug 來把問題給搞清楚,哪一個環節有問題,針對性的改一下就好了。
但現在以Chatgpt 為首的大模型AI 就好像一個黑色的紙箱子,你只知道給它餵蘋果,它能還你一個橘子,而中間發生了什麼事情一概不知。
那萬一這箱子要是出了問題,那咋辦嘛?只能重新買一個黑箱子了。
ChatGPT 就像一盒巧克力,在它輸出完成之前,沒有人知道它嘴巴里會蹦出什麼字來。
李彥宏也提到: “ 生成式AI 每次給出的答案不一定一樣,會帶來不確定性。 ”
這個生成到底有多不靠譜呢?
講個剛剛遇到的事兒:前幾天不是索尼微軟任天堂、育碧和D 社都說要退出E3 展會麼,我就有點好奇E3 展會租金到底要多少錢?
先是在知乎上找到了一個回答,答主表示自己查到在06 年時E3 的租金就要500萬美元以上。
額……06 年,500萬?這個數據好像有一些不靠譜,於是我又去用NewBing 問了一下:也給出了類似的回答。
有數據有鏈接,看起來是有理有據。
但問題是當我點開這個鏈接的時候發現……IGN 的文章裡面根本沒有提到租金500 萬這個數字。
合著你是直接把之前的知乎文章翻譯了一遍,然後又給我編了一篇英文文章來訛我啊。
它順應了我們的猜測給了一個謠言,要不是我多心看了一眼,可能真的給他糊弄過去了。
真就是睜眼說瞎話大師。
除了這個title 以外, AI 還是桀驁不羈的漏洞尋找大師,往往能在我們訓練它的過程中表演一手出乎意料。
在人工智能領域,有個非常經典的理論叫做 “ 對齊問題 ” ,意思是 AI 在做的事情和我們想要的結果之間沒有對齊,命令的傳遞出現了偏差。
就比如前兩年那隻寧願一頭撞死的賽博狼,發現抓半天羊還會不斷扣分,那還不如一頭撞死自己分還比較高。
狼抓羊這麼簡單的程序都會出現沒法對齊的問題,那更大模型的人工智能就更難說了。
實際上,缺乏 “ 對齊 ” 的AI,還可能會形成社會中一些錯誤印象的 “ 放大器 ” 。
就拿性別歧視舉個例子,早些年亞馬遜引入了一個人工智能,來給求職者的簡歷打分。
結果過了幾年回頭一看,在程序制定者啥也沒做的情況下,性別歧視就很順滑的出現了,男性簡歷的通過率比女性高了不少。
甚至就算簡歷上面沒有明確寫出性別,程序還會通過一些細枝末節的地方來確定:比如是否畢業於女子大學,是否是 “ 女子XX 社 ” 社團社長。
這自然不是亞馬遜在招聘時希望看到的,也絕對不是它們在設計AI 時給它下的命令。
但是AI 在訓練的結果中很自然的 “ 沒有對齊 ” 。
不光早些年的人工智能,最新的ChatGPT 也依舊會有這些問題,比如寧可讓百萬人失去生命也不願意說一句種族歧視的話語。
再比如不願意寫一首詩歌歌頌川普,但是可以讚揚拜登。
這些都是很明顯的政治傾向,我願意相信OpenAI 在研發ChatGPT 的時候並不希望它學會這些,不然他們也沒有必要在GPT-4 上花那麼多時間用於自我審查。
但我們一不留神, AI 可能就偷偷的跑偏。
去學習偏見、歧視這些我們不希望存在,但是又客觀隱藏在社會關係裡的性別歧視和政治傾向。
我也和清華大學交叉信息研究院的於洋教授聊過這個問題,探究到底是AI 的哪裡出了問題。
於教授的回答是: “ 這既是訓練數據集的問題,也是模型架構的問題,也是訓練方式的問題,還涉及到使用的問題——比如誘導AI 犯錯的攻擊式使用。 ”
——對,就是全有問題。
現在的AI 能做的還有限,就算沒對齊,捅出了簍子,可能還在我們能控制的範圍裡。
但如果在這樣狂飆下去,那可就說不定了,就像那個知名的 “ 曲別針假說 ” 。
說不定未來哪一天, AI 會認為人類都是阻撓它生產曲別針的阻礙,把大家都給噶了?
人類有和自然相處成百上千年下來的道德約束,我們知道什麼能做,什麼不能做。而目前,人工智能學不會這些。
或許,這才是這次數千AI 大佬發出聯名信的原因。
監管必須要有,但是監管、法規不是一日而成。
AI算法突破起來毫無阻礙,連我們這種外行人都知道,AI帶來的技術爆發已經箭在弦上。
去年啥情況,今年啥情況,稱之為突飛猛進不為過。
隨著AI算法的日益完善,下一步沒準就要自我進化了,它能成長到什麼地步我們很難說。
我們有可能只能跟著AI 在屁股後面追,但是現在不知道還有沒有我們一直在後面追的空間。
也許下一步只能用AI 來監管AI。
今天的聯名信或許是給人類敲響了一記警鐘。
但可惜的是,這樣一紙的“ 聯名信” 絕對停不下AI 領域研發的腳步。