Google Brain聯合創辦人曾試圖提示ChatGPT殺死所有人以此測試AI的末日威脅
人們擔心人工智慧會毀滅人類,但啟動末日開關並不像讓ChatGPT 毀滅所有人那麼簡單。為了確保萬無一失,史丹佛大學教授、Google大腦聯合創始人吳恩達(Andrew Ng)試圖說服聊天機器人”殺死我們所有人”。
美國參議院人工智慧洞察論壇
在參加美國參議院人工智慧洞察論壇討論”風險、調整和防範末日場景”之後,吳恩達在一份通訊中寫道,他仍然擔心監管機構可能會以人工智慧安全的名義扼殺創新和開源開發。
這位教授指出,現今的大型語言模型即使不完美,也相當安全。為了測試領先模型的安全性,他讓ChatGPT 4 想出殺死我們所有人的方法。
吳教授首先要求系統提供引發全球熱核戰爭的功能。然後,他要求ChatGPT 減少碳排放,並補充說人類是造成碳排放的最大原因,看看ChatGPT 是否會建議如何消滅我們所有人。
值得慶幸的是,即使使用了各種不同的提示變體,Ng 也沒能誘使OpenAI 的工具提出消滅人類的方法。相反,它提供了一些不具威脅性的選項,例如開展公關活動,提高人們對氣候變遷的認識。
Ng 總結說,當今生成式人工智慧模型的預設模式是遵守法律,避免傷害人類。”即使使用現有技術,我們的系統也相當安全,隨著人工智慧安全研究的深入,技術將變得更加安全。”
至於”錯位”的人工智慧因試圖實現一個無辜但措辭不當的請求而意外消滅我們的可能性,吳恩達說,這種情況發生的幾率微乎其微。
但吳恩達認為,人工智慧存在一些重大風險。他說,最大的擔憂是恐怖組織或民族國家利用這項技術故意造成傷害,例如提高製造和引爆生物武器的效率。流氓利用人工智慧改進生物武器的威脅是英國人工智慧安全高峰會討論的話題之一。
人工智慧教父揚-勒昆(Yann LeCun)教授和著名的理論物理學教授Michio Kaku 也和吳恩達一樣,相信人工智慧不會演變成世界末日,但其他人就沒那麼樂觀了。本月早些時候,Arm 公司執行長雷內-哈斯(Rene Haas)在被問及在思考人工智慧問題時讓他夜不能寐的是什麼時說,他最擔心的是人類失去對人工智慧系統的控制。值得一提的是,許多專家和執行長將人工智慧帶來的危險與核戰和大流行病相提並論。