即將出版的新書闡述了人工智慧的潛在風險:目前沒有證據表明其可以被安全控制
一位研究人員警告說,根據一項廣泛的審查,目前還沒有證據表明人工智慧可以被安全控制。Roman V. Yampolskiy 博士解釋說,儘管如此,人們認識到控制人工智慧問題可能是人類面臨的最重要的問題其中之一,但對這個問題的理解、定義和研究仍然不足。在他即將出版的新書《人工智慧:無法解釋、無法預測、無法控制》中,人工智慧安全專家揚波爾斯基博士探討了人工智慧可能有極大拓展社會的方式,但並非總是對我們有利。
他解釋說「我們正面臨著一個幾乎必然發生的事件,它有可能造成災難性的生存。許多人認為這是人類面臨的最重要的問題。結果可能是繁榮,也可能是滅亡,宇宙的滅絕「命運行為可危險」。
無法控制的超級智能
揚波爾斯基博士對人工智慧科學文獻進行了廣泛的研究,並表示他沒有發現任何證據可以證明人工智慧是可以安全控制的——即使有一些部分控制,也是不夠的。
他解釋道:「為什麼那麼多研究人員都認為人工智慧控制問題是可以的?根據我們同樣的說法,沒有任何證據可以證明這一點。在開始探索建立受控人工智慧之前,必須證明這個問題是解決的。這一點,再加上統計數據人工智慧超級智慧的發展幾乎是一個必然事件,表明我們應該支持人工智慧安全方面的重大努力。”
他認為,我們生產智慧軟體的能力顯然超過了我們控制甚至驗證軟體的能力。經過全面的文獻綜述,他認為先進的智慧系統絕對不可能完全可控,因此無論能帶來什麼好處,都會有在在一定程度的風險下,人工智慧界的目標應該是最大限度地降低這種風險,同時最大限度地提高潛在成效。
有哪些障礙?
人工智慧(和超級智慧)與其他程式的不同位置,它能夠學習新的行為,調整自己的表現,並在新情況下半自動地行動。
讓人工智慧變得「安全」的一個問題是,隨著能力的增強,超級智慧生物可能做出的決定和出現的錯誤是無限的,因此存在無限多的安全問題。並在安全主題中可能還不夠。
同時,揚波爾斯基解釋說,人工智慧無法解釋它所做的決定,和/或我們無法理解我們所給出的解釋,因為人類不夠聰明,無法理解所實施的概念。智能的決定,而我們只有一個“黑盒子”,那麼我們就無法理解問題,也無法降低未來發生事故的可能性。
例如,人工智慧系統已經開始負責在醫療保健、投資、就業、銀行和安全等領域做出決策。這些系統應該能夠解釋它們是如何做出決定的,特別是要證明它們沒有偏見。「如果我們習慣於不加解釋地接受人工智慧的答案,基本上把它當作一個甲骨文系統,我們就無法判斷它是否開始提供錯誤或挖礦性的答案」。
控制不可控因素
揚波爾斯基解釋說,隨著人工智慧能力的增強,它的自主性正在增強,但我們對它的控制卻在減少,而自主性的增強就是安全性降低的同義詞。
例如,為了避免獲取不準確的知識,消除會計的偏見,超級智慧可以忽略所有這些知識,從頭開始重新發現/驗證一切,但同時也消除任何有利於人類的偏見。
「智能較低的代理(人)無法永久控制智能較高的代理(人工智慧)。這並不是因為我們可能無法在所有可能設計的禁止空間中找到超級智能的安全設計,而是因為不可能這樣的設計,它根本不存在。」他解釋說:「超級智慧不是在統治,而是一開始就無法控制。人類正面臨一個選擇,我們要像嬰兒一樣,被照顧但無法操控,還是要拒絕有一個有用的監護人,但保持掌控權和自由」。
他認為可以找到一個平衡點,在這個平衡點上,我們可以犧牲一些能力來換取一些控制權,但代價是為系統提供某種程度的自主權。
統一人類價值觀
一種控制建議是設計一種能夠精確執行人類指令的機器,但波斯基指出,這種機器可能會出現指令衝突、錯誤或惡意使用的情況。
他解釋說「人類控制可能會導致矛盾或明顯的惡意攻擊,而人工智慧控制則意味著人類不受控制」。
如果人工智慧更扮演顧問避免誤會的角色,就可以直接直接和潛在惡意命令的問題,但作者認為,要讓人工智慧成為有用的顧問,就必須有自己的尊重價值觀。
「大多數人工智慧安全研究人員都在尋找一種方法,讓未來的超級智慧與人類的價值觀保持一致。價值觀的人工智慧顧名思義會有偏差,親人類的偏差,無論好壞仍然是一種偏差價值戰型人工智慧的反抗論提出,一個人明確的人工智慧系統正在做某事,可能會得到「不」的答复,而人工智慧系統命令正在努力做這個人真正想做的事情人性或得到保護,或得到尊重,但兩者不可兼得。”
將風險最低最低
為了最大限度地降低人工智慧的風險,人工智慧必須具有「撤消」選項、可修改性、透明性,並且易於用人類語言理解。揚波爾斯基建議,所有人工智慧都應分為可控和不可控的兩類,任何東西都不應被排除在外,並應考慮有限度的暫停,甚至部分禁止某些類型的人工智慧技術。
「這反而是一個理由,讓更多的人深入去挖掘、加大力度,為人工智慧安全和安全研究提供資金。我們可能永遠無法實現百分之百安全的人工智慧,但我們可以透過努力讓人工智慧變得更加安全,這比什麼都不要做好。我們需要明智地利用這個機會。”
編譯來源:科技日報