最新研究指出人工智慧的根本性弱點:不可能開發出始終穩定的演算法
哥本哈根大學的研究人員在世界上首次用數學方法證明,除了簡單的問題之外,不可能開發出始終穩定的人工智慧演算法。ChatGPT 和類似的基於機器學習的技術正在興起。然而,即使是最先進的演算法也面臨著限制。
哥本哈根大學的研究人員有了一個突破性的發現,他們用數學方法證明,除了基本問題之外,不可能開發出始終穩定的人工智慧演算法。這項研究可以為改進演算法測試協議鋪平道路,凸顯機器處理與人類智慧之間的內在差異。
描述該成果的科學文章已獲准在國際領先的理論計算機科學會議上發表。
機器能比醫生更準確地解讀醫學掃描影像,翻譯外語,不久還能比人類更安全地駕駛汽車。然而,再好的演算法也有弱點。哥本哈根大學計算機科學系的研究小組試圖揭示這些弱點。
以自動駕駛汽車讀取路標為例。如果有人在路標上貼了標籤,這不會分散人類駕駛的注意力。但機器可能會很容易分心,因為現在的路標與它接受過訓練的路標不同。
“我們希望演算法是穩定的,即輸入稍有變化,輸出幾乎保持不變。”該小組負責人阿米爾-耶胡達約夫(Amir Yehudayoff)教授說:”現實生活中存在著各種各樣的噪音,人類習慣於忽略這些噪音,而機器卻會感到困惑。”
討論弱點的語言
作為世界首例,研究小組與其他國家的研究人員一起用數學方法證明,除了簡單的問題外,不可能創建始終穩定的機器學習演算法。描述此成果的科學文章已被批准在電腦科學理論的主要國際會議之一《電腦科學基礎》(FOCS)上發表。
“我想指出的是,我們並沒有直接研究過自動駕駛汽車的應用。不過,這似乎是一個過於複雜的問題,算法不可能始終保持穩定性。”阿米爾-耶胡達約夫說,並補充說,這並不一定意味著會對自動駕駛汽車的發展造成重大影響:如果演算法只在極少數情況下出錯,這很可能是可以接受的。但如果它在大量情況下都出錯,那就是壞消息了”。
業界無法利用這篇科學文章來辨識其演算法中的漏洞。教授解釋說,這不是他的本意:
“我們正在開發一種討論機器學習演算法弱點的語言。這可能會導致制定描述如何測試演算法的指南。從長遠來看,這可能會再次促進更好、更穩定演算法的開發。”
從直覺到數學
一個可能的應用是測試保護數位隱私的演算法。
“有些公司可能聲稱已經開發出絕對安全的隱私保護解決方案。首先,我們的方法可能有助於確定解決方案不可能絕對安全。其次,它還能找出弱點,”Amir Yehudayoff 說。
不過,科學文章首先要對理論有所貢獻。他補充說,尤其是數學內容具有開創性:”我們憑直覺就能理解,一個穩定的演算法在受到少量輸入噪音影響時,應該能像以前一樣正常工作。就像貼了貼紙的路標一樣。但身為理論計算機科學家,我們需要一個確定的定義。我們必須能夠用數學語言來描述這個問題。如果我們要承認演算法是穩定的,那麼演算法究竟必須能夠承受多少噪音,輸出又該有多接近原始輸出?這就是我們提出的答案”。
牢記局限性很重要
這篇科學文章引起了理論計算機科學領域同行的極大興趣,但科技業卻沒有。至少目前還沒有。
阿米爾-耶胡達約夫笑著補充說:”你總是應該預料到,在新的理論發展和應用人員的興趣之間會有一些延遲:而有些理論發展將永遠不被關注”。
不過,他認為這種情況不會發生:「機器學習的發展日新月異,但重要的是要記住,即使在現實世界中非常成功的解決方案也有其局限性。機器有時看似能夠思考,但畢竟不具備人類的智慧。這一點必須牢記。”
編譯自/ scitechdaily