關於AI的四個最常見的謬論
當今的AI系統可以在廣泛的領域中執行複雜的任務,例如數學,遊戲和逼真的圖像生成。但是當我們接近AI的一些早期目標時,如管家機器人和自動駕駛汽車,這些目標仍將逐漸消失。聖達菲研究所戴維斯複雜性教授、《人工智能:人類思維指南》的作者梅拉妮·米切爾(Melanie Mitchell)說,錯過這些目標的持續循環的一部分是由於對AI和自然智能的錯誤假設。
米切爾(Mitchell)在題為“為什麼AI比我們想像的更難的原因”的新論文中提出了關於AI的四個常見謬論,這些謬論不僅在公眾和媒體之間,而且在專家之間引起誤解。這些謬論給人一種錯誤的信心,使我們對實現人工智能,可以與人類的認知能力和一般問題解決能力相匹配的人工智能係統有多大的信心 。
狹窄的AI和一般的AI規模不一樣
現有的AI可以很好地解決狹窄的問題。比如在圍棋和國際象棋上超越人類,以超乎尋常的準確性在X射線圖像中發現癌變模式,並將音頻數據轉換為文本。
但是,設計可以解決單個問題的系統並不一定會使我們更接近解決更複雜的問題。米切爾(Mitchell)將第一個謬論描述為“狹義情報與普通情報是連續的”。
米切爾在論文中寫道:“即使人們在狹窄的區域內看到一台機器在做奇妙的事情,他們通常會認為該領域對通用AI的發展要遠得多。”
例如,當今的 自然語言處理系統在解決許多不同問題(例如翻譯,文本生成以及對特定問題的問答)方面已經走了很長一段路。
同時,我們擁有可以將語音數據實時轉換為文本的深度學習系統。每一項成就的背後都是數千小時的研發(以及在計算和數據上花費的數百萬美元)。但是AI社區仍然沒有解決創建能夠參與開放式對話而又不會長時間失去連貫性的座席的問題。這樣的系統不僅需要解決較小的問題,還需要解決更多的問題。
它需要常識,這是AI尚未解決的關鍵挑戰之一。
簡單的事情很難自動化
當涉及到人類時,我們希望一個聰明的人去做艱苦的事情,這需要多年的學習和實踐。例子可能包括諸如解決微積分和物理問題,在大師級別下棋,或背誦很多詩之類的任務。
但是數十年來的AI研究證明,那些需要自動關注的艱鉅任務更容易實現自動化。簡單的任務,我們認為理所當然的事情,卻很難自動化。米切爾(Mitchell)將第二個謬誤描述為“容易的事情很容易,而艱難的事情很難。”
“我們人類不加思索地做的事情-放眼世界,了解我們所看到的東西,進行對話,走在擁擠的人行道上而不會撞到任何人,這對機器來說是最艱鉅的挑戰, ”米切爾寫道。
相反,讓機器去做對人類來說非常困難的事情通常會更容易;例如,解決複雜的數學問題,精通國際象棋和圍棋之類的遊戲以及在數百種語言之間翻譯句子對於機器來說都變得相對容易了。
例如,考慮視覺。數十億年來,生物體已經開發出用於處理光信號的複雜設備。動物會用眼睛盤點周圍的物體,導航周圍的環境,尋找食物,檢測威脅並完成許多其他對生存至關重要的任務。我們人類從祖先那裡繼承了所有這些能力,並且在沒有意識的情況下使用它們。但是,其基本機制確實比使高中和大學感到沮喪的大型數學公式更為複雜。
恰當的例子:我們仍然沒有 像人類視覺一樣通用的計算機視覺系統。我們設法創建了 人工神經網絡 ,可以大致模擬動物和人類視覺系統的各個部分,例如檢測物體和分割圖像。但是它們很脆弱,對許多不同種類的干擾都很敏感,並且它們無法模仿生物視覺可以完成的全部任務。例如,這就是為什麼無人駕駛汽車中使用的計算機視覺系統需要使用激光雷達和地圖數據等先進技術進行補充的原因。
另一個被證明是非常困難的領域是感覺運動技能,人類無需經過明確的培訓即可掌握這些技能。想想如何處理物體,行走,奔跑和跳躍。這些是您可以在沒有意識的情況下完成的任務。實際上,在走路時,您可以做其他事情,例如聽播客或打電話。但是,對於當前的AI系統而言,這些技能仍然是一項巨大而昂貴的挑戰。
米切爾寫道:“人工智能比我們想像的要難,因為我們在很大程度上意識不到自己思考過程的複雜性。”
擬人化AI沒有幫助
人工智能領域充滿了詞彙量,使軟件與人類智能處於同一水平。我們使用諸如“學習”,“理解”,“閱讀”和“思考”之類的術語來描述AI算法的工作方式。儘管此類擬人化術語通常用作簡化複雜軟件機制的簡寫,但它們可能誤導我們認為當前的AI系統就像人類的大腦一樣運作。
Mitchell將此謬誤稱為“一廂情願的助記符的誘惑”,並寫道:“這種簡寫可能會誤導試圖理解這些結果的公眾(以及報導這些結果的媒體),並且還會無意識地影響甚至AI專家的思考方式。他們的系統以及這些系統與人類智能的相似程度。”
一廂情願的謬論也導致AI社區以令人誤解的方式命名算法評估基準。例如,考慮由AI中一些最受尊敬的組織和學術機構開發的 通用語言理解評估(GLUE)基準。GLUE提供了一組任務,這些任務可以幫助評估語言模型如何將其功能推廣到其已受訓的任務之外。但是,與媒體所描述的相反,如果AI代理獲得的GLUE得分高於人類,則並不意味著它的語言理解能力要高於人類。
Mitchell寫道:“雖然在這些特定基准上機器的性能優於人類,但AI系統仍遠不能與我們與基準名稱相關聯的更一般的人類能力相匹配。”
如意算術的一個明顯例子是Facebook人工智能研究公司2017年的一個項目,科學家在該項目中訓練了兩個AI代理以基於人類對話的任務進行談判。在他們的 博客文章中,研究人員指出“更新兩個代理的參數會導致與人類語言的差異,因為 代理開發了自己的語言 進行談判(強調我的意思)。”
這導致了一系列的點擊誘餌文章,它們警告了AI系統變得比人類更智能,並且正在以秘密方言進行交流。四年後,最先進的語言模型仍然 難以理解 大多數人在很小的年齡就沒有受到指導的情況下所學的基本概念。
沒有身體的AI
智慧能否與世界豐富的物理經驗孤立地存在?這是科學家和哲學家幾個世紀以來一直困惑的問題。
一種思想流派認為,智力全在大腦中,並且可以與身體分離,這也被稱為“桶中的大腦”理論。米切爾(Mitchell)稱其為“智力全在腦中”的謬論。有了正確的算法和數據,我們就可以創建可以生活在服務器中並與人類智能相匹配的AI。對於這種思維方式的擁護者,尤其是那些支持純粹的基於深度學習的方法的人,達到通用AI取決於收集適量的數據並創建越來越大的神經網絡。
同時,越來越多的證據表明這種方法注定會失敗。她寫道:“越來越多的研究人員正在質疑“全腦”信息處理模型的基礎,以理解智能並創建人工智能。”
人和動物的大腦已經與所有其他人體器官一起進化,其最終目標是提高生存機會。我們的智力與身體的極限和能力緊密相關。嵌入式AI的領域不斷擴大,其目的是通過通過不同的感官刺激與環境互動來創建能夠發展智能技能的主體。
米切爾(Mitchell)指出,神經科學研究表明“控制認知的神經結構與控制感覺和運動系統的神經結構緊密相連,抽象思維利用了基於人體的神經“圖”。”事實上,越來越多的證據和研究證明了來自反饋的反饋。大腦的不同感覺區域會影響我們的有意識和無意識思想。
米切爾(Mitchell)支持這樣的觀念,即情感,感覺,潛意識偏見和身體經驗與智力密不可分。她寫道:“在我們的心理學或神經科學知識上,沒有任何東西可以支持’純粹的理性’與可以影響我們的認知和目標的情感和文化偏見分開的可能性。”
“相反,我們從體現認知的研究中學到的是,人類智力似乎是一個高度集成的系統,具有緊密相關的屬性,包括情感,慾望,強烈的自我意識和自主性以及對世界的常識。尚不清楚這些屬性是否可以分開。”
人工智能常識
發展通用人工智能需要對我們對智能本身的理解進行調整。我們仍在努力定義什麼是智能以及如何在人工和自然界中對其進行測量。
“很明顯,為了更有效地實現和評估AI的進步,我們將需要開發出更好的詞彙來談論機器可以做什麼,” Mitchell寫道。
“從更廣泛的意義上講,我們將需要對智能進行更好的科學理解,因為它體現在自然界的不同系統中。”
米切爾(Mitchell)在論文中討論的另一個挑戰是常識性挑戰,她將其描述為“一種當今最先進的AI系統所缺少的保護傘”。
常識包括我們獲得的有關世界的知識,並且每天無需付出太多努力就可以應用它。當我們還是孩子的時候,通過探索世界,我們可以學到很多東西,而無需明確指示。其中包括諸如空間,時間,重力和物體的物理屬性之類的概念。
例如,一個孩子很小的時候就知道,當一個物體被另一個物體擋住時,它並沒有消失並繼續存在,或者當一個球在桌子上滾動並到達壁架時,它應該掉下來。我們使用這些知識來構建世界的心理模型,進行因果推斷,並以相當高的準確性預測未來狀態。
當今的AI系統缺少這種知識,這使它們變得不可預測且需要大量數據。實際上,本文開頭提到的兩個AI應用程序-客房清潔和駕駛是大多數人通過常識和一點點實踐學習的東西。
常識還包括有關人類本性和生活的基本事實,我們在對話和寫作中忽略的事物,因為我們知道我們的讀者和聽眾都知道它們。例如,我們知道如果兩個人在“打電話”,則意味著他們不在同一個房間。我們還知道,如果“約翰伸手去拿糖”,則意味著在約翰附近某處有一個裝有糖的容器。這種知識對於自然語言處理等領域至關重要。
“還沒有人知道如何在機器中捕獲這樣的知識或能力。這是人工智能研究的當前前沿,一種令人鼓舞的前進方式是利用有關幼兒中這些能力發展的已知知識。”米切爾寫道。
儘管我們仍然不知道許多問題的答案,但尋找解決方案的第一步是要意識到我們自己的錯誤思想。Mitchell寫道:“了解這些謬論及其微妙的影響可以為創建更健壯,值得信賴甚至可能真正智能的AI系統指明方向 。”