科學家正開發像人類一樣會「思考」的人工智慧
創造類似人類的人工智慧不僅僅是模仿人類的行為–技術也必須能夠像人類一樣處理資訊,或”思考”,如果它要被完全依賴的話。 由格拉斯哥大學心理學和神經科學學院領導的發表在《模式》雜誌上的新研究,使用3D建模來分析深度神經網路處理資訊的方式,也就是更廣泛的機器學習家族的一部分,以可視化它們的信息處理如何與人類相匹配。
人們希望這項新工作將為創造更可靠的人工智慧技術鋪平道路,這種技術將像人類一樣處理資訊,並出現我們可以理解和預測的錯誤。 人工智慧發展仍然面臨的挑戰之一是如何更好地理解機器的思維過程,以及它是否與人類處理資訊的方式相匹配,以確保準確性。 深度神經網路經常被認為是目前人類決策行為的最佳模型,在一些任務中達到甚至超過人類的表現。 然而,即使是欺騙性的簡單視覺辨別任務,與人類相比,人工智慧模型也會顯示出明顯的不一致和錯誤。
目前,深度神經網路技術被用於人臉識別等應用,雖然它在這些領域非常成功,但科學家們仍然沒有完全理解這些網路是如何處理資訊的,因此何時可能出現錯誤。
在這項新的研究中,研究小組通過對深度神經網路得到的視覺刺激進行建模,以多種方式進行轉換,從而解決了這一問題,他們可以通過處理人類和人工智慧模型之間類似的資訊來證明識別的相似性。
該研究的資深作者、格拉斯哥大學神經科學與技術研究所所長Philippe Schyns教授說。 “在建立行為”像”人類的人工智慧模型時,例如,只要看到一個人的臉,就能像人類一樣識別出來,我們必須確保人工智慧模型使用與另一個人相同的資訊來識別它。 如果人工智慧不這樣做,我們可能會有這樣的錯覺,即該系統的工作方式與人類一樣,但隨後發現它在一些新的或未經測試的情況下會出錯。 “
研究人員使用了一系列可修改的3D面孔,並要求人類對這些隨機生成的面孔與四個熟悉身份的相似性進行評分。 然後他們用這些資訊來測試深度神經網路是否出於同樣的原因做出了同樣的評價–不僅測試人類和人工智慧是否做出了同樣的決定,而且還測試它是否基於同樣的資訊。 研究人員希望這項工作將為更可靠的人工智慧技術鋪平道路,使其行為更像人類,並減少不可預知的錯誤。