人工智能被發現會使用潛在的危險”捷徑”來解決複雜的識別任務
來自約克大學的研究發現,即使是最聰明的人工智能也無法與人類的視覺處理相媲美。約克大學研究報告的共同作者詹姆斯-埃爾德(James Elder)教授表示,深度卷積神經網絡(DCNN)看待事物的方式與人類不同(通過配置形狀感知),這在現實世界的AI應用中可能是有害的。
這項研究由約克大學人類和計算機視覺研究主席、約克大學人工智能與社會中心聯合主任Elder和芝加哥洛約拉學院助理心理學教授、約克大學前VISTA博士後Nicholas Baker進行,發現深度學習模型無法捕捉人類形狀感知的配置性質。
為了研究人腦和DCNN如何感知整體的、配置性的物體屬性,該研究使用了被稱為”Frankensteins”的視覺刺激方法。
“Frankensteins可以被理解為被拆開並以錯誤的方式裝回去的物體,”埃爾德說。”因此,它們具有所有正確的局部特徵,但組件會出現在錯誤的地方。”
研究人員發現,雖然Frankensteins會被人類的視覺系統判斷出異樣,但DCNN卻不會,這顯示了人工智能對配置物體屬性的不敏感。
“我們的結果解釋了為什麼深度人工智能模型在某些條件下會失敗,並指出需要考慮物體識別以外的任務,以了解大腦的視覺處理,”Elder說。”這些深度模型在解決複雜的識別任務時傾向於走’捷徑’。雖然這些捷徑在許多情況下可能有效,但在我們目前與行業和政府夥伴合作的一些現實世界的人工智能應用中,它們可能是危險的,”埃爾德指出。
其中一個應用是交通視頻安全系統。”繁忙的交通場景中的物體–車輛、自行車和行人–相互阻擋,以雜亂無章的碎片形式出現在司機的眼中,”埃爾德解釋說。”大腦需要對這些碎片進行正確分組,以識別物體的正確類別和位置。用於交通安全監測的人工智能係統如果只能單獨感知這些碎片,將無法完成這一任務,可能會誤解脆弱的道路使用者的風險。”
根據研究人員的說法,旨在使網絡更像大腦的訓練和架構的修改並沒有考慮配置處理,而且沒有一個網絡能夠準確地預測逐個試驗的人類物體判斷。我們推測,為了與人類的可配置敏感性相匹配,必須對網絡進行訓練,以解決類別識別以外的更廣泛的物體任務,”埃爾德指出。
了解更多:
https://linkinghub.elsevier.com/retrieve/pii/S2589004222011853