Meta開啟長期AI研究項目欲讓人工智能像大腦一樣處理語音和文本
週四,Meta 宣布了一項長期的人工智能研究計劃。為了解更多關於“人腦是如何處理語音和文本信息”的過程,以改進人工智能語言模型處理相同輸入的方式,該公司還與NeuroSpin 和Inria 達成了合作。Meta 表示,儘管AI 模擬軟件研究已經走過了很長一段路,但其在語言學習方面仍遠不及生物大腦。
AI 語言模型vs 人腦活動的差異
據悉,孩子們可以在看過幾個例子後就知曉“Orange”可表示顏色(橙色)和水果(橙子),而AI 卻需要更長的時間來習得這項知識。
若Meta 能夠搞清楚大腦是如何更高效地運作的,就可對AI 模型展開有針對性的調整。
Building AI That Processes Language as People Do(via)
過去很長一段時間,Meta 及其合作夥伴一直在努力了解“為何大腦在語言學習和理解上遠勝於人工智能”,並且已經在兩篇科學論文中概述過他們的發現。
其中一項研究涉及讓AI 語言模型像大腦一樣活動以理解下一個單詞,另一項則涉及讓大腦可提前預測單詞或想法。
Meta 視覺/ 單詞/ 語言算法
通過特定的編程設計,研究人員可讓AI 語言模型嘗試通過類似人腦的活動來推測下一個單詞,從而顯著改進此類工作的效率。
比如AI 可在接收到初始的“從前”(Once upon a…)輸入時,試圖從諸多候選項中推測下一個單詞。
而人腦會本能地回顧答案的形成、以及與之相關的更多維度的信息(比如圖像)—— 單從這一點來看,人腦就已經遙遙領先於普通的AI 模型。
最後,但願Meta 可將其在AI / ML 方面的各項技術進步,用於更廣泛的AI 研究和社區共享,從而趕緊推動其它AI 項目、而不是將之用於狹隘的廣告盈利等目的。