谷歌稱其新的人工智慧模型可以辨識情緒
Google表示,其新的人工智慧模型系列有一個奇特的功能:能夠”識別”情緒。 PaliGemma 2 系列模型於本週四發布,它可以分析圖像,使人工智慧能夠產生標題,並回答它在照片中”看到”的人的相關問題。
Google在與TechCrunch 分享的一篇部落格文章中寫道:「PaliGemma 2 可以為圖片產生詳細的、與上下文相關的標題,不僅僅是簡單的物體識別,還可以描述動作、情緒和場景的整體敘事」。
Google表示,PaliGemma 2 是基於其Gemma 開放模型集,特別是Gemma 2 系列
情緒辨識並不是隨到隨用的,PaliGemma 2 還需要為此微調。 儘管如此,一些專家們還是對公開情緒檢測器的前景感到震驚。
牛津網路研究所資料倫理與人工智慧教授桑德拉-瓦赫特(Sandra Wachter)表示:「這讓我感到非常不安。我覺得假設我們可以『讀懂』人們的情緒是有問題的。這就像向黑8球尋求建議一樣。
多年來,新創公司和科技巨頭們都在努力打造能夠偵測情緒的人工智慧,從銷售培訓到預防事故無所不包。一些公司聲稱已經實現了這一目標,但科學的經驗基礎並不牢固。
保羅艾克曼(Paul Ekman)是一位心理學家,他認為人類有六種共同的基本情緒:憤怒、驚訝、厭惡、享受、恐懼和悲傷。 然而,後來的研究對艾克曼的假設產生了懷疑,研究顯示不同背景的人在表達自己的感受時有很大差異。
“瑪麗皇后大學專門從事人工智慧研究的研究員邁克庫克(Mike Cook)認為:”在一般情況下,情緒檢測是不可能實現的,因為人們體驗情緒的方式很複雜。當然,我們確實認為我們可以透過觀察他人來了解他們的感受,多年來也有很多人嘗試過,例如間諜機構或行銷公司。 我相信,在某些情況下,我們絕對有可能檢測出一些通用符號,但這並不是我們能夠完全’解決’的問題。 “
不足為奇的是,情緒偵測系統往往並不可靠,而且會受到設計者假設的影響。 在麻省理工學院2020 年的一項研究中,研究人員發現,臉部分析模型可能會對某些表情(如微笑)產生非預期的偏好。 最近的研究表明,與白人相比,情緒分析模型賦予黑人臉部更多的負面情緒。
Google表示,它進行了”廣泛的測試”,以評估PaliGemma 2 中的人口統計偏差,並發現與行業基準相比,”毒性和褻瀆程度較低”。 但該公司沒有提供所使用基準的完整列表,也沒有說明進行了哪些類型的測試。
Google揭露的唯一基準是FairFace,這是一組數萬人的大頭照。 該公司聲稱,PaliGemma 2 在FairFace 中得分很高。 但一些研究人員批評該基準是偏見指標,指出FairFace僅代表了少數種族群體。
研究人工智慧社會影響的非營利組織AI Now 研究所的首席人工智慧科學家海迪-克拉夫(Heidy Khlaaf)說:「解讀情緒是一件相當主觀的事情,它超出了視覺輔助工具的使用範圍,在很大程度上是嵌入在個人和文化背景中的。 “撇開人工智慧不談,研究表明,我們無法僅從面部特徵推斷情緒。 “
情緒檢測系統已經引起了海外監管機構的憤怒,他們試圖限制在高風險環境中使用這種技術。 《人工智慧法案》是歐盟的主要人工智慧立法,禁止學校和雇主部署情緒偵測器(但不包括執法機構)。
包括人工智慧開發平台Hugging Face 在內的許多主機商都提供PaliGemma 2 這樣的開放模型,但人們對這些模型的最大擔憂是它們會被濫用或誤用,這可能會導致現實世界中的傷害。
克拉夫說:『如果這種所謂的『情感識別』建立在偽科學推測的基礎上,那麼這種能力可能會被用來進一步–而且是錯誤地–歧視執法、人力資源、邊境治理等領域的邊緣化群體,這將產生重大影響。
當被問及公開發布PaliGemma 2 的危險性時,Google發言人表示,該公司支持其與視覺問題解答和字幕相關的”代表性危害”測試。他們補充說:”我們對PaliGemma 2 模型進行了嚴格的道德和安全評估,包括兒童安全和內容安全。”
Watcher 認為這還不夠。她說:”負責任的創新意味著你從踏入實驗室的第一天起就考慮到後果,並在產品的整個生命週期中持續這樣做。我能想到無數潛在的問題,[這樣的模式]可能會導致一個烏托邦式的未來,在那裡,你的情緒決定你是否能得到工作、貸款,以及是否能被大學錄取。