研究人員警示:人工智能算法可以影響人們的決定需就算法的影響進行公共教育
在一系列新的實驗中,人工智能(AI)算法能夠影響人們對虛構的政治候選人或潛在的浪漫伴侶的偏好,這取決於建議是明確的還是隱蔽的。西班牙畢爾巴鄂德烏斯託大學的Ujué Agudo和Helena Matute於2021年4月21日在開放性期刊PLOS ONE上發表了這些發現。
從Facebook到谷歌搜索結果,許多人每天都會遇到人工智能算法。私人公司正在對其用戶的數據進行廣泛的研究,產生對人類行為的見解,而這些見解是不公開的。學術社會科學研究落後於私人研究,關於人工智能算法如何塑造人們的決定的公共知識是缺乏的。
為了說明問題,Agudo和Matute進行了一系列實驗,測試人工智能算法在不同環境中的影響。他們招募參與者與那些展示虛構的政治候選人或在線約會候選人照片的算法進行互動,並要求參與者表明他們會投票給誰或給誰留言。這些算法明確地(如”90%的兼容性”)或隱蔽地(如比其他候選人更經常地展示他們的照片)促成一些候選人當選。
總的來說,實驗表明,算法對參與者決定投票給誰或給誰留言有重大影響。對於政治決定,明確的操縱對決定有很大影響,而隱蔽的操縱則沒有效果。對於約會的決定,則出現了相反的效果。
研究人員推測,這些結果可能反映了人們在約會等主觀問題上更喜歡人類的明確建議,而人們在理性的政治決策上可能更喜歡算法建議。
鑑於他們的發現,作者表示支持旨在提高人工智能可信度的倡議,如歐盟委員會的《可信人工智能倫理準則》和DARPA的可解釋人工智能(XAI)計劃。不過,他們還是提醒說,需要更多公開的研究來了解人類對算法的脆弱性。
同時,研究人員呼籲努力教育公眾,讓他們了解盲目信任算法建議的風險。他們還強調,需要圍繞驅動這些算法的數據的所有權進行討論。
作者補充說:”如果像我們這樣一個虛構的、簡單的算法可以在沒有建立參與者的實際定制檔案(並在所有情況下使用相同的照片)的情況下實現這樣的說服力,那麼一個更複雜的算法,如人們在日常生活中與之互動的那些算法,當然應該能夠施加更強大的影響。”