50位全球專家共同撰寫研究論文呼籲停止僅依靠技術驅動的人工智慧
根據一個全球專家團隊的觀點,我們需要停止僅僅為了創新而開發新的人工智慧技術,因為創新會迫使我們調整實踐、習慣和法律來適應這種技術。相反,他們主張依照以人為本的人工智慧設計原則,創造能夠精確滿足我們需求的人工智慧。
來自世界各地的50 位專家為一本關於如何使人工智慧更加”以人為本”的新書撰寫了研究論文,探討了不使用這種方法的風險和錯失的機遇,以及實施這種方法的實用方法。
這些專家來自加拿大、法國、義大利、日本、紐西蘭和英國等12 個國家,以及電腦科學、教育、法律、管理、政治和社會學等12 個學科。
《以人為本的人工智慧》檢視了各種背景下的人工智慧技術,包括農業、工作場所環境、醫療保健、刑事司法和高等教育,並提出了更加”以人為本”的適用措施,包括監管沙盒和跨學科工作框架的方法。
什麼是以人為本的人工智慧?
人工智慧(AI)正以越來越快的方式滲透到我們的生活中,一些專家認為,僅僅依靠科技公司來開發和部署這項技術,以真正提升人類的體驗,從長遠來看將對人類不利。這就是以人為本的人工智慧的由來。
蘇格蘭愛丁堡大學的香農-瓦洛爾(Shannon Vallor)是世界上研究以人為本的人工智慧的最重要專家之一,他解釋說,以人為本的人工智慧是指幫助人類繁榮發展的技術。
她說:”以人為本的技術是指將整個技術生態系統與人類的健康和福祉結合起來。與之形成鮮明對比的是,那些旨在取代人類、與人類競爭或貶低人類價值的技術,與那些旨在支持人類、增強人類能力、豐富人類生活並強化人類的技術。”
她指出,近年來流行起來的生成式人工智慧就是一個不以人為本的技術範例——她認為,這種技術的創造者只是想看看自己能讓系統變得多麼強大,而不是為了滿足人類的需求。
“我們得到的是我們必須應付的東西,而不是由我們設計、為我們服務並使我們受益的東西。這不是我們需要的技術,”她解釋說,”我們不是讓技術適應我們的需求,而是是讓自己適應科技的需求”。
人工智慧有什麼問題?
《以人為本的人工智慧》一書的撰稿人闡述了他們對人工智慧的希望,同時也對人工智慧目前的發展軌跡提出了許多擔憂。
來自義大利博洛尼亞大學和盧森堡大學的馬爾維娜-安娜-沃伊奇克(Malwina Anna Wójcik)指出了當前人工智慧發展中的系統性偏見。她指出,在人工智慧技術的設計和開發過程中,歷史上被邊緣化的群體並沒有發揮有意義的作用,這導致了”主流權力敘事的固化”。
她認為,缺乏關於少數族群的數據,或現有數據不準確,導致歧視。此外,人工智慧系統的不平等可用性導致權力差距擴大,邊緣化群體無法進入人工智慧資料循環,同時也無法從這些技術中受益。
她的解決方案是研究的多樣性,以及電腦科學、倫理學、法律和社會科學交叉領域的跨學科合作計畫。在政策層面,她建議國際倡議需要涉及與非西方傳統的跨文化對話。
同時,加拿大湯普森河大學的馬特-馬龍(Matt Malone)解釋了人工智慧如何對隱私構成挑戰,因為很少有人真正了解他們的數據是如何被收集或使用的。
他解釋說:「這些同意和知識上的差距導致了對隱私領域的永久入侵,否則,隱私可能會尋求控制。隱私權決定了我們讓科技進入人類生活和意識領域的程度。但隨著這些衝擊逐漸消失,隱私很快就會被重新定義和重新認識,而且隨著人工智慧捕獲更多的時間、注意力和信任,隱私將繼續在劃分人類與技術的界限方面發揮決定性作用。”
馬龍認為,”隱私將隨著人們對人工智慧技術的接受或拒絕而變化”,即使技術帶來了更大的平等,個性也很可能受到威脅。
人工智慧與人類行為
除探討社會影響外,撰稿人也調查了目前形式的人工智慧使用對行為的影響。
以色列行為科學研究所的奧什裡-巴爾-吉爾(Oshri Bar-Gil)開展了一項研究項目,探討使用Google服務如何改變自我和自我概念。他解釋說,當我們使用一個平台時,就會產生一個數據”自我”,然後平台就會從我們的使用方式中獲取更多數據,然後利用我們提供的數據和偏好來提高自己的性能。
“這些高效有益的推薦引擎有一個隱藏的代價–它們對我們人類的影響,」他說。”它們改變了我們的思維過程,改變了我們在數位領域和現實世界中的意向性、理性和記憶等人類核心方面,削弱了我們的能動性和自主性。”
紐西蘭威靈頓維多利亞大學的阿利斯泰爾-諾特(Alistair Knott)、英國倫敦大學學院阿蘭-圖靈研究所的塔帕布拉塔-查克拉博蒂(Tapabrata Chakraborti)和義大利比薩大學的迪諾-佩德雷斯基(Dino Pedreschi)也對人工智慧在社群媒體中的廣泛應用進行了研究。他們解釋說:”雖然社交媒體平台使用的人工智慧系統在某些意義上是以人為本的,但其運作的幾個方面值得仔細研究。”
問題的根源在於,人工智慧會不斷從使用者行為中學習,在使用者持續使用平台的過程中完善其使用者模型。但用戶往往會點擊推薦系統為他們推薦的項目,這意味著隨著時間的推移,人工智慧系統很可能會縮小用戶的興趣範圍。如果使用者與有偏見的內容互動,他們就更有可能被推薦這些內容,如果他們繼續與這些內容互動,他們就會發現自己看到了更多的內容:「簡而言之,有理由擔心推薦系統可能會使用戶走向極端主義立場”。
他們提出了一些解決這些問題的方法,包括提高持有推薦系統資料的公司的透明度,以便更深入地研究和報告這些系統對使用者對有害內容的態度所產生的影響。
以人為本的人工智慧如何在現實中發揮作用?
加拿大蒙特婁大學的皮埃爾-拉魯什(Pierre Larouche)認為,將人工智慧視為”獨立的法律和監管對象”,並假定”目前沒有適用於人工智慧的法律”,這讓一些政策制定者感到這是一項難以完成的任務。
他解釋說:”由於人工智慧被視為一種新的技術發展,因此可以推定目前還不存在與之相關的法律。同樣,儘管有關人工智慧的具體規則很少,甚至完全沒有,但由於人工智慧與社會和經濟關係的內在聯繫,可以適用於人工智慧的法律並不缺乏”。
Larouche 認為,我們面臨的挑戰不是製定新的法律,而是確定如何擴展現有法律並將其應用於人工智慧:「允許將辯論定格為在空白的法律頁面上進行無限制的倫理討論,可能會對政策制定產生反作用,因為這會為各種旨在無限期延長討論的拖延戰術敞開大門,而技術卻在繼續快速發展。”
魁北克人工智慧研究所(Mila)是致力於人工智慧的最大學術團體之一,該研究所負責政策、社會和全球事務的副所長本傑明-普羅姆(Benjamin Prud’homme)也呼籲決策者要有信心。
他解釋說:”我的第一個建議,或者說我的第一個希望是,我們開始擺脫創新與監管之間的二元對立–我們承認,如果創新是不負責任的,那麼扼殺創新也未嘗不可。我想告訴政策制定者,要對他們監管人工智慧的能力更有信心;是的,這項技術是新的,但如果說他們過去沒有(成功)應對過與創新相關的挑戰,那是不準確的。人工智慧治理界的很多人都害怕不能從一開始就把事情做對。要知道,我在決策圈的經驗告訴我,我們很可能無法從一開始就把事情做得完全正確。沒關係。沒有人有魔杖。因此,我想對決策者說以下幾點:認真對待這個問題。盡力而為。在嘗試建立正確的管理機制時,邀請各方–包括邊緣化社區和最終使用者–參與討論。但不要讓自己被少數聲音所麻痺,這些聲音認為政府無法在不扼殺創新的情況下對人工智慧進行監管。在這方面,歐盟可以樹立一個榜樣,因為雄心勃勃的《人工《智能法》將在未來幾個月內獲得最終批准,這是第一部關於人工智慧的系統性法律。”
參考文獻:《以人為本的人工智慧–決策者、稽核人員和使用者的多學科視角》,2024 年3 月21 日。
編譯自: ScitechDaily