倫理學家回擊”AI暫停發展”信件稱其過於戲劇化以至於忽略了現實危害
一群知名的人工智能倫理學家對本週要求人工智能發展”暫停”六個月的有爭議的信提出了反駁,批評它只關注假設的未來威脅,而真正的危害是歸因於今天對技術的濫用。數千人,包括史蒂夫-沃茲尼亞克和埃隆-馬斯克等熟悉的科技業界人物在本週早些時候簽署了生命未來研究所的公開信,提議應暫停GPT-4等人工智能模型的開發,以避免”我們的文明失去控制”,以及面臨其他威脅。
Timnit Gebru、Emily M. Bender、Angelina McMillan-Major和Margaret Mitchell都是人工智能和倫理學領域的重要人物,他們因一篇批評人工智能能力的論文而被Google排擠而聞名(除了他們的工作之外)。他們目前正在DAIR研究所工作,這是一個新的研究機構,旨在研究、揭露和預防與人工智能相關的危害。
但在簽名者名單上找不到他們,現在他們發表了一份反對意見書,指出這封信沒有涉及到技術造成的現有問題。
他們寫道:”這些假設的風險是一種危險的意識形態的焦點,這種意識形態被稱為長期主義,忽視了今天部署人工智能係統所造成的實際危害。”他們提到了工人剝削、數據盜竊、支持現有權力結構的合成媒體以及這些權力結構進一步集中在少數人手中。
選擇擔心終結者或黑客帝國式的機器人啟示錄是一個紅鯡魚(紅鯡魚是英文熟語。指以修辭或文學等各種手法轉移議題焦點與註意力,是一種政治宣傳、公關及戲劇創作的技巧,也是一種邏輯謬誤。)。因為在同一時刻,我們有報告稱,像Clearview AI這樣的公司早已經被警方利用,基本上被用來陷害無辜者。當你看到每個前門都有Ring的門鈴攝像頭,還可以用假搜查令輕鬆讀取這些數據時,這種擔憂早已經成為現實,至於有沒有T-1000已經不重要了。
雖然DAIR的工作人員同意信中的一些目標,如識別合成媒體,但他們強調,現在必須採取行動,對今天的問題,用我們現有的補救措施:
我們需要的是實施透明化的監管。我們不僅要清楚地知道我們何時遇到了合成媒體,而且還應該要求建立這些系統的組織記錄和披露訓練數據和模型架構。創造可安全使用的工具的責任應該由構建和部署生成系統的公司來承擔,這意味著這些系統的構建者應該對其產品產生的結果負責。
目前對越來越大的”人工智能實驗”的競賽並不是一條預設的道路,我們唯一的選擇是跑多快,而是由利潤動機驅動的一系列決定。公司的行動和選擇必須由保護人們權益的監管來塑造。
現在確實是採取行動的時候了:但我們關注的重點不應該是想像中的”強大的數字思想”。相反,我們應該關注那些聲稱建立數字思想的公司的非常真實和非常現實的剝削行為,這些公司正在迅速集中權力,增加社會不平等現象。
順便說一句,這封信呼應了我在昨天西雅圖的非洲科技活動中聽到的Uncharted Power創始人傑西卡-馬修斯的感慨:”你不應該害怕人工智能。你應該害怕打造它的人”。(她的解決辦法是:加入他們,成為打造它的人。)
雖然任何大公司都不可能同意按照這封公開信暫停其研究工作,但從它收到的參與度來看,顯然人工智能的風險–真實的和假設的–在社會的許多部分都非常令人擔憂。但是,如果他們不做,也許就得有人替他們做。
閱讀反對信全文:
https://www.dair-institute.org/blog/letter-statement-March2023