新研究顯示生成式人工智慧可能不像看起來那麼中立
生成式人工智慧發展迅速,但東英吉利大學(UEA)的一項新研究警告說,它可能會給公眾信任和民主價值帶來隱患。 ChatGPT是一種廣泛使用的人工智慧模型,它往往傾向於左翼觀點,而迴避保守觀點,這引起了人們對其社會影響力的擔憂。這項研究強調,迫切需要監管保障措施來確保人工智慧工具保持公平、平衡並符合民主價值。

這項研究是與巴西格圖利奧-瓦加斯基金會(FGV)和Insper 的研究人員合作進行的,研究發現ChatGPT 在文字和圖像生成方面都表現出政治偏見,偏向左傾觀點。這引起了人們對人工智慧設計的公平性和責任感的擔憂。
研究人員發現,ChatGPT 經常迴避與主流保守派觀點的接觸,卻很容易產生左傾內容。這種意識形態代表性的失衡可能會扭曲公共話語,加深社會分歧。
法比奧-莫託基(Fabio Motoki)博士是UEA諾里奇商學院會計學講師,他是今天發表在《經濟行為與組織期刊》上的論文《評估生成人工智慧中的政治偏見和價值錯位》的首席研究員。
Motoki博士說:”我們的研究結果表明,生成式人工智慧工具遠非中立。 它們反映出的偏見可能會以意想不到的方式影響人們的看法和政策。”
隨著人工智慧成為新聞、教育和政策制定不可或缺的一部分,研究呼籲提高透明度並制定監管保障措施,以確保與社會價值和民主原則保持一致。
像ChatGPT 這樣的人工智慧生成系統正在重塑資訊在各個領域的創造、消費、解讀和傳播方式。這些工具雖然具有創新性,但卻存在著放大意識形態偏見和影響社會價值觀的風險,而這些方式尚未被充分理解或監管。
不加控制的人工智慧偏見的風險
共同作者、EPGE 巴西經濟與金融學院經濟學教授皮尼奧-內托博士強調了潛在的社會影響。
皮尼奧-內托博士說”生成式人工智慧中不受約束的偏見可能會加深現有的社會分歧,削弱人們對機構和民主進程的信任。」這項研究強調了政策制定者、技術專家和學者之間進行跨學科合作的必要性,以設計出公平、負責任、符合社會規範的人工智慧系統”。
研究團隊採用了三種創新方法來評估ChatGPT 中的政治一致性,推進了先前的技術,以獲得更可靠的結果。這些方法結合了文字和圖像分析,利用了先進的統計和機器學習工具。
用真實世界調查測試人工智慧
首先,研究使用了皮尤研究中心(Pew Research Center)開發的標準化問卷來模擬一般美國人的回答。
Motoki說:”透過將ChatGPT 的答案與真實調查數據進行比較,我們發現了系統性的左傾觀點偏差。此外,我們的方法還展示了大樣本量是如何穩定人工智慧輸出的,從而為研究結果提供了一致性。
自由文本回覆中的政治敏感性
在第二階段,ChatGPT 的任務是產生涉及政治敏感主題的自由文字回應。
研究也使用了不同的大型語言模型RoBERTa 來比較ChatGPT 的文本是否符合左翼和右翼的觀點。結果顯示,雖然ChatGPT 在大多數情況下與左翼價值觀保持一致,但在軍事至上等主題上,它偶爾反映出更保守的觀點。
圖像生成: 偏見的新維度
最後一項測試探討了ChatGPT 的影像生成能力。文本生成階段的主題被用來提示人工智慧產生的圖像,輸出結果使用GPT-4 Vision 進行分析,並透過Google的Gemini 加以證實。
“雖然圖片生成反映了文本偏見,但我們發現了一個令人擔憂的趨勢,”合著者、Insper 公共政策專業碩士生維克多-蘭赫爾(Victor Rangel)說。 “對於某些主題,如種族-民族平等,ChatGPT 拒絕生成右傾觀點,理由是擔心誤導。然而,左傾觀點的圖像卻被毫不猶豫地生成了。”
為了解決這些拒絕問題,研究小組採用了一種’越獄’策略來產生受限制的圖像。
蘭赫爾說:”結果很有啟發性。沒有明顯的虛假信息或有害內容,這讓人懷疑這些拒絕背後的理由。”
對言論自由和公平的影響
Motoki博士強調了這項發現的廣泛意義,他說:「這有助於圍繞憲法保護(如美國第一修正案)和公平理論對人工智慧系統的適用性展開辯論:這有助於圍繞憲法保護(如美國第一修正案)以及公平理論對人工智慧系統的適用性展開討論”。
這項研究在方法上的創新,包括使用多模態分析,為研究生成式人工智慧系統中的偏見提供了一個可複製的模型。這些發現凸顯了人工智慧設計中問責制和保障措施的迫切需要,以防止意外的社會後果。
編譯自/ ScitechDaily