Nature重磅調查:1,600多名科學家參與,僅4%認為AI工具目前是“必需品”
過去十年,關於人工智慧(AI)的研究論文數量在各個領域都有顯著增加。科學家已經開始運用AI 工具來協助總結和撰寫研究論文和編寫程式碼。一些研究者嘗試借助生成式AI 技術來探索新的領域,如蛋白質結構的發現、天氣預報的改進以及醫學診斷的創新等各種有前景的領域。
AI 已然滲透到科學研究中。那麼,科學家是如何看待它們的呢?
近日,頂尖期刊《自然》(Nature)對全球1,600 多名研究人員進行了調查。結果表明,AI 工具在科學領域越來越常見,並且許多科學家預計它們很快就會成為研究實踐的核心。另外,超過一半的受訪者認為AI 工具在未來十年內將變得非常重要或不可或缺。
相關調查結果以「AI and science: what 1,600 researchers think」為題,已發表在Nature 上。
在這項調查中,有2/3 的受訪者認為AI 提供了更快的資料處理方式,58% 的人認為AI 加速了以前不可行的計算,55% 的人則提到AI 節省了時間和金錢。
來自杜克大學的計算生物學家Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學問題中取得進展。”
然而,也有69% 的研究人員表示,AI 工具可能導致更多依賴模式識別而不是深刻理解,58% 的人認為AI 可能會在數據中強化偏見或歧視,55% 認為這些工具可能會增加欺詐的發生機率,53% 的人指出草率使用可能會導致研究無法重現。
任職康乃狄克州的傑克遜實驗室、從事癌症影像分析的Jeffrey Chuang 表示:“主要問題在於AI 正在挑戰我們現有的證據和真相標準。”
科學家的擔憂與興奮
為了評估活躍研究人員的觀點,《自然》雜誌透過電子郵件聯繫了在2022 年最後4 個月內發表論文的4 萬多名科學家,並邀請《自然簡報》的讀者參與調查。
在這些受訪者中,48% 的人直接開發或研究AI,30% 的人在研究中使用了AI,剩下的22% 的人在科學中沒有使用AI。
在研究中使用AI 的人中,超過1/4 的人認為AI 工具將在未來十年內變得必不可少,而認為AI 工具現在是「必需品」的人只佔4%。另有47% 的人認為AI 將變得非常有用。然而,不使用AI 的研究人員對此並不太感興趣。即便如此,仍有9% 的人認為這些技術將在未來十年內變得必不可少,另有34% 的人表示它們將非常有用。
當被要求從可能的生成式AI 負面影響清單中選擇時,68% 的研究人員擔心訊息傳播不準確,另有68% 的人認為這將使抄襲更容易,檢測更難,66% 的人擔心會引入錯誤或不準確的內容到研究論文中。
此外,受訪者也提到,如果用於醫學診斷的AI 工具是基於具有歷史偏見的數據進行訓練,他們擔心會出現偽造研究、虛假資訊和偏見。科學家已經看到了這方面的證據:例如,美國的一個團隊報告說,當他們要求GPT-4 為臨床案例研究提供診斷和治療建議時,答案會根據患者的種族或性別而變化。
英國布里斯託大學攻讀醫學AI 博士學位的軟體工程師和前企業家Isabella Degen 表示:「大型語言模型(LLMs)被濫用,存在不準確和虛假但聽起來專業的結果。在我看來,我們對於正確使用和濫用之間的界限認識還不夠清晰。”
研究人員認為,最明顯的好處是LLMs 可以幫助非英語母語的研究人員,改進他們研究論文的語法和風格,總結或翻譯其他工作。新加坡國立大學材料科學家Kedar Hippalgaonkar 指出,“儘管存在一小部分惡意玩家,但學術界可以展示如何善用這些工具。”
即使在對AI 感興趣的研究人員中,經常在工作中使用LLMs 的研究人員仍佔少數。那些學習AI 的人中有28% 表示每天或每週使用生成式AI 產品,而僅使用AI 的人中有13% 這樣做,而其他人中只有1%,儘管許多人至少嘗試過這些工具。此外,所有群體中最受歡迎的用途是與研究無關的創意娛樂;較少一部分人使用這些工具來編寫程式碼、構思研究想法和幫助撰寫研究論文。
另外,有些科學家對LLMs 的輸出並不滿意。一位使用LLMs 來幫助編輯論文的研究人員寫道:「ChatGPT 好像複製了人類的所有不良寫作習慣。」芬蘭圖爾庫大學的物理學家Johannes Niskanen 則表示:「如果我們開始使用AI 來閱讀和撰寫文章,科學很快就會從’由人類為人類(for humans by humans)’轉變為’由機器為機器(’for machines by machines)’。”
AI 發展面臨困境
在這項調查中,大約一半的科學家表示他們在開發或使用AI 方面遇到了阻礙。直接研究AI 的研究人員最擔心的問題包括計算資源不足、為其工作提供的融資不足以及獲取運行AI 所需的高品質數據不足。而那些在其他領域工作但在研究中使用AI 的人則更擔心缺乏熟練的科學家和訓練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用AI 的研究人員表示他們不需要AI 或認為它不實用,或缺乏研究AI 的經驗和時間。
調查中出現的另一個主題是商業公司主導了AI 的計算資源和AI 工具的所有權。研究AI 的科學家中有23% 表示他們與開發這些工具的公司合作或在這些公司工作(其中最常被提及的是Google和微軟),而使用AI 的人中只有7% 這樣做。整體而言,略多於一半的受訪者認為,使用AI 的研究人員與這些公司的科學家合作是非常重要或有些重要的。
此前,已有研究人員多次警告稱,科學中對AI 工具的天真使用可能導致錯誤、虛假陽性和無法重現的研究結果,潛在地浪費時間和精力。一些科學家表示,他們擔心使用AI 的論文中存在品質不佳的研究。
堪薩斯州立大學曼哈頓分校的計算機科學家Lior Shamir 表示,“機器學習有時可能有用,但AI 引發的問題比幫助多。科學家在不了解自己在做什麼的情況下使用AI,可能會導致虛假的發現。”
當問及期刊編輯和同儕審查者是否能夠充分審查使用AI 的論文時,受訪者意見不一。在那些使用AI 進行工作但不直接開發AI 的科學家中,大約一半表示不知道, 1/4 認為審查是充分的,1/4 認為不充分。直接開發AI 的人傾向於對編輯和審查過程持更積極的看法。
另外,《自然》也詢問了受訪者對於AI 在社會的7 種潛在影響的擔憂程度,2/3 的人表示他們對此非常擔憂或很擔憂。自動化AI 武器和AI 輔助監視也高居榜首,最不令人擔憂的是AI 可能對人類構成生存威脅的想法。
然而,許多研究人員表示,AI 和LLMs 已經成為不可迴避的趨勢。波士頓馬薩諸塞州貝斯以色列聖救主醫療中心的肝病專家Yury Popov 寫道:“ AI 是具有變革性的,我們現在必須關注如何確保它帶來更多的好處,而不是問題。 ”