WHO呼籲在公共健康領域慎用AI 存在這些憂慮
此類大型語言模型工具包括ChatGPT等許多其他模仿理解、處理和產生人類交流的平台。當地時間16日,世界衛生組織(WHO)發聲明呼籲謹慎使用人工智能(AI)生成的大型語言模型工具(LLM),以保護和促進人類的福祉、安全和自主性,並維護公共健康。
此類大型語言模型工具包括ChatGPT等許多其他模仿理解、處理和產生人類交流的平台,它們在公眾中傳播迅速,並越來越多地用於滿足人們的健康需求,在健康方面的應用充滿了潛力。
可能存在風險
WHO表示,在利用大型語言模型工具來改善健康信息獲取、作為決策支持工具,甚至增強在資源匱乏環境中的診斷能力以保護人們的健康和減少不平等時,必須仔細審查其可能存在的風險。雖然WHO支持適當使用技術,包括AI大型語言模型工具,來支持醫護人員、患者、研究人員和科學家,但對這種新技術持謹慎態度。
WHO表示,其倡導幾大核心價值,包括需要廣泛遵守透明度、包容性、公眾參與、專家監督和嚴格評估等,而操之過急地採用未經測試的系統可能會導致醫護人員的錯誤操作,對患者造成傷害,削弱對人工智能的信任,從而破壞或延遲此類技術在全球範圍內的潛在長期效益與應用。
為了以安全、有效和合乎道德的方式來使用的技術,並進行嚴格監督,WHO提出了以下領域的疑慮,包括:用於訓練AI的數據可能存在偏差,產生誤導性或不准確的信息,可能對健康、公平和包容性構成風險;大型語言模型生成的回答對終端用戶或許顯得權威而可信,但這些回答可能是完全錯誤的,或者包含嚴重錯誤的信息,尤其是涉及健康的回答;大型語言模型可能在未經事先同意使用的數據上進行培訓,並且可能不會保護用戶提供的敏感數據(包括健康數據);大型語言模型可能被濫用,以文本、音頻或視頻內容的形式產生和傳播看似極具說服力的虛假信息,公眾會很難將其與可靠的健康內容區分開來;與致力於將該工具商業化的技術公司不同,WHO致力於利用新技術,包括人工智能和數字健康,以改善人類健康,同時建議決策者確保患者安全和保護。
WHO並表示,建議在廣泛應用於日常醫療和藥物治療之前,應解決這些問題,並對其效益進行清晰的評估,無論是由個人、醫護人員還是衛生系統管理者和決策者使用。
WHO並重申,在設計、開發和部署醫療AI時,應遵守該組織《醫療衛生中AI的倫理與治理指南》列舉的倫理原則和適當的治理措施。
該指南中確定的六項核心原則是:(1)保護自治權;(2)促進人類福祉、人類安全和公共利益;(3)確保透明度、可解釋性和可理解性;(4)促進責任和問責;(5)確保包容性和公平性;(6)促進具有響應能力和可持續性的AI。