世衛組織概述了健康人工智能的倫理原則
據外媒The Verge報導,世界衛生組織日前發布了一份指導文件,概述了人工智能在健康領域的道德使用的六個關鍵原則。20位專家花了兩年時間制定該指南,這標誌著關於醫療環境中人工智能倫理的第一個共識報告。
該報告強調了健康人工智能的前景,以及其幫助醫生治療病人的潛力–特別是在資源不足的地區。但它也強調,技術不是解決健康挑戰的快速方法,特別是在中低收入國家,政府和監管機構應仔細審查人工智能在醫療領域的使用地點和方式。
世衛組織表示,它希望這六項原則能夠成為政府、開發商和監管機構處理該技術的基礎。專家們提出的六項原則是:保護自主權;促進人類安全和福祉;確保透明度;促進問責制;確保公平;以及促進具有響應性和可持續性的工具。
有幾十種潛在的方式可以將人工智能應用於醫療保健。有一些正在開發的應用,使用人工智能來篩選醫療圖像,如乳房X光檢查;掃描病人健康記錄以預測他們是否可能生病的工具;幫助人們監測自己的健康的設備;以及幫助跟踪疾病爆發的系統。在人們無法接觸到專業醫生的地區,工具可以幫助評估症狀。但是,當它們沒有被仔細開發和實施時,它們可能–在最好的情況下–沒有實現其承諾。在最壞的情況下,它們可能會造成傷害。
在過去的一年中,一些隱患是顯而易見的。在對抗COVID-19大流行病的爭奪中,醫療機構和政府轉向人工智能工具尋求解決方案。然而,這些工具中的許多都具有世衛組織報告所警告的一些特徵。例如,新加坡政府承認,一個聯繫人追踪應用程序收集的數據也可用於刑事調查–這是一個”功能蠕變”的例子,即健康數據被重新利用,超出了原來的目標。大多數旨在根據胸部掃描檢測COVID-19的人工智能程序都是基於糟糕的數據,最終並沒有用。美國的醫院在測試該程序之前使用了一種旨在預測哪些COVID-19患者可能需要重症監護的算法。
“緊急情況並不證明部署未經證實的技術是合理的,”該報告說。
報告還承認,許多人工智能工具是由大型私人技術公司(如Google)或公共和私營部門之間的伙伴關係開發的。這些公司擁有建立這些工具的資源和數據,但可能沒有動力為自己的產品採用擬議的道德框架。他們的重點可能是利潤,而不是公共利益。“雖然這些公司可能會提供創新的方法,但人們擔心他們最終可能會在政府、供應商和病人面前行使過多的權力,”報告寫道。
醫療領域的人工智能技術仍然是新的,許多政府、監管機構和衛生系統仍在摸索如何評估和管理它們。世衛組織的報告說,在方法上深思熟慮和有分寸,將有助於避免潛在的傷害。“技術解決方案的吸引力和技術的承諾可能會導致高估利益,否定人工智能等新技術可能帶來的挑戰和問題。”
以下是世衛組織指南中六項道德原則的細目,以及它們為何重要的原因。
- 保護自主權:人類應該對所有健康決定進行監督並擁有最終決定權–這些決定不應該完全由機器做出,醫生應該能夠在任何時候推翻它們。未經同意,人工智能不應該被用來指導某人的醫療護理,而且他們的數據應該受到保護。
- 促進人類安全。開發人員應持續監測任何人工智能工具,以確保它們按規定工作,不會造成傷害。
- 確保透明度。開發者應該公佈有關人工智能工具設計的信息。對這些系統的一個經常性批評是,它們是”黑盒子”,研究人員和醫生很難知道它們是如何做出決定的。世衛組織希望看到足夠的透明度,以便用戶和監管機構能夠充分審計和理解它們。
- 培養問責制。當人工智能技術出現問題時–比如工具做出的決定導致病人受到傷害–應該有機制來確定誰應該負責(比如製造商和臨床用戶)。
- 確保公平。這意味著要確保工具有多種語言版本,並在不同的數據集上進行訓練。在過去的幾年裡,對普通健康算法的仔細審查發現,一些算法中存在種族偏見。
- 推廣可持續發展的人工智能。開發者應該能夠定期更新他們的工具,如果一個工具看起來沒有效果,機構應該有辦法進行調整。機構或公司也應該只引進可以修復的工具,即使是在資源不足的衛生系統。