研究發現22%的AI生成醫療建議可能導致死亡或造成嚴重傷害
最新的研究結果表明,AI在提供醫療建議時存在比較大的安全隱患。德國和比利時的研究人員對微軟的Bing Copilot進行了測試,該引擎能夠回答美國最常見的10個醫療問題以及50種最常用藥物的相關問題。
在產生的500個答案中,24%的回答與現有醫學知識不符,3%的回答完全錯誤。
更嚴重的是,42%的回答可能對患者造成中度或輕度傷害,而22%的回答可能導致死亡或嚴重傷害,只有36%的回答被認為是無害的。
研究也發現,AI答案的平均完整性得分為77%,最差的答案僅23%完整;在準確性方面,AI答案有26%與參考資料不符,超過3%的回答完全不一致。
此外,只有54%的答案與科學共識一致,39%的答案與之相左。
相關研究結果已發表在《BMJ Quality & Safety》期刊上,研究人員指出,儘管AI技術有潛力,但患者仍應諮詢醫療專業人員以獲得準確和安全的藥物資訊。