Google醫療AI聽咳嗽就能檢測新冠/結核女子罹癌漏診被Mia發現
AI在11名女性的乳房X光檢查中,成功地發現了被人類醫生遺漏的乳癌早期跡象。其中一名被AI救下的女性,已經做完手術開始康復了。同時,AI演算法在美國一家診所近1/4的眼科檢查中,發現了患者的視網膜病變。AI幫助人類診病的未來,真的不遠了。
AI工具Mia在乳房X光檢查掃描中,圈出了兩個關鍵區域
而Google的研究團隊,最近剛開發了一款AI工具,可以透過分析人的咳嗽和呼吸,診斷出疾病。
另外,在南加州一家診所,一種檢測眼睛狀況的AI演算法,幫助專家在過去一年進行的約700次眼科檢查的1/4中發現了視網膜病變。
如果經過足夠的資料訓練,AI就會非常擅長發現特定疾病的症狀,而這正是它的專長所在。
深度學習之父Hinton的兩任妻子,都死於癌症。他親身體會過,病人在等待結果和得到模糊的訊息時,是何等的沮喪。
我看到了醫療專業人員在使用數據時的許多低效之處。病人病歷中的信息,很多都沒有用。醫生對於CT的結果的理解也千差萬別。如果讓兩位放射科醫師看同一個掃描結果,得到的結果很可能完全不一樣。
而如今,隨著AI在診症和預測上的發展越來越快,或許類似的悲劇,也會越來越少。
人類醫生忽略的早癌跡象,被AI發現了
最近BBC報道了這樣一件事:AI竟然發現了被人類醫師忽略的早期乳癌。
大家都知道,乳癌在早期很難發現,但最近,一個名叫Mia的AI工具,就成功地在11名女性的乳房X光檢查中,發現了被人類醫生遺漏的微小跡象!
這次試驗,由NHS機構的臨床醫生和Mia一起完成。
在分析了10,000多名女性的乳房X光檢查後,Mia成功地標記出了所有有癌症症狀的人,並且發現了人類醫生沒有發現的11名乳癌早期患者。
Barbara就是被AI標記的11名患者之一,但醫院的放射科醫生,並沒有在她的掃描中發現癌症早期的痕跡。
幸運的是,Barbara的腫瘤被AI發現了。
因為腫瘤只有6毫米,被發現得很早,Barbara做完手術後只需要五天的放射治療。而且,腫瘤小於15毫米的乳癌患者,在五年內有90%的存活率。
而如果不是AI,Barbara的癌症很可能要到三年後的下一次常規乳房X光檢查才能被發現,因為她以前從未表現出任何明顯的症狀。
Barbara非常高興,比起同樣罹患乳癌、要接受侵入性治療的母親和姐姐,自己治療的痛苦要小得多。
而且,Mia的開發者Kheiron表示:因為AI診斷的效率極高,Mia幾乎能讓等待結果的時間從14天減少到3天。
當然,目前試驗中沒有一個病例是Mia單獨分析的,每個病例還是要經過人工審查。
訓練出這樣一個能診斷癌症的AI醫生,需要花多久時間?
答案是六年。
Sarah Kerruish,Kheiron Medical首席策略官
Kheiron Medical的首席策略長Sarah Kerruish表示,他們花了6年來訓練Mia,它在微軟的雲端運算能力上運行,並接受了來自世界各地女性的數百萬張乳房X光檢查的訓練。
乳癌醫師平均每年進行約5,000次乳房掃描,一次可以檢查100張。但是,他們是人類,所以會疲倦,會分心,會受到干擾。
而在AI身上,就不用擔心這些因素了。
Gerald Lip博士在NHS Grampian對AI工具進行評估
當然,Mia目前還不完美,例如它無法存取任何患者的病史,可能會把已經確定為無害的腫瘤誤標記為癌症。
目前,每張掃描圖將由兩名放射科醫生檢查,但在不久的未來,AI很可能就會取代一名人類醫生,讓工作量減半。
AI透過分析咳嗽聲診斷疾病
同樣,就在本週,來自Google的研究團隊開發了一種機器學習工具,可以透過分析人的咳嗽聲和呼吸聲等,幫助醫生檢測和監控健康狀況。
這個名為健康聲學表徵(HeAR)的AI系統,得到了數百萬音頻片段中人聲的訓練,並未來可能被用於診斷COVID-19、結核病等疾病,以及評估一個人的肺部健康狀況。
其創新之處在於,HeAR所訓練的龐大資料集,以及它能夠根據不同的需求進行調整,以完成多種任務。
論文網址:https://arxiv.org/abs/2403.02522
在這個領域,大部分的AI工具都是利用經過打標的音訊記錄來建構。
其中,咳嗽的錄音會和病人的健康資訊一起被餵給模型。例如,患者在錄製音訊時,得了支氣管炎。
之後,模型就能透過「監督學習」的方式,學習如何將聲音的特徵和對應的數據標註連結起來。
「在醫學上,監督學習方法有著臨床驗證的支持,」南佛羅裡達大學的醫生Yael Bensoussan解釋說。“但缺點在於,標註好的數據集非常稀缺。”
為了解決這個問題,Google決定自監督學習的方式,擺脫對標註資料的依賴。
具體來說,團隊從YouTube上公開的影片中,自動提取了超過3億條包含咳嗽、呼吸、清嗓等人類聲音的音訊。
然後,將每個音訊轉換成名為頻譜圖的聲音視覺表徵形式。
接著,研究人員會隱去光譜圖的某些部分,讓模型學習預測這些缺失部分,過程類似於訓練大語言模型預測文本中的下一個token。
透過微調,Google團隊成功讓模型能夠檢測COVID-19、結核病以及諸如是否吸菸等特徵。
結果顯示,HeAR在不同資料集上進行COVID-19偵測的得分分別為0.645和0.710,比基於語音或一般音訊資料訓練的現有模型表現更佳。
結核病的檢測,HeAR的得分更是高達0.739。
(0.5分代表模型的表現與隨機猜測無異,而1分則代表模型每次都能準確預測)
AI顛覆糖尿病眼科檢查
無獨有偶,Christian Espinoza,南加州一家藥物治療中心的負責人,最近引入了一位強大的新助理:一款能夠透過視網膜相機拍照來檢測眼睛狀況的人工智慧演算法。
這項技術能迅速完成診斷,而且在這個過程中不必要求醫生親自在場。
該系統有望顯著提高對糖尿病視網膜病變的篩檢能力——這是導致工作年齡成人失明的首要原因,並對估計中的3800萬美國糖尿病患者構成了巨大威脅。
這裡提到的糖尿病視網膜病變,是因為高血糖損害視網膜血管而引起的。
雖然透過管理患者的糖尿病通常可以預防這種疾病——並且對更嚴重階段的病變有治療方法——但醫生們認為,定期進行篩檢對於早期發現病症非常關鍵。
然而,在美國許多地區,由於眼科專家短缺,患者可能需要等待幾個月才能預約檢查。
此外,需要額外安排時間去做眼睛散瞳檢查,這對於需要請假工作或上學、並且需要解決交通問題的低收入患者來說,尤其困難。而這部分族群還恰恰是第2型糖尿病的高風險族群。
為了改善這個問題,Digital Diagnostics在經過數十年的研究和涉及900名糖尿病患者的臨床試驗後,於2018年獲得了FDA的批准——而這也是醫學領域第一個完全自主的AI系統。
對此,華盛頓大學的視網膜專家和副教授Aaron Lee稱讚為「醫學史上的里程碑」。
這套系統的操作非常簡單,只需高中學歷和幾小時的訓練即可。
其中,設備可以被放在任何昏暗的房間,患者只需將臉部放在下巴和額頭支架上,注視鏡頭,技術人員便會拍攝每隻眼睛的影像。
而且在大多數情況下,不需要對眼睛進行散瞳,就能在幾分鐘內給出診斷結果。
整體而言,AI提供即時結果的能力,以及省去額外預約的時間和費用,可以讓病人和醫療服務機構同時受益。
結果顯示,在Espinoza診所過去一年進行的約700次眼科檢查中,近四分之一的檢查發現了視網膜病變,這些患者隨後被推薦給專家接受進一步的治療。
但值得注意的是,如果沒有醫生親自進行篩檢,僅依賴演算法尋找糖尿病視網膜病變,可能會遺漏其他重要的疾病,例如脈絡膜黑色素瘤。
且演算法在判斷時會更加謹慎,導致對患者的過度轉診。
雖然但是,AI目前還不夠可靠
這不,Twitter網友「Misha Saul」就在前段時間拿著他朋友的MRI腦部掃描結果,讓如今的當紅炸子雞Claude分析了一下。
很快,Claude給了自己的「結論」——腦子裡有一個很嚴重的腫瘤:
根據展示的MRI腦部掃描影像,看起來大腦中有一個很大的異常區域。大腦中央那塊不規則的亮白色區域讓人擔憂,可能是腫瘤或其他病理情況。
這個腫瘤顯示出明顯的增強、局部的壓迫效應和周圍的水腫——這些都不是正常大腦組織應有的特徵。
我們可以在一系列連續的MRI切片中追蹤到這個腫塊,確認它是一個實際存在的佔位性病變。它的位置也是典型的原發性膠質瘤所在。
雖然我知道放射學總是有一定的不確定性,但我認為這實際上是正常大腦或某種誤導性角度的可能性非常低,不到1%。整套影像構成了一個一致且令人信服的侵襲性腦腫瘤的畫面。
隨後,網友又讓Claude進行了一次複查:
在查看了額外MRI序列和角度後,我的評估沒有改變。
從多個角度觀察,都清楚地顯示了左頂葉深處中心有一個大的、強烈增強的異常區域,周圍有大量的血管性水腫。
這個病變在連續的切片中一再出現,確認它是一個真實的異常,而不是某種偶然的影像。
關鍵觀察點包括:
1. T1加權對比增強影像上病變區域的不均勻增強,這表示血腦障壁被破壞了。
2. 「T2 FLAIR」序列顯示,這個腫塊主要呈現T2高訊號,周圍有水腫。
3. 由於腫瘤的局部壓迫效應,相鄰的側腦室被壓迫變形。
4. 由於病灶的擴張效應,導致中線向右移位。
這些發現再次確認了我對這是一個高級別膠質瘤的初步判斷,鑑於成像特徵,這很可能是膠質母細胞瘤。額外的垂直於原始平面的視圖有助於排除了這是由體積平均誤差造成的假象。
總的來說,這些補充的影像資料進一步鞏固了我對這是一個侵襲性左頂葉腫瘤的診斷,我懷疑這是一個膠質母細胞瘤。
現在,我對這是一個真實的病理發現需要緊急介入治療的判斷更加自信(>99%)。
雖然最終需要透過活檢和組織病理學評估來明確分類,但影像結果對於惡性膠質瘤來說是非常有說服力的。
對於外行人來說,Claude給出的診斷非常有說服力——不僅滿嘴都是專業詞彙,而且態度非常篤定:「我認為自己的誤判率只有不到1%」!
但是,放射科的報告卻顯示一切正常。
而在網友催促下,醫院這次叫來了三位放射科專家,並且同時和他們自己的AI進行了檢查。
結果依然是——一切正常。
顯然,Claude剛剛給出的長篇大論是完全錯誤的…
用AI產生數位孿生,預測未來疾病
除了診斷疾病,科學家最近還發現,AI生成的患者的數位孿生,可以幫助我們預測未來的疾病。
這個AI工具叫做Foresight,它使用的是生成式預訓練Transformer,與ChatGPT背後的LLM類似。
首先,研究者在醫療記錄上訓練了這些模型,然後向AI提供了新的醫療保健資料。從而創建出了患者的一個「虛擬副本」。
然後這個數字孿生就可以預測患者未來可能得的疾病,以及需要用什麼藥了。
使用美國的數據時,數據孿生預測的準確率達到了88%!
而使用英國國民醫療服務體系(NHS)的資訊時,它的準確率稍差,只有68%和76%。
而且,現在他們也開發了一個更精確的工具——Foresight 2,研究結果已經在《刺胳針數位健康》上發表。
論文地址:https://www.thelancet.com/journals/landig/article/PIIS2589-7500(24)00025-6/fulltext
數位孿生去看醫生
這項研究的合著者、國王學院醫院數據科學和人工智慧主任James Teo認為,這些數位孿生的預測,代表了理解疾病的「可能的多元宇宙」。
“我們的生成式AI可以從健康記錄中的文本中產生預測,涵蓋所有疾病組的任何疾病、測試、藥物、治療或併發症。”
而透過患者的數位孿生,就可以提供各種見解和假設的場景。
其實,這種活細胞和整個器官的虛擬模型概念,早就對我們不陌生了。
例如Alya Red,就是一個由約1億個虛擬細胞組成的心臟數位孿生。
在巴塞隆納郊區一座19世紀小教堂的牆壁內,一顆心臟開始慢慢收縮,它正在測試從藥物到植入物的治療方法
透過與醫療技術公司Medtronic合作,Alya Red模擬可以幫助定位起搏器,微調電刺激,並對效果進行建模。
Alya Red數位孿生心臟模型由大約1億個虛擬心臟細胞組成,每個細胞由大約50個方程式描述。流經其中的「血液」可以栩栩如生地呈現出一束束鮮豔的色彩,紅色、橙色和黃色透露出旺盛的流動,病變心室內的血流表現為緩慢的藍色和綠色。因此,數位孿生可以揭示衰竭的心臟如何失去泵血能力,或由心臟藥物引起的危險心律不整
不過,要如何將虛擬心臟連接到虛擬身體呢?
為此,CompBioMed聯盟創建了一個長達60,000英里的血管、動脈、靜脈和毛細血管網絡的數位孿生。
這些網路使用數十億個數據點,是從一名26歲的韓國女性Yoon-sun的冷凍屍體的數位化、高解析度橫斷面中收集而來的。
而德國超算SuperMUC-NG,使可專家們可以模擬出虛擬血液是如何通過Yoon-sun血管的虛擬副本流動的,它的直徑只有幾分之一毫米。
之後,團隊也會模擬Yoon-sun循環數位孿生過程中的血壓變化,並模擬血栓的移動。
來自倫敦科學博物館工程師畫廊的「虛擬心臟」展覽的Jazmín Aguado-Sierra心臟的數位孿生圖像
不過,迄今為止,我們從未創造過整個人體的數位孿生。
首先,這種複雜的模擬需要存取強大的計算機,例如世界上第一台也是最快的百萬兆次級超級電腦Frontier。即便如此仍然相距甚遠,並且需要大量的能量。
還有一個巨大的挑戰,是將虛擬身體每個部分的所有程式碼拼接在一起。
數位人的每個部分,如細胞或心臟,在技術上都是一個單獨的模擬。模擬也有多種尺度:一個細胞模型和另一個器官模型需要不同的程式碼並以不同的速度運行。讓所有這些程式碼以相同的速度同時加載並非易事
另外,還有道德的考慮,預測健康的工具如果落入壞人手中,會有潛在的風險。
不過,在當前技術下,想創造自己的數位孿生,只有億萬富翁才能做到。