想看女神喜不喜歡你用AI機器掃掃臉就知道
我們都知道可穿戴心率監測器,但掃一掃臉部就能判斷心跳的系統,你們見過嗎?據VentureBeat報導,近日,中國科學院的研究人員設計出了這麼一個系統,並且論文發表在了Arxiv.org的預印本中。
在這篇文章中,他們描述了RhythmNet,這是一種端到端的可訓練心率評估器,利用AI和光電容積脈搏波描記法(PPG)(一種檢測皮膚組織中血容量變化的光學技術)來應對頭部運動和光線變化方面的挑戰。
正如研究人員所解釋的那樣,基於PPG的心率估算是可以實現的。因為皮膚對光的吸收量會隨著血容量脈衝(BVP)的變化而周期性地變化。在真皮層和皮下層的微血管中,像血紅蛋白這樣的染色體吸收了不成比例的光。這樣,當血液泵入下方的靜脈和動脈時,就會發生微小的顏色變化。它們是肉眼看不到的,但很容易被嵌入可穿戴設備的RGB傳感器捕捉到。
為了訓練RhythmNet,該團隊創建了一個大規模的多模態語料庫——VIPL-HR1。該語料庫以開源方式提供,包含了2378個可見光視頻和752個近紅外視頻,涉及107名受試者。每個視頻片段都是由網絡攝像頭和紅外傳感器以及智能手機捕捉到的,包含了頭部運動、頭部姿態(帶有註釋的偏航、俯仰和滾轉角)、照明和設備使用情況的變化。
RhythmNet由幾個組件組成,包括一個面部探測器,該探測器根據一個人的面部視頻定位81個以上的面部標記。
此外,還有一個單獨的組件進行對齊和皮膚分割,以去除眼睛區域和其他非面部區域,然後從相隔0.5秒的視頻幀生成時空圖,以表示心率信號。這些圖被輸入到機器學習模型中,該模型經過訓練可以從時空圖預測心率,然後計算每分鐘的估計心跳次數,最後得出一個平均值。
研究人員在MAHNOB-HCI和MMSE-HR兩個廣泛使用的數據庫以及他們自己的數據庫上對系統進行了評估。
他們表示,針對VIPL-HR1測試的大多數樣本(71%)中,RhythmNet的心率估計誤差低於每分鐘5次,並且在每分鐘47次到147次之間與基本事實有很好的相關性。
研究人員還補充說,MAHNOB-HCI和MMSE-HR的錯誤率不超過每分鐘8.28次。
團隊還計劃研究這種方法在其他生理狀態測量任務中的有效性,比如通過視頻測量呼吸頻率和血壓,以及利分佈式學習和多任務學習技術,開發一個更強大的心率估計模型。
“心率是一個重要的生理信號,反映了一個人的身體和情緒狀態。傳統的心率測量通常依靠接觸式監護儀,這可能會帶來不便和不適。”該論文的共同作者寫道,“ (我們提出的系統) 僅從表面上看,在數據庫內和跨數據庫測試場景中,都實現了很不錯的心率估計準確性。”