蘋果“口罩版Face ID”年前出街舊蘋果設備為何沒法用?
虎年新年前,果粉們迎來了春節禮物:新冠時代無數蘋果用戶呼籲良久的“戴口罩也能用Face ID刷臉”的功能,終於被包括在iOS 15.4的更新里啦。蘋果在iOS 15.4的更新中,引入了戴口罩也能使用Face ID的功能。按照各種用戶體驗圖,系統提示中將會說“iPhone可以識別眼部周圍區域的特徵”但不戴口罩更精確。
戴口罩也能用蘋果的Face ID刷臉認證了
新冠大流行席捲全球,“戴口罩出門”成為常態,對許多智能手機用戶來說,利用生物特徵解鎖或“Face ID解鎖”變成一大挑戰,因為口罩一旦遮住臉部特徵,辨識成功率勢必下降。
過去有很多網友分享,多輸幾次密碼,可以訓練Face ID,讓它記住主人戴口罩的樣貌。但這麼搞至少要花1周到幾個月時間,試錯從幾十到上千次,才能增加臉部辨識的些微成功率。
2020年iOS 13.5更新後,iPhone會檢測到試圖戴口罩使用Face ID的用戶,並立刻提示用戶輸入密碼。
2021年iOS 14.5和watchOS 7.4發布後,蘋果增加了戴口罩用戶戴Apple Watch時解鎖iPhone的功能,這樣可以不再需要輸入密碼來代替。
然而,雖然”用Apple Watch解鎖”允許用戶在戴口罩時解鎖他們的設備,但其他依賴Face ID的功能如Apple Pay和應用內認證卻無法工作。
現在,當升級至iOS 15.4後,用戶可以直接在Face ID設定中發現新的口罩選項,點擊開啟後,戴著口罩的用戶重新“掃臉”設定一次Face ID,重新錄入一遍面部數據即可。
若用戶平常戴眼鏡,也有“添加眼鏡”的選項,協助用戶戴著眼鏡和口罩時能更準確地解鎖Face ID。用戶可以稍後添加眼鏡信息。蘋果公司允許每台手機註冊最多四副眼鏡。現在還可以在戴著口罩時驗證Apple Pay交易。
據已體驗者稱,目前來看,解鎖速度不受影響。
儘管如此,蘋果在設置應用程序中警告說,戴著口罩使用Face ID的安全性較低,生物識別系統在使用全臉識別時仍然”最準確”。要讓帶口罩的Face ID發揮作用,必須看著設備才能讓它解鎖,而且戴著墨鏡時,它不能發揮作用。
舊蘋果設備沒法用的原因:芯片還是傳感器?
此項功能,現在僅限iPhone 12及更高版本的iPhone用戶使用,iPad Pro用戶也不能用。
按蘋果的說法,為了讓Face ID在用戶戴口罩時也能起作用,他們開發了新的算法,經過訓練可以識別眼睛區域周圍的區域來解鎖用戶的設備。這些新算法新功能得依托“TrueDepth攝像頭系統的相關改進”。
這個語焉不詳的官方解釋讓果粉網站與科技媒體要么束口不言、要么猜測紛紛。
現有的最合理猜測集中於兩種:要么是新功能必須基於iPhone 12及以上的新芯片,要么就必須基於2021年TrueDepth系統光學器件的新專利。
有關芯片的猜測,Reddit的果粉板塊上,有人說得很有道理:“如果全臉掃描識別需要使用一定量的時間、算力等處理資源,然後處理部分臉部掃描識別的還是同等量資源的話,那麼算法必定要在識別全臉掃描時忽略的小細節上投入更多算力。”
如此辦法自然會對芯片性能有下限要求。而且這有前例:2021年iOS 15推出時,就有多種新功能至少需要手機配備A12芯片。
考慮到先例,“口罩版Face ID”只能用於iPhone 12及以上,很可能是因為改進後的面部識別算法至少要用到蘋果A14與A15仿生芯片的性能與算力,而這兩款芯片正好是專屬於iPhone 12、13,iPad Air第4代與mini第6代的。
還有人從蘋果官方解釋的字面去理解:要依賴TrueDepth系統的改進,那應該是攝像頭、激光衍射系統這些組件上的新動作。
別說,TrueDepth系統還真有過最近才有的專利改進。
2021年1月蘋果放風開搞、2021年美國專利局公佈的TrueDepth系統新專利,號稱能改善Face ID的3D構圖功能,將用於現有產品與未來的智能眼鏡、混合現實(MR)頭套等產品。
具體而言,專利裡的新技術著重改善一種弊端:垂直腔面發射激光器(VCSEL)的過量發熱與散熱不均,降低給定供能下的激光輻射質量。
蘋果的新專利重新配置了光電子器件的結構,通過改變發射器散焦陣列、光學元件、散熱結構等器件佈局,既提高了激光散焦衍射的功效,又提高了散熱功能、降低了熱輻射干擾。
Face ID如何起效?
2017年,蘋果Face ID技術初現時,工作原理就已被詳解過:
先用泛光感應組件照亮用戶的臉部,獲取2D紅外照片。
紅外激光生成器射出激光束,通過點陣投影器進行衍射,獲得必需的散斑圖案。2017年的iPhone X就能投射3萬個此類光點。
這些散斑有高度隨機性,還會隨著距離差異來變換圖案。只要在空間內打上這樣的結構光,相當於空間已經被細分、每個區域都做了標記。
只要測繪對象進入此空間,用紅外鏡頭把空間的散斑圖案記錄下來,與之前2D紅外照片的基準標定進行對比計算,就能獲取到當前物體每個細點與手機的具體景深距離,從而獲取物體的形狀信息、構建出3D精確模型。
將紅外圖像和3D模型發送到處理器中,由AI生成數學表達式,與之前註冊的面容數據比對後,就會得出識別結果。
此技術帶來了在當時無與倫比的含有效信息的圖像分辨率,而且能以提高光點數目、創建更精細的3D面部模型提高安全性。
這些計算量在當時必須要用蘋果A11芯片的神經生物引擎,通過神經網絡技術來進行機器學習和算法優化。才能做到隨用戶使用更新內部存儲的面部識別數據、讓識別基準與用戶本人面部變化基本同步等等功能。
時移世易,三五年間,當時的尖端技術就落伍到鞋底泥一樣,跑不動新功能了。更慘的是,即使到現在,小編還是買不起iPhone……