I/O 2021:谷歌升級Android增強現實API 帶來更具沉浸感的使用體驗
作為谷歌力推的增強現實平台,ARCore已在全球超過8.5億部Android智能機上得到採用。而在今天開幕的I/O 2021開發者大會期間,這家科技巨頭又宣布了ARCore的一些重要功能升級。據悉,與需要專門硬件的Project Tango等項目不同,ARCore可藉助手機現有的硬件和傳感器來收集深度、光線、以及運動追踪等信息,以幫助開發者構建交互式的AR體驗。
自發布以來,Google 一直在穩步改進ARCore 的功能集合,且不斷突破了AR 應用程序開發者可在常規Android 智能機硬件平台上實現相關功能的局限性。
比如去年發布的ARCore Depth API,就允許開發者藉助RGB 相機傳感器來生成深度圖,並帶來逼真的AR 體驗。
今天,該公司又在ARCore 的武器庫中添加了兩款新工具,分別是原始深度(Raw Depth)和錄製與回放(Recording and Playback)API 。
前者建立在此前的Depth API 基礎上,可通過深度信息與對應的信心圖像映射,來提供有關周圍環境物體的更詳細表述。
深度API 專注於生成具有所欲像素深度估值的平滑深度圖,而Raw Depth 旨在利用提供每個像素深度估值的置信度圖像,來捕獲更加逼真的深度圖。
ARCore Raw Depth API
另一項改進是命中測試,其現使用深度(而不是平面)圖。即使在非平面和低紋理的地板上,也能夠提供更多的hit-test 結果。
比如TeamViewer 的LifeAR 應用程序,就利用了深度命中測試方案,將AR 功能集成到了視頻通話應用場景中。
這些新改進無需借助飛行時間(ToF)之類的專用傳感器硬件,因而能夠在絕大多數獲得ARCore 認證的設備上實現,感興趣的開發者可於即日起上手體驗。
ARCore Recording and Playback API
然後是ARCore 新迎來的錄製與回放API,該應用程序接口為需要測試不同AR 體驗的開發者們提供了更大的靈活性。
通常情況下,AR 開發者必須在特定的環境和位置下開展持續測試。但在新API 的幫助下,開發者現能夠採取包括深度和IMU 運動傳感器信息等在內的AR 元數據。
通過重用這些視頻素材,開發者能夠方便地在相同環境中展開進一步測試。只需一次錄製,即可將之用於測試其它AR 效果和體驗的模板,而無需每次都拍攝新的素材。
舉個例子,滴滴打車(Didi-Rider)就利用了該API 來構建和測試基於AR 的虛擬標識指引功能。這不僅幫助該公司節省了25% 的研發費用,還將開發週期縮短了六個月。
對於最終用戶來說,該API 還能帶來新穎的AR 體驗。比如能夠將之前錄製的視頻提交給AR 特效應用程序,而無需呆呆站在同一位置並啟用實時的攝像頭會話。