斯坦福大學利用人工智慧使全息顯示器看起來更真實
因能提供沉浸式體驗,AR(增強現實)和VR(虛擬實境)頭顯因此受到了不少消費者的青睞。 不過在未來,全息顯示器會進一步增強沉浸體驗,讓我們不需要藉助頭顯就能感受到立體存在。 結合在光學和人工智慧方面的專業知識,斯坦福大學計算成像實驗室在全息顯示器方面有了新突破。
他們在這一領域的最新進展詳見今天(2021 年 11 月 12 日)發表在《科學進展》上的一篇論文,以及將在 12 月的 SIGGRAPH ASIA 2021 上展示的工作。
這項研究的核心是面對這樣一個事實:目前的增強現實和虛擬實境顯示器只向觀眾的每隻眼睛顯示二維圖像,而不是像我們在現實世界中看到的三維或全息圖像。
電氣工程副教授、斯坦福大學計算成像實驗室負責人戈登·韋茨坦解釋說:”它們在感知上並不現實。 韋茨坦和他的同事們正在努力提出解決方案,以彌合類比和現實之間的差距,同時創造出視覺上更吸引人、更容易入眼的顯示器”。
發表在《科學進展》上的研究詳細介紹了一種減少普通鐳射全息顯示器中經常出現的斑點失真的技術,而 SIGGRAPH Asia 的論文則提出了一種技術,可以更真實地表現出如果在現實世界中存在的 3D 場景所適用的物理學。
在過去的幾十年裡,現有的全息顯示器的圖像品質一直很有限。
一個問題是很難以全息圖的解析度控制光波的形狀。 阻礙創造高品質全息顯示器的另一個主要挑戰是克服類比中發生的事情與同一場景在真實環境中的樣子之間的差距。
以前,科學家們曾試圖創建演算法來解決這兩個問題。 韋茨坦和他的同事們也開發了演算法,但他們使用的是神經網路,這是一種人工智慧的形式,試圖模仿人腦學習資訊的方式。 他們把這稱為「神經全息」。
韋茨坦表示:「人工智慧已經徹底改變了工程和其他領域的幾乎所有方面。 但在全息顯示或計算機生成的全息術這個特定領域,人們才剛剛開始探索人工智慧技術”