1. 核心問題:iToF相機的“景深”死穴
我們之前已經詳細討論過,iToF相機的“景深”(有效測量范圍)受到光學散焦的嚴重制約。
- 問題根源:?當iToF相機的鏡頭散焦時,來自場景不同深度的光信號會在傳感器像素上發生混合(信號污染/Optical Crosstalk)。
- 后果:?傳感器像素測量的不再是單一深度的純凈相位信息,而是一個被污染的、錯誤的平均相位。這會導致在深度邊緣產生**“飛點”(Flying Pixels)和嚴重的深度測量誤差**。
- 傳統困境:
- 大光圈(如f/1.4):?進光量大,信噪比高,適合遠距離或暗光環境。但光學景深極淺,散焦問題非常嚴重。
- 小光圈(如f/8.0):?光學景深大,散焦問題緩解。但進光量急劇減少,導致信噪比極低,在遠距離或暗光下幾乎無法工作。
這個“景深-信噪比”的矛盾,是所有iToF相機在設計時都必須面對的、無法兩全其美的根本性權衡。
2. 本文解決方案:EDoF-ToF 硬件-軟件協同系統
這篇文章提出的EDoF-ToF系統,旨在徹底打破上述的權衡關系,實現一個**既有大光圈(高信噪比),又能抵抗散焦(大有效景深)**的iToF相機。
其核心思想與EDoF投影儀一脈相承,但應用在成像端:
硬件端:學習一個“深度不變”的成像PSF
- 定制的衍射光學元件 (DOE):?他們在iToF相機的鏡頭前,放置了一塊經過特殊設計的DOE。這個DOE的作用,是對進入相機的光場進行相位調制。
- AI設計DOE:?同樣地,他們建立了一個端到端的可微分模型,該模型模擬了光線從場景發出 -> 通過DOE和鏡頭 -> 在傳感器上形成點擴散函數(PSF)的全過程。
- 優化目標:?優化的目標是讓這個PSF具備兩個關鍵特性:
- 深度不變性 (Depth-invariance):?PSF的形狀不隨物體的遠近而發生劇烈變化。
- 緊湊性 (Compactness):?PSF的能量要盡可能集中,不能過度彌散,以免過度降低對比度。
- 最終產物:?AI最終設計出的DOE,能將傳統鏡頭隨深度變化的“高斯狀”模糊PSF,轉換成一個在很大深度范圍內都保持形態一致的、經過編碼的“工程化PSF”(Engineered PSF)。
軟件端:利用PSF先驗知識進行解碼
由于光學硬件產生的PSF是已知且深度不變的,軟件算法就可以利用這個強大的先驗信息來“解開”信號污染。
- 建立前向模型:?他們建立了一個精確的物理模型,描述了場景的真實深度和反射率,在經過這個已知的、深度不變的PSF模糊后,會如何在iToF傳感器上產生測量的原始相關數據(相位、幅度和偏移量)。
- 反問題求解 (Inverse Problem):?深度重建過程就變成了一個求解反問題的過程。算法的任務是:“尋找一個什么樣的真實場景(深度圖和反射率圖),在經過我們設計的EDoF光學系統成像后,會產生我們實際測量到的這些被‘編碼污染’的數據?”
- 高效重建網絡:?他們設計了一個輕量級的神經網絡,該網絡學習如何高效地執行這個反演過程,從傳感器讀出的原始數據中,同時恢復出無失真的深度圖和清晰的反射率(幅度)圖。
3. 核心創新與實驗效果
打破權衡: 實驗結果驚人。他們的EDoF-ToF系統原型,使用了一個f/1.4的大光圈鏡頭,但在深度測量的準確性上,卻媲美甚至超越了使用f/8.0小光圈的傳統ToF相機。這意味著,它在享受大光圈帶來的高信噪比(進光量是f/8的32倍!)的同時,幾乎完全免疫了光學散焦帶來的深度誤差。
全場景魯棒性:
- 復雜邊緣:?在人和背景、物體和桌面的復雜邊緣處,傳統ToF相機產生了大量的飛點和扭曲,而EDoF-ToF系統恢復的邊緣則干凈利落,深度準確。
- 細小結構:?對于場景中的細小物體(如欄桿),傳統大光圈ToF相機由于散焦,幾乎無法分辨其深度,而EDoF-ToF則能清晰地重建其三維結構。
- 全深度范圍:?從幾十厘米的近處到數米的遠處,系統都能保持很高的深度精度。
4. 分析與意義
這篇文章是計算成像領域**“軟硬件協同設計”**思想的又一個巔峰之作,其意義深遠:
解決了iToF的核心痛點: 它從根本上解決了困擾iToF相機多年的“景深-信噪比”矛盾,為設計新一代高性能iToF傳感器指明了方向。
極大的應用價值:
- 自動駕駛LiDAR:?未來的車載LiDAR可以采用更大光圈的光學設計,從而看得更遠、更清楚,同時不必擔心近處物體的深度失真問題。這對于探測遠處的微小障礙物和處理近處的復雜場景(如行人、自行車)至關重要。
- AR/VR頭顯:?用于手勢追蹤和環境感知的iToF相機可以做得更小、更省電(因為進光效率高),同時精度更高,帶來更流暢、更真實的交互體驗。
- 機器人和無人機:?在復雜的室內或室外環境中,機器人可以更可靠地進行導航和避障,因為它獲得的深度信息更加干凈和準確。
- 消費電子:?手機上的ToF相機可以實現更精準的人像虛化、更逼真的3D掃描。
范式引領: 它再次證明,通過AI設計傳統光學無法實現的“不可能”光學元件(Computational Optics),再結合匹配的解碼算法,是突破現有成像系統物理極限的最有效途徑。這種“端到端聯合優化”的范式,將持續引領未來光學和成像系統的發展。
結論: 《EDoF-ToF》這篇文章通過將創新的大景深計算光學與ToF深度感知相結合,打造出了一款性能遠超傳統設計的iToF相機原型。它不僅在學術上展示了計算成像的強大威力,更在工程上為解決自動駕駛、AR/VR等關鍵領域的實際問題提供了一個極具潛力的解決方案,是2024年ToF成像領域最值得關注的突破之一。