論文Review 3DGS PGSR | TVCG2024 ZJU-3DV | 幾何約束的3DGS表面重建

基本信息

題目:PGSR: Planar-based Gaussian Splatting for Efficient ?and High-Fidelity Surface Reconstruction

來源:TVCG2024

學校:ZJU-3DV

是否開源:https://github.com/zju3dv/PGSR

摘要:3DGS表面重建

????????最近,3D高斯拋雪球( 3DGS )由于其高質量的渲染效果以及超快的訓練和渲染速度引起了廣泛的關注。然而,由于高斯點云的非結構化和不規則性,單純依靠圖像重建損失難以保證幾何重建精度和多視圖一致性。盡管最近出現了許多基于3DGS的曲面重建研究,但其網格質量普遍不盡人意。為了解決這個問題,我們提出了一種快速的基于平面的高斯散點重建表示( PGSR ),在保證高質量渲染的同時實現了高保真的表面重建。 具體來說,我們首先介紹一種無偏深度渲染方法,該方法基于點云的高斯分布直接繪制相機原點到高斯平面的距離和對應的法線圖,并將兩者相除得到無偏深度。然后我們介紹了單視圖幾何,多視圖photometric和幾何正則化以保持全局幾何精度。我們還提出了一種相機曝光補償模型來應對光照變化較大的場景。在室內和室外場景上的實驗表明,該方法在保持高保真渲染和幾何重建的同時,實現了快速的訓練和渲染,優于基于3DGS和NeRF的方法。

Introduction

????????論文針對新型視圖合成(Novel View Synthesis)和幾何重建(Geometry Reconstruction)問題,這些在AR/VR、3D內容生成和自動駕駛中至關重要。傳統NeRF(Neural Radiance Fields)方法渲染質量高但訓練和渲染慢(需數小時至數百小時)。3DGS通過顯式3D高斯點云實現分鐘級訓練和毫秒級渲染,但高斯點云的無結構性和不規則性導致幾何重建精度差,無法保證多視圖一致性。

問題與挑戰

  • 3DGS僅依賴圖像重建損失,易陷入局部最優,高斯無法貼合真實表面。
  • 現有3DGS-based表面重建(如SuGaR)網格質量差,無法提取平滑表面。
  • 需要在保持渲染質量和速度的同時,提升幾何精度。

主要貢獻

  • 提出無偏深度渲染方法:將3D高斯壓縮為平面,渲染平面參數(距離和法線),轉換為無偏深度,促進幾何約束引入。
  • 引入單視圖和多視圖正則化:優化每個像素的平面參數,實現全局幾何一致性。
  • 曝光補償模型:處理光照變化大的場景,提升重建精度。
  • 實驗證明:在保持3DGS渲染質量和速度的前提下,實現SOTA幾何重建精度,訓練時間比NeRF-based方法快100倍。

方法概述如圖4所示:壓縮高斯為平面,渲染距離/法線/深度圖;引入幾何和光度正則化;曝光補償RGB損失。

Related Works

論文回顧了表面重建的歷史,從傳統方法到神經方法,再到基于高斯的最新進展。

傳統表面重建

  • 基于點云、體素或深度圖的多視圖立體(MVS)Pipeline。【時間太久遠的文獻就不寫出來了】
  • 使用塊匹配【PatchMatch】提取稠密點云,然后三角化或隱式表面擬合。
  • 缺點:易受噪聲影響,后續方法(如[PatchMatchNet])整合深度網絡提升匹配精度。

神經表面重建

  • 早期端到端方法使用點云、體素或網格/隱式場,但計算開銷大,需要大量標注數據。
  • NeRF-based方法通過體渲染實現高保真視圖合成,但表面捕捉差。
  • 改進:引入占用場或符號距離場(SDF);分解場景為點(如[Point-NeRF])或體素(如[Vox-surf,Neuralangelo),減少MLP依賴。
  • 缺點:訓練慢(需數天,多GPU)。

基于3DGS的表面重建

  • SuGaR :從3DGS提取網格,通過正則化鼓勵高斯貼合表面,從密度場采樣點云,用Poisson重建網格。但依賴偏置深度,表面不平滑。
  • 同期工作:2DGS 將3D高斯壓縮為2D盤,實現多視圖一致幾何;GOF 形成高斯不透明場,從水平集提取幾何。
  • 缺點:這些方法深度不精確,多視圖一致性差。PGSR通過平面渲染和正則化解決這些問題。

III. PRELIMINARY OF 3D GAUSSIAN SPLATTING

3DGS的基礎知識,總結的很好,就放在這了。

Method

A. Planar-based Gaussian Splatting Representation

關鍵概念:

  • 傳統3DGS使用3D高斯橢球體表示場景,但難以精確建模幾何屬性(如深度和法向量),因為橢球體形狀不貼合實際表面。
  • 解決方案:將3D高斯“扁平化”(flatten)為2D平面高斯,使其更好地擬合場景表面。平面高斯近似局部平面,便于渲染深度和法向量。
  • 優勢:渲染的深度與平面形狀一致,避免幾何沖突;消除權重累積影響,實現無偏深度(見Fig. 6)。

Flattening 3D Gaussian(扁平化3D高斯):

[9] Hanlin Chen, Chen Li, and Gim Hee Lee. Neusg: Neural implicit surface reconstruction with 3d gaussian splatting guidance. arXiv preprint arXiv:2312.00846, 2023.

Unbiased Depth Rendering(無偏深度渲染):

B. Geometric Regularization

這一節引入幾何正則化,確保3D高斯貼合實際表面。分為單視圖和多視圖正則化。

1) Single-View Regularization(單視圖正則化):

[24] Yingwenqi Jiang, Jiadong Tu, Yuan Liu, Xifeng Gao, Xiaoxiao Long, Wenping Wang, and Yuexin Ma. GaussianShader: 3D Gaussian Splatting with Shading Functions for Reflective Surfaces. arXiv preprint arXiv:2311.17977, 2023.

[37] Xiaoxiao Long, Yuhang Zheng, Yupeng Zheng, Beiwen Tian, Cheng Lin, Lingjie Liu, Hao Zhao, Guyue Zhou, and Wenping Wang. Adaptive Surface Normal Constraint for Geometric Estimation from Monocular Images. arXiv preprint arXiv:2402.05869, 2024.

[50] Xiaojuan Qi, Renjie Liao, Zhengzhe Liu, Raquel Urtasun, and Jiaya Jia. Geonet: Geometric neural network for joint depth and surface normal estimation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 283–291, 2018.

2) Multi-View Regularization(多視圖正則化):

[4] Neill DF Campbell, George Vogiatzis, Carlos Herna ?ndez, and Roberto Cipolla. Using multiple hypotheses to improve depth-maps for multiview stereo. In Computer Vision–ECCV 2008: 10th European Conference on Computer Vision, Marseille, France, October 12-18, 2008, Proceedings, Part I 10, pages 766–779. Springer, 2008.

[15] Qiancheng Fu, Qingshan Xu, Yew Soon Ong, and Wenbing Tao. Geoneus: Geometry-consistent neural implicit surfaces learning for multiview reconstruction. Advances in Neural Information Processing Systems, 35:3403–3416, 2022.

[52] Johannes L Schonberger and Jan-Michael Frahm. Structure-from-motion revisited. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 4104–4113, 2016.

3) Geometric Regularization Loss(幾何正則化損失):

C. Exposure Compensation Image Loss

D. Training

整體方法評價:

  • 創新:無偏深度渲染解決傳統3DGS幾何沖突;多層次正則化實現全局一致;曝光補償提升實際場景魯棒性。
  • 潛在局限:依賴高質量位姿;計算開銷可能高于純3DGS(多視圖計算)。
  • 與參考文獻關聯:構建于3DGS基礎上,融入MVS、NeRF元素(如Eikonal損失提及但未用)。實驗(Fig. 7)顯示優于基線。

實驗

硬件平臺

????????所有實驗在NVIDIA RTX 4090 GPU上運行,訓練迭代次數固定為30,000次,使用AbsGS的致密化策略,并采用TSDF Fusion算法從渲染深度生成網格。

數據集

  • 數據集
    • Mip-NeRF360 :用于評估新視圖合成性能,包含室內外復雜場景。
    • DTU :15個物體中心場景,用于評估重建質量。
    • TnT [28]:大型復雜場景,用于評估重建質量。
  • 評估標準
    • 渲染質量:PSNR(峰值信噪比,↑越高越好)、SSIM(結構相似性指數,↑越高越好)、LPIPS(學習感知圖像補丁相似性,↓越低越好)。
    • 表面質量:F1分數(↑越高越好)和Chamfer距離(↓越低越好)。

[28] Arno Knapitsch, Jaesik Park, Qian-Yi Zhou, and Vladlen Koltun. Tanks and temples: Benchmarking large-scale scene reconstruction. ACM Transactions on Graphics (ToG), 36(4):1–13, 2017.

Benchmark

[20] Peter Hedman, Julien Philip, True Price, Jan-Michael Frahm, George Drettakis, and Gabriel Brostow. Deep blending for free-viewpoint imagebased rendering. ACM Transactions on Graphics (ToG), 37(6):1–15, 2018.

[45] Thomas M ?uller, Alex Evans, Christoph Schied, and Alexander Keller. Instant neural graphics primitives with a multiresolution hash encoding. ACM transactions on graphics (TOG), 41(4):1–15, 2022.

[2] Jonathan T Barron, Ben Mildenhall, Matthew Tancik, Peter Hedman, Ricardo Martin-Brualla, and Pratul P Srinivasan. Mip-NeRF: A multiscale representation for anti-aliasing neural radiance fields. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 5855–5864, 2021.

[57] Peng Wang, Lingjie Liu, Yuan Liu, Christian Theobalt, Taku Komura, and Wenping Wang. Neus: Learning neural implicit surfaces by volume rendering for multi-view reconstruction. arXiv preprint arXiv:2106.10689, 2021.

A. Real-time Rendering(實時渲染)

這一部分在Mip-NeRF360數據集上驗證渲染質量,與純新視圖合成方法(如NeRF 、Deep Blending [20]、INGP [45]、Mip-NeRF360 [2]、NeuS [57])和類似重建方法(如3DGS 、SuGaR 、2DGS 、GOF )比較。

  • 定量結果(Table I)
    • 室內場景:PGSR的PSNR為30.41、SSIM為0.930、LPIPS為0.161。相比3DGS (PSNR 30.99, SSIM 0.926, LPIPS 0.199),PGSR在SSIM和LPIPS上略優,但PSNR稍低;優于SuGaR (PSNR 29.44, SSIM 0.911, LPIPS 0.216)和2DGS (PSNR 30.39, SSIM 0.923, LPIPS 0.183);接近GOF (PSNR 30.80, SSIM 0.928, LPIPS 0.167)。
    • 室外場景:PGSR的PSNR為24.45、SSIM為0.730、LPIPS為0.224。優于3DGS (PSNR 24.24, SSIM 0.705, LPIPS 0.283)、SuGaR (PSNR 22.76, SSIM 0.631, LPIPS 0.349)和2DGS (PSNR 24.33, SSIM 0.709, LPIPS 0.284);略遜于GOF (PSNR 24.76, SSIM 0.742, LPIPS 0.225)。
    • 所有場景平均:PGSR的PSNR為27.43、SSIM為0.830、LPIPS為0.193。整體優于3DGS (PSNR 27.24, SSIM 0.803, LPIPS 0.246)、SuGaR (PSNR 26.10, SSIM 0.771, LPIPS 0.283)和2DGS (PSNR 27.03, SSIM 0.804, LPIPS 0.239);略遜于GOF (PSNR 27.78, SSIM 0.835, LPIPS 0.196)。
    • 分析:PGSR在渲染質量上接近SOTA方法,同時提供優秀的表面重建。表中用紅色、橙色、黃色標記最佳、次佳和第三佳結果,PGSR在多個指標上排名前列。
  • 定性結果(Fig. 5):展示了Mip-NeRF360上的渲染比較。PGSR的表面重建更平滑、細節更豐富,與GOF類似,但優于3DGS和SuGaR(后者存在浮動偽影)。

總體而言,PGSR實現了高保真渲染,同時保持表面重建優勢。

B. Reconstruction(重建)

在DTU和TnT數據集上與神經表面重建方法(如NeuS [57]、Geo-NeuS [15]、VolSDF [61]、NeuralAngelo [33])和3DGS-based方法(如SuGaR、2DGS、GOF)比較。

  • DTU數據集(Table II)
    • Chamfer距離(mm,↓):PGSR平均為0.49(全分辨率)、0.53(下采樣DS版本)。優于NeuralAngelo (0.61)、GOF (0.74)、2DGS (0.80)、NeuS (0.84)、VolSDF (0.86)、SuGaR (1.33)。
    • 訓練時間:PGSR為1.0小時(DS為0.6小時),遠快于NeuralAngelo (>128小時)和NeuS/VolSDF (>12小時);略慢于2DGS (0.32小時),但精度更高。
    • 具體場景:在scan24、37、40等15個場景中,PGSR在多數場景(如scan24: 0.36)取得最低Chamfer距離,表明重建精度最高。
    • 分析:PGSR實現了最高重建精度和相對快速訓練。Fig. 7展示了定性比較:PGSR表面更平滑、細節更豐富(如物體邊緣),優于SuGaR(粗糙)和2DGS(不完整)。
  • TnT數據集(Table III)
    • F1分數(↑):PGSR平均為0.68。接近NeuralAngelo (0.70),優于GOF (0.66)、2DGS (0.65)、SuGaR (0.62)、NeuS (0.55)等。
    • Chamfer距離(↓):PGSR平均為1.25。優于SuGaR (1.85)、2DGS (1.45),接近GOF (1.20)和NeuralAngelo (1.15)。
    • 訓練時間:PGSR為1.0小時,遠快于NeuralAngelo (>100小時)。
    • 分析:PGSR的F1分數與NeuralAngelo相似,但訓練速度快100倍以上,且重建更多表面細節。Fig. 8展示了TnT上的定性結果:PGSR在復雜場景(如建筑物)中產生更完整的幾何結構,減少了噪點和空洞。

總體結果(Fig. 5、7、8、Table II、III):PGSR在重建精度上顯著優于其他3DGS-based方法,并在大型場景中表現出色。

初體驗

TODO

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/97352.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/97352.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/97352.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

最新After Effects2025下載安裝(含安裝包)AE 2025 保姆級下載一鍵安裝圖文教程

文章目錄一、After Effects 2025下載二、After Effects 2025安裝教程三、核心功能升級詳解四、系統配置與兼容性說明一、After Effects 2025下載 ①夸克網盤下載鏈接:https://pan.quark.cn/s/a06e6200e64c 二、After Effects 2025安裝教程 1.解壓安裝包:找到下載…

【網絡安全領域】邊界安全是什么?目前的發展及應用場景

在網絡安全領域,邊界安全(Perimeter Security) 是指圍繞企業或組織網絡的 “物理與邏輯邊界” 構建的防護體系,核心目標是阻止未授權訪問從外部網絡(如互聯網、合作方網絡)侵入內部可信網絡,同時…

虛擬機快照對內存與磁盤空間的影響

核心概念:快照是什么?虛擬機快照捕獲的是在某個特定時間點上虛擬機的完整狀態。這包括:磁盤狀態:虛擬磁盤的數據。內存狀態:當時虛擬機內存中的所有內容(如果選擇)。配置狀態:虛擬機…

免費開源的 Gemini 2.5 Flash 圖片生成器

免費開源的 Gemini 2.5 Flash 圖片生成器:gemini-nano-banana 項目詳解 在 AI 圖片生成領域,大多數工具要么收費昂貴,要么需要復雜的配置。今天為大家介紹一個完全免費開源的解決方案——gemini-nano-banana,一個基于 Google Gemi…

介紹分布式事務之Seata

簡介 Seata 是一款開源的分布式事務解決方案,致力于提供高性能和簡單易用的分布式事務服務。Seata 將為用戶提供了 AT、TCC、SAGA 和 XA 事務模式,為用戶打造一站式的分布式事務解決方案。 🚀 一、Seata 的四種主要模式 Seata 提供的分布式事…

安卓/ios按鍵精靈腳本開發工具:OpenCV.FindImgAll命令介紹

函數名稱OpenCV.FindImgAll 找圖返回全部結果函數功能使用OpenCV多尺度模板找圖,返回全部結果與FindPic的區別:OpenCV找圖:基于特征相似性的找圖,允許一定幾何形變或顏色差異,從而提高多分辨率容兼及抗干擾能力&#x…

Linux時間處理函數

gettimeofday 是 Linux 系統中一個用于獲取當前時間的系統調用函數。它能夠獲取從 Unix 紀元&#xff08;1970年1月1日 00:00:00 UTC&#xff09;到當前時刻的秒數和微秒數。函數原型#include <sys/time.h>int gettimeofday(struct timeval *tv, struct timezone *tz);參…

C++ 面試高頻考點 力扣 34. 在排序數組中查找元素的第一個和最后一個位置 二分查找左右端點 題解 每日一題

文章目錄二分查找進階&#xff0c;精準定位左右邊界題目描述先踩坑&#xff1a;樸素二分為什么搞不定重復元素&#xff1f;第一步&#xff1a;找左邊界——如何定位“第一個target”&#xff1f;第二步&#xff1a;找右邊界——如何定位“最后一個target”&#xff1f;完整代碼…

在word以及latex中引用zotero中的參考文獻

背景 如何在word以及latex中引用zotero中的參考文獻 歷史參考 恢復Zotero軟件內的誤刪條目數據/文獻-CSDN博客使用zotero保存 CNKI知網文章時發生錯誤。改為嘗試用 Save as Webpage 保存。-CSDN博客 word 在word中引用zotero中的參考文獻 打開word&#xff0c;點擊引用 經典…

docker 部署Skywalking

創建網絡 docker network create skywalking-network docker compose 安裝SkyWalking docker-compose.yaml 文件 version: "3" services:# SkyWalking OAP server with Elasticsearch storageskywalking-oap:image: apache/skywalking-oap-server:8.9.0container…

動態UI的秘訣:React中的條件渲染

動態UI的秘訣&#xff1a;React中的條件渲染 作者&#xff1a;碼力無邊各位React探險家&#xff0c;歡迎回到我們的《React奇妙之旅》&#xff01;我是你們的老朋友碼力無邊。在之前的旅程中&#xff0c;我們已經學會了如何創建組件、傳遞數據&#xff08;Props&#xff09;、管…

ubuntu掛載外接硬盤

查看找到硬盤sudo fdisk -l例如&#xff1a;名字為&#xff1a;/dev/sda創建掛載點sudo mkdir -p /2TSSD手動掛載&#xff08;單次生效&#xff0c;關機會失效&#xff09;sudo mount /dev/sda1 /2TSSD開機自動掛載&#xff08;永遠生效&#xff0c;關機會失效&#xff09;S1&a…

數學思想 | 數學思維過程對象封裝

注&#xff1a;本文為 “數學思維過程對象封裝” 相關譯文。 英文引文&#xff0c;機翻未校。 略作重排&#xff0c;如有內容異常&#xff0c;請看原文。 What is the object of the encapsulation of a process? 過程封裝的對象是什么&#xff1f; David Tall#, Michael Th…

常見視頻封裝格式對比

一、核心概念&#xff1a;封裝格式 vs 編碼格式 編碼格式 (Codec): 例如 H.264, H.265 (HEVC), AV1, VP9。它負責對原始視頻和音頻數據進行壓縮&#xff0c;是決定視頻體積和清晰度的關鍵。封裝格式 (Container): 例如 MP4, MKV, AVI。它負責將已經壓縮好的視頻、音頻、字幕等打…

Java實現PDF表格轉換為CSV

在很多企業辦公和數據分析的場景中&#xff0c;PDF 中常常存放著報表、清單或統計數據。相比 PDF&#xff0c;CSV 文件 更易于在 Excel 或數據庫中進行進一步處理。因此&#xff0c;我們常常需要一種方式&#xff0c;將 PDF 中的表格數據批量抽取并導出為 CSV 文件。 本文將介…

具有類人先驗知識的 Affordance-覺察機器人靈巧抓取

25年8月來自武漢大學、阿里達摩院、湖畔研究中心、浙大和清華的論文“Towards Affordance-Aware Robotic Dexterous Grasping with Human-like Priors”。 能夠泛化抓取目標的靈巧手是開發通用具身人工智能的基礎。然而&#xff0c;之前的方法僅僅關注低級抓取穩定性指標&#…

項目管理的關鍵成功因素

項目管理的關鍵成功因素包括&#xff1a;目標明確、科學規劃、有效溝通、資源保障、風險管理、團隊協作、持續監控與總結改進。目標明確保證方向不偏移、科學規劃確保執行有章可循、有效溝通減少誤解與沖突、資源保障提供堅實支撐、風險管理幫助預防問題、團隊協作提升整體效率…

[光學原理與應用-338]:ZEMAX - Documents\Zemax\Samples

Documents\Zemax\Samples 是 Zemax OpticStudio 軟件自帶的樣例文件目錄&#xff0c;包含大量預設的光學設計案例&#xff0c;涵蓋鏡頭設計、照明系統、公差分析、非序列光學等多個領域。這些樣例是學習軟件功能、驗證設計方法和快速啟動項目的寶貴資源。以下是該目錄的詳細解析…

el-table合并列實例

想要實現效果&#xff1a;目前接口返回數據data:[{companyCode: "NXKYS",companyName:1123,costContractId:1123,costContractName:1123,createBy:1123,details:[{brand:1123,contractItemName:1123,modelSpec:1123,projectItemId:1123,requestQty:1123,transactionZ…

虛假 TradingView Facebook 廣告在全球傳播 Android 間諜軟件

一項快速發展的惡意廣告活動最初通過 Meta 的廣告網絡針對 Windows 用戶&#xff0c;現已將其范圍擴展到 Android 設備&#xff0c;推廣偽裝成合法交易應用程序的 Brokewell 惡意軟件的高級版本。 Bitdefender Labs 警告稱&#xff0c;此次移動攻擊活動目前已在全球范圍內展開…