国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

《現(xiàn)代電影技術(shù)》|顧險峰:人工智能背景下三維掃描與曲面重建技術(shù)進展及其應(yīng)用研究

0
分享至

本文刊發(fā)于《現(xiàn)代電影技術(shù)》2025年第6期

專家點評

三維掃描與曲面重建技術(shù)是影視制作、數(shù)字孿生、數(shù)字資產(chǎn)創(chuàng)建、數(shù)字文化遺產(chǎn)保護等領(lǐng)域的核心支撐技術(shù)。人工智能(AI)特別是深度學(xué)習(xí)技術(shù)的發(fā)展進步為三維掃描與曲面重建提供了新引擎和新動能,通過應(yīng)用AI前沿算法和開展定制研發(fā)應(yīng)用,有力驅(qū)動三維掃描與曲面重建技術(shù)創(chuàng)新發(fā)展、快速迭代和提質(zhì)升級,使三維掃描與曲面重建的精度、效率和真實感得到顯著提升?!度斯ぶ悄鼙尘跋氯S掃描與曲面重建技術(shù)進展及其應(yīng)用研究》一文從數(shù)據(jù)采集方法、曲面重建算法、技術(shù)性能與實現(xiàn)效率等視角,深入總結(jié)了三維掃描與曲面重建技術(shù)的最新進展和行業(yè)應(yīng)用,重點闡述了基于深度學(xué)習(xí)的相位展開、單視圖和多視圖重建、點云到網(wǎng)格重建等AI方法在推動三維掃描技術(shù)升級與曲面重建技術(shù)重構(gòu)方面相對于傳統(tǒng)方法的顯著優(yōu)勢,同時指出了AI方法面臨的發(fā)展挑戰(zhàn)、技術(shù)瓶頸和未來突破方向,對于推動智能時代三維掃描與曲面重建技術(shù)在影視文化領(lǐng)域發(fā)展應(yīng)用具有重要指導(dǎo)意義和應(yīng)用價值。人類社會向智能化演進升級是大勢所趨,電影科技工作者應(yīng)當(dāng)積極踐行國家科技自立自強發(fā)展戰(zhàn)略,緊密結(jié)合領(lǐng)域業(yè)務(wù)特征與發(fā)展需求,深入研究與應(yīng)用實踐人工智能生成內(nèi)容(AIGC)、語言大模型、視覺大模型和多模態(tài)大模型等相關(guān)技術(shù),研究制定2D/3D AIGC在電影制作生產(chǎn)和數(shù)字資產(chǎn)創(chuàng)建中的應(yīng)用方案。與此同時,現(xiàn)代智能科技也在不斷發(fā)展進步和創(chuàng)新升級,我們必須堅持與時俱進和知難而進,積極推進人工智能新型范式(AI for Science & AI for Engineering)在電影科研和工程領(lǐng)域的發(fā)展與應(yīng)用,有力支撐和服務(wù)電影全產(chǎn)業(yè)鏈的智能化升級。

——劉達(dá)

正高級工程師

中國電影科學(xué)技術(shù)研究所(中央宣傳部電影技術(shù)質(zhì)量檢測所)總工程師

《現(xiàn)代電影技術(shù)》主編

為深入研究影視制作等行業(yè)數(shù)字資產(chǎn)采集和模型搭建相關(guān)技術(shù),本文總結(jié)了三維掃描與曲面重建技術(shù)的最新進展,涵蓋激光雷達(dá)、結(jié)構(gòu)光掃描、攝影測量及飛行時間傳感器等傳統(tǒng)數(shù)據(jù)采集方法,以及泊松表面重建、德洛內(nèi)(Delaunay)三角剖分等經(jīng)典曲面重建算法。隨著人工智能(AI)技術(shù)的崛起,深度學(xué)習(xí)(DL)等AI方法顯著提升了三維重建的精度與效率,尤其在處理噪聲數(shù)據(jù)、復(fù)雜形狀及不完整數(shù)據(jù)方面表現(xiàn)出色。AI推動了單視圖與多視圖重建技術(shù)的革新,實現(xiàn)了從二維圖像到三維模型的精準(zhǔn)轉(zhuǎn)換,優(yōu)化了點云到網(wǎng)格的轉(zhuǎn)換流程,增強了重建模型的細(xì)節(jié)層次與渲染真實感。研究表明,結(jié)合AI的三維技術(shù)在數(shù)字孿生、影視制作、數(shù)字遺產(chǎn)保護等領(lǐng)域展現(xiàn)出巨大潛力,為相關(guān)領(lǐng)域的創(chuàng)新發(fā)展提供了有力支持。

關(guān)鍵詞

三維掃描;曲面重建;深度學(xué)習(xí);影視制作

1引言

在數(shù)字化浪潮推動下,三維掃描與曲面重建技術(shù)作為連接物理世界與數(shù)字世界的橋梁,正引領(lǐng)數(shù)字孿生(Digital Twin)、影視制作、數(shù)字遺產(chǎn)保護等多領(lǐng)域的技術(shù)應(yīng)用革新。三維掃描技術(shù)通過捕捉現(xiàn)實世界物體的三維數(shù)據(jù),為數(shù)字模型的構(gòu)建提供了基礎(chǔ),廣泛應(yīng)用于工業(yè)設(shè)計、城市建模、地形測繪等領(lǐng)域;曲面重建技術(shù)則將這些離散的數(shù)據(jù)點轉(zhuǎn)化為連續(xù)的網(wǎng)格或曲面模型,使數(shù)字模型更加逼真、可用。

隨著科技的進步,三維掃描與曲面重建技術(shù)不斷迭代升級,從激光掃描到結(jié)構(gòu)光掃描、攝影測量等,技術(shù)精度與效率不斷提升。人工智能(AI)技術(shù)的興起為相關(guān)領(lǐng)域帶來了新的發(fā)展機遇。通過深度學(xué)習(xí)(DL)等AI方法,使用者可更有效地處理三維數(shù)據(jù)中的噪聲、缺失和復(fù)雜結(jié)構(gòu),實現(xiàn)更高精度的重建。在數(shù)字孿生領(lǐng)域,三維掃描與重建技術(shù)用于對工業(yè)設(shè)備(如機器、管道、建筑物)進行高精度建模,生成數(shù)字孿生體,可用于實時監(jiān)控設(shè)備運行狀態(tài)、預(yù)測性維護以及虛擬仿真,從而實現(xiàn)對物理對象的全面管理和優(yōu)化。

在影視制作領(lǐng)域, 三維掃描技術(shù)捕捉演員的面部表情、服裝細(xì)節(jié)和道具外形,生成逼真的數(shù)字資產(chǎn);曲面重建技術(shù)可用于創(chuàng)建復(fù)雜的計算機生成動畫(Computer?Generated Imagery, CGI)角色和場景,助力創(chuàng)作者構(gòu)建出逼真的虛擬世界和角色,為觀眾帶來前所未有的視覺體驗。例如,對演員面部高分辨率三維掃描,可獲取高精度數(shù)據(jù)并生成真實感人物面部模型,有助于角色呈現(xiàn)。在動畫制作過程中,重建的網(wǎng)格模型可作為綁定(Rigging)和蒙皮(Skinning)的基礎(chǔ),用于生成角色動畫;點云數(shù)據(jù)提供的精準(zhǔn)運動捕捉信息,可用于捕捉真人動作細(xì)節(jié)并映射至虛擬角色上,以生成逼真的動畫效果。如在特技場景中,通過捕捉演員的動作數(shù)據(jù)驅(qū)動數(shù)字替身,實現(xiàn)流暢自然的動態(tài)表現(xiàn)。此外,三維掃描與重建技術(shù)為文物的數(shù)字化保存與展示提供了有力技術(shù)支持,使珍貴的歷史文化遺產(chǎn)得以永久傳承。

本文旨在系統(tǒng)介紹三維掃描與曲面重建技術(shù)的傳統(tǒng)方法、理論基礎(chǔ)及算法進展,并探討AI技術(shù)如何為這一領(lǐng)域帶來新的突破與發(fā)展,以期為相關(guān)領(lǐng)域的研究與未來應(yīng)用提供參考與借鑒。

2三維掃描和空間重建的主要技術(shù)和應(yīng)用場景

2.1 三維掃描的主要技術(shù)

三維掃描通過采集空間數(shù)據(jù)點以捕捉真實世界物體和環(huán)境的形狀與幾何結(jié)構(gòu),是構(gòu)建數(shù)字模型和虛擬場景的重要手段。常用的三維掃描技術(shù)包括以下四種:(1)激光雷達(dá)(LiDAR),利用激光脈沖測量物體與傳感器間距離,并生成精確的3D點云,已廣泛應(yīng)用于自動駕駛、城市建模和地形測繪;(2)結(jié)構(gòu)光(Structured Light)掃描,向物體表面投射光柵圖案,通過分析光柵形變實現(xiàn)物體的三維形狀重建,常用于工業(yè)檢測、逆向工程及影視和動畫內(nèi)容制作,具有高精度和快速響應(yīng)的優(yōu)勢;(3)攝影測量(Photogrammetry),從不同角度拍攝多張照片,通過匹配特征點生成3D模型,適用于電影和游戲中的真實紋理生成,具有成本低廉、實現(xiàn)便捷的特點;(4)飛行時間(ToF)傳感器,通過測量光線發(fā)射與返回時間差生成深度數(shù)據(jù),廣泛用于VR/AR設(shè)備和機器人導(dǎo)航系統(tǒng),能實時捕捉動態(tài)場景。

2.2 空間重建的主要技術(shù)

在空間重建技術(shù)中,掃描獲取的離散點云(Point Cloud)數(shù)據(jù)需轉(zhuǎn)化為連續(xù)的網(wǎng)格或曲面。常用的重建算法包括:(1)泊松表面重建(Poisson Surface Reconstruction)[1]算法,通過求解泊松方程生成光滑且閉合的表面,適用于重建有機形狀和掃描對象,尤其在存在噪聲數(shù)據(jù)時具有較好的魯棒性;(2)德洛內(nèi)(Delaunay)三角剖分與Alpha Shapes[2]算法,采用三角剖分方法連接點集,可調(diào)控網(wǎng)格密度,適用于CAD模型和幾何形狀的重建,能精準(zhǔn)定義邊界;(3)滾球算法(Ball?Pivoting Algorithm, BPA)[3],通過滾動虛擬球體連接相鄰點,生成三角面片,能有效保留銳利邊緣,是機械零件建模的理想選擇;(4)移動最小二乘(Moving Least?Squares, MLS)[4]法,通過擬合局部平面或曲面對噪聲數(shù)據(jù)進行平滑處理,生成連續(xù)的曲面結(jié)構(gòu),廣泛應(yīng)用于動畫和視覺效果制作;(5)體素級重建方法——移動立方體(Marching Cubes, MC)算法,從體素數(shù)據(jù)中提取等值面網(wǎng)格用于生成三維模型,可用于醫(yī)學(xué)影像數(shù)據(jù)建模和復(fù)雜體數(shù)據(jù)可視化。

2.3 相關(guān)技術(shù)的智能化趨勢

近年來,AI技術(shù)特別是深度學(xué)習(xí)方法,在掃描數(shù)據(jù)處理與點云重建中展現(xiàn)出顯著優(yōu)勢。傳統(tǒng)算法在面對噪聲、高復(fù)雜度形狀或不完整數(shù)據(jù)時常面臨重建精度與效率之間的權(quán)衡,而AI模型通過大量數(shù)據(jù)訓(xùn)練,能夠?qū)W習(xí)從局部幾何到全局結(jié)構(gòu)的映射關(guān)系,從而實現(xiàn)更準(zhǔn)確的表面重建與拓?fù)浔3?。在?shù)字孿生中,AI可輔助進行自動特征識別與語義分割,提升模型的智能化分析能力;在影視與動畫制作中,AI可實現(xiàn)端到端的人臉重建與動畫驅(qū)動,大幅簡化傳統(tǒng)建模流程。例如,使用神經(jīng)輻射場(NeRF)等技術(shù),可從稀疏圖像或點云中重建高質(zhì)量網(wǎng)格模型,顯著提升計算機圖形學(xué)(CG)角色的細(xì)節(jié)層次與渲染真實感。

總體而言,AI技術(shù)的引入不僅提高了建模自動化程度和處理復(fù)雜場景的能力,也拓展了三維掃描技術(shù)在實時渲染、增強現(xiàn)實(AR)與人機交互等新興領(lǐng)域的應(yīng)用邊界。

3三維結(jié)構(gòu)光掃描技術(shù)

三維結(jié)構(gòu)光技術(shù)可實時獲取高精度點云數(shù)據(jù),進而建立高質(zhì)量動態(tài)三維曲面,被廣泛應(yīng)用于數(shù)字孿生、電影和動畫制作、工業(yè)檢測和生物醫(yī)療等領(lǐng)域。因此本文將重點介紹結(jié)構(gòu)光掃描技術(shù)的具體原理和算法。

三維結(jié)構(gòu)光系統(tǒng)由數(shù)字投影儀(數(shù)字光源)與數(shù)字?jǐn)z影機組成,數(shù)字光源實時向目標(biāo)曲面投射余弦條紋,通過反射條紋的扭曲信息以計算幾何深度信息,從而得到動態(tài)幾何信息。

在計算機視覺(CV)領(lǐng)域,相移法是一種廣泛應(yīng)用于結(jié)構(gòu)光立體視覺的技術(shù),可精確地計算物體表面的三維坐標(biāo)。本文以三步相移法為例實現(xiàn)相位計算,該方法的優(yōu)點是速度快、幀率高,可實時捕捉動態(tài)人臉表情變化。

3.1 三步相移法

三步相移法中,每個圖案均以灰度圖像形式生成,這些圖案可用數(shù)學(xué)公式表示為:

圖 1 結(jié)構(gòu)光照射下采集的三幅條紋圖像

圖2顯示了直接求解得到的紋理圖像、環(huán)境光圖像和相對相位圖像。

圖 2 直接求解得到的紋理圖像、環(huán)境光圖像和相對相位圖像

3.2 相位展開算法

路徑跟蹤算法通過對包裹相位圖像進行線積分來展開相位。例如,經(jīng)典的Goldstein算法[5]從包裹相位圖像中識別殘差點(Residues),并通過分支切割(Branch Cuts)進行平衡,之后沿分支切割進行相位展開。質(zhì)量引導(dǎo)算法(Quality?Guided Algorithm)不識別殘差點,而是使用從包裹相位圖像中獲取的質(zhì)量圖,從最高質(zhì)量像素開始引導(dǎo)展開路徑。Mask Cut算法不僅識別殘差點,還利用質(zhì)量圖來引導(dǎo)分支切割的放置[6—8]。盡管這些方法快速且有效,但若包裹相位數(shù)據(jù)中噪聲較大,可能導(dǎo)致方法失效??焖僬归_方法通過二階差分計算可靠性函數(shù)[9],以提高質(zhì)量評估。

最小

L
P
P
=2時通過求解泊松方程來展開相位。這些算法通常對噪聲具有較強的魯棒性,但收斂速度較慢。為優(yōu)化能量,圖割(Graph Cut)算法被應(yīng)用于相位展開 [10—12] 。

最小不連續(xù)性相位展開算法(Minimum?Discontinuity Phase Unwrapping Algorithm)[13]通過檢測不連續(xù)性將包裹相位圖像劃分為若干區(qū)域,并為每個區(qū)域分配2π的整數(shù)倍,以最小化不連續(xù)點的數(shù)量。此算法在路徑跟蹤類算法失效時通常表現(xiàn)良好。

在計算機視覺中,許多問題可建模為基于能量最小化的標(biāo)簽分配問題,并歸結(jié)為馬爾科夫隨機場優(yōu)化問題,而圖割算法是解決此類問題的強有力工具,并可采用層級方法進行加速。Greig等[14]首次使用最小割/最大流算法解決計算機視覺中的能量最小化問題。Roy等[15]首次將圖割算法應(yīng)用于多攝影機立體匹配計算。Boykov等[16]開創(chuàng)性地將圖割算法應(yīng)用于分割問題。自此,越來越多的研究將基于圖的能量最小化方法應(yīng)用于各種低級視覺問題,例如分割[17]、立體匹配、紋理合成、多視圖重建等。圖3顯示了由這種方法得到的相位計數(shù)和絕對相位圖像。

圖 3 馬爾可夫隨機場優(yōu)化求解得到的相位計數(shù)和絕對相位

圖 4 帶黑白紋理的三維點云

圖 5 實時掃描得到的動態(tài)人臉曲面

若為三維掃描系統(tǒng)添加一臺彩色相機,可得到彩色圖像,通過相機標(biāo)定技術(shù),可求出彩色圖像與三維點云間的對應(yīng)關(guān)系,從而得到三維點云的彩色紋理圖像。該方法需采用精確的相機標(biāo)定算法。圖6為基于上述方法獲取的帶有彩色紋理的動態(tài)三維人臉曲面點云數(shù)據(jù),可從不同角度查看。

圖 6 實時掃描得到的帶有彩色紋理的動態(tài)三維人臉曲面

4曲面重建

4.1 點云融合

點云融合算法旨在將多個點云整合為統(tǒng)一且連貫的三維表示。常用的方法包括迭代最近點算法(ICP)、法向量分布變換(NDT)和基于特征的配準(zhǔn)算法。迭代最近點算法通過最小化對應(yīng)點間的歐氏距離來對齊點云,適用于初始對齊較好的數(shù)據(jù)。法向量分布變換將點云建模為一組高斯分布,能在稀疏或噪聲較大的環(huán)境中實現(xiàn)魯棒對齊。基于特征的配準(zhǔn)算法則通過提取和匹配關(guān)鍵點(如SIFT或FPFH)來計算變換矩陣,從而在初始對齊誤差較大的情況下實現(xiàn)更精確的對齊。完成對齊后,可采用體素網(wǎng)格濾波或截斷符號距離函數(shù)(Truncated Signed Distance Function, TSDF)融合方法整合對齊后的點云,生成優(yōu)化且一致的三維模型。上述方法廣泛應(yīng)用于三維重建、同步定位與建圖(Simultaneous Localization and Mapping, SLAM)及多視圖立體視覺等領(lǐng)域。

迭代最近點算法是一種用于對齊源點云和目標(biāo)點云的方法,通過迭代最小化對應(yīng)點間的距離。源點云是預(yù)期對齊的點云,而目標(biāo)點云是固定參考點集。初始化變換為恒同變換,將在每次迭代中更新,以逐步將源點云對齊至目標(biāo)點云。源點云中的每一點需在目標(biāo)點云中找到最接近的點。這一步驟建立了一組對應(yīng)點對,其中每一源點對應(yīng)一個最近目標(biāo)點,并可計算源點云和目標(biāo)點云的質(zhì)心,根據(jù)每個點相對于質(zhì)心的偏移量計算協(xié)方差矩陣,以捕捉點云中點的分布情況,并通過旋轉(zhuǎn)和移動這些點來實現(xiàn)最佳對齊。對協(xié)方差矩陣進行奇異值分解(SVD),將矩陣分解為三個矩陣,進而計算最佳旋轉(zhuǎn)矩陣,隨后計算平移向量,以對齊到目標(biāo)點云的質(zhì)心。將這一變換用于更新源點云的位置并不斷迭代,以逐步減少與目標(biāo)點云之間的距離。若對齊誤差〔例如均方誤差(MSE)〕低于設(shè)定閾值,則迭代結(jié)束。當(dāng)算法收斂后,輸出最終的變換矩陣,該矩陣包括旋轉(zhuǎn)和平移信息,用于將源點云轉(zhuǎn)換至目標(biāo)點云的坐標(biāo)系中。最終對齊后的點云可通過應(yīng)用該矩陣生成,從而得到統(tǒng)一的三維模型。圖7顯示了迭代最近點算法融合的兩個點云。

圖 7 迭代最近點算法得到的點云融合

4.2 法向量估計

點云的法向量估計是三維數(shù)據(jù)處理中非常重要的一步,例如在表面重建、分割、特征提取等任務(wù)中均會用到這一方法。法向量是指垂直于表面上的一個向量,用于描述表面的方向。在點云數(shù)據(jù)中,由于點本身并不攜帶法向量信息,因此需要通過其鄰域中的點來計算每個點的法向量。

圖 8 點云的法向量估計

法向量估計的常用方法包括:(1)基于主成分分析(PCA)的方法,即直接計算協(xié)方差矩陣并進行特征值分解,適用于平滑且密集的點云數(shù)據(jù);(2)基于移動最小二乘(MLS)法的方法,即通過擬合局部平面或曲面計算法向量,對噪聲數(shù)據(jù)有較好的魯棒性;(3)基于積分圖像的方法,適用于結(jié)構(gòu)化點云(例如深度圖像),計算速度快,內(nèi)存開銷小。

主成分分析方法較常用。首先需確定每個點的鄰域,例如基于k近鄰(k?NN)方法要求找到距離每個點最近的

k
個點,計算每個鄰域點集的質(zhì)心,構(gòu)造協(xié)方差矩陣。協(xié)方差矩陣用于描述鄰域點的分布方向和密度。在對協(xié)方差矩陣進行特征值分解(Eigen Decomposition)時,通常將最小特征值對應(yīng)的特征向量視為法向量,這是因為最小特征值方向?qū)?yīng)于點云表面的法線方向。在估計出法向量后,其方向可能仍是不確定的。為確保法向量方向一致,我們通常會進行方向校正。具體而言,選定一個參考方向(例如攝影機方向、Z軸方向等),計算法向量與參考方向的點積,若點積為負(fù),則將法向量反向。圖9顯示了主成分分析方法得到的法向量場。

圖 9 主成分分析方法得到的法向量場

4.3 點云重建

從點云重建網(wǎng)格是將離散點數(shù)據(jù)轉(zhuǎn)化為連續(xù)曲面表示的關(guān)鍵步驟,廣泛應(yīng)用于3D掃描、CAD建模、計算機視覺等領(lǐng)域。主要的網(wǎng)格重建算法包括泊松表面重建、德洛內(nèi)三角剖分和Alpha Shapes、滾球算法、基于Voronoi圖的重建算法、移動最小二乘法等。

德洛內(nèi)三角剖分和Alpha Shapes算法通過連接點集中的最近鄰點生成三維四面體網(wǎng)格;Alpha Shapes算法可通過調(diào)整參數(shù)

值篩選三角形,當(dāng)三角形外接圓半徑大于
時,將其去除,然后提取Alpha Shapes的外殼,生成網(wǎng)格。這一算法實現(xiàn)簡單,網(wǎng)格細(xì)節(jié)可控,但缺點在于對噪聲較敏感。

滾球算法模擬一個固定半徑的虛擬球,在點云上滾動,通過連接相鄰點形成三角形。算法在點云中找到相距球半徑的三個點,構(gòu)成第一個三角形;之后在當(dāng)前三角形邊上滾動球,尋找第三個點并生成新三角形;重復(fù)上述過程,直到所有點都被連接。這種算法易于實現(xiàn),且對均勻采樣點云效果較好。其缺點在于對噪聲和稀疏數(shù)據(jù)敏感,球半徑參數(shù)需手動調(diào)節(jié)。

基于Voronoi的重建算法首先計算點云的Voronoi圖,再通過其對偶德洛內(nèi)三角剖分, 提取表面篩選并連接三角形,生成最終網(wǎng)格。該算法優(yōu)點是理論上具有拓?fù)湔_性,對密集采樣數(shù)據(jù)效果好,但計算復(fù)雜度較高,噪聲點會影響結(jié)果。

移動最小二乘法通過局部擬合平面或曲面,平滑處理點云中的噪聲并生成連續(xù)表面。該算法為每一點找到其

k
個鄰域點,使用最小二乘法擬合局部平面或二次曲面,將點投影到擬合曲面上,完成平滑處理,并使用移動立方體(Marching Cubes)算法生成網(wǎng)格。該算法優(yōu)點在于能有效平滑噪聲數(shù)據(jù),生成連續(xù)光滑的表面;缺點在于高頻細(xì)節(jié)特征有損失,計算開銷較大。

Power Crust算法是一種典型的基于Voronoi圖的重建算法。其通過計算中軸(Medial Axis)并在其內(nèi)外兩側(cè)生成殼體,實現(xiàn)閉合曲面重建。該算法計算Voronoi圖并提取中軸線,在中軸線兩側(cè)構(gòu)建內(nèi)外殼體,將內(nèi)外殼體合并,生成最終封閉網(wǎng)格。其優(yōu)點是生成閉合且光滑的網(wǎng)格,能有效處理噪聲點;其缺點是實現(xiàn)復(fù)雜,計算量大,對稀疏數(shù)據(jù)效果較差。

泊松表面重建算法將網(wǎng)格重建視為泊松方程求解問題,假設(shè)了點云數(shù)據(jù)來自光滑表面,并且已知每個點的法向量。該算法通過求解泊松方程構(gòu)建隱式函數(shù),并提取零水平集作為重建的網(wǎng)格:首先計算每個點的法向量并統(tǒng)一法向量方向,然后構(gòu)建八叉樹(Octree),將點云劃分為不同分辨率級別。根據(jù)法向量場

n
構(gòu)建泊松方程如式(7)所示。

隨后,使用有限元方法(FEM)求解泊松方程,生成隱式函數(shù)

,使用移動立方體算法提取
的零水平集,生成最終網(wǎng)格。

泊松表面重建算法的優(yōu)點是能有效處理噪聲和異常點,從而生成光滑且閉合的曲面;缺點是對法向量估計誤差較敏感,數(shù)據(jù)量大時計算復(fù)雜度較高。圖10顯示了基于泊松表面重建算法得到的三角網(wǎng)格。

圖 10 泊松表面重建算法得到的三角網(wǎng)格

掃描所得的數(shù)字模型可用于三維打印。圖11(a)、圖11(b)分別為不同角度的原始雕塑與三維打印模型對比。原始雕塑與曲面重建后打印模型誤差低于0.1毫米。

圖 11 不同角度的原始雕塑與曲面重建后三維打印模型比較

5AI技術(shù)帶來的進展

5.1 融合AI的三維掃描技術(shù)升級

近年來,AI尤其是深度學(xué)習(xí)技術(shù)在光學(xué)中的相位展開方法上取得顯著進展。AI與相位展開的結(jié)合推動了多個光學(xué)計量領(lǐng)域的技術(shù)進步:在數(shù)字全息顯微技術(shù)中,更準(zhǔn)確的相位重建使微觀結(jié)構(gòu)的三維成像更加清晰;在光學(xué)相干斷層掃描(OCT)領(lǐng)域中,提升了組織結(jié)構(gòu)的可視化效果,助力醫(yī)學(xué)診斷;在條紋投影輪廓測量中,AI驅(qū)動的相位展開實現(xiàn)了高精度的三維表面測量,廣泛應(yīng)用于工業(yè)檢測和質(zhì)量控制。

深度學(xué)習(xí)在相位展開中的應(yīng)用主要包括以下5類:

(1)直接回歸模型卷積神經(jīng)網(wǎng)絡(luò)(CNN)。其被訓(xùn)練用于將纏繞相位圖直接映射為展開相位圖。例如,Unwrap?Net[18]利用殘差結(jié)構(gòu)實現(xiàn)高精度的相位展開,無需額外的預(yù)處理步驟,表現(xiàn)出對噪聲和欠采樣的強魯棒性。

(2)條紋級數(shù)分類。一些模型通過預(yù)測條紋級數(shù)(或纏繞次數(shù))來重建真實的相位圖。其中,Hformer模型[19]結(jié)合了CNN和Transformer架構(gòu),以提高條紋級數(shù)預(yù)測精度,超越了傳統(tǒng)基于CNN的方法。

(3)混合深度學(xué)習(xí)與物理建模。將AI與傳統(tǒng)物理建模方法結(jié)合,可提高模型泛化能力和可解釋性。例如,Luo等[20]采用混合方法將深度學(xué)習(xí)與路徑跟蹤算法結(jié)合,在條紋投影輪廓測量中提升了空間相位展開的準(zhǔn)確性。

(4)自監(jiān)督學(xué)習(xí)。為應(yīng)對標(biāo)注數(shù)據(jù)稀缺的問題,研究者提出了自監(jiān)督學(xué)習(xí)方法。Gao等[21]使用未標(biāo)注的數(shù)據(jù)訓(xùn)練模型,即使在缺乏真實相位的場景下也能實現(xiàn)有效的相位展開。

(5)時序與多模態(tài)相位展開。先進的模型能夠處理時間序列數(shù)據(jù)和多種干涉條紋模式。近期Zhao等[22]提出了一種多模態(tài)自適應(yīng)的時序相位展開方法,能在不同頻率和條紋類型下保持高精度。

對比研究表明,基于深度學(xué)習(xí)的相位展開方法在多種復(fù)雜條件下通常優(yōu)于傳統(tǒng)算法,主要體現(xiàn)在:(1)抗噪性能強。深度學(xué)習(xí)模型在高噪聲環(huán)境中表現(xiàn)更穩(wěn)定,能維持較高的準(zhǔn)確率,而傳統(tǒng)方法往往在此條件下失效。(2)處理相位突變與混疊能力強。AI方法能夠更有效地處理相位跳躍和混疊問題,輸出更加平滑的展開相位圖。(3)計算效率高。訓(xùn)練完成后的深度學(xué)習(xí)模型推理速度快,適合實時應(yīng)用場景。然而,這些模型在泛化能力、未見數(shù)據(jù)的適應(yīng)性以及推理過程的可解釋性方面仍存在挑戰(zhàn)。

為進一步推進AI在相位展開中的應(yīng)用,未來研究可能聚焦于以下方向:(1)增強模型泛化能力,開發(fā)能適應(yīng)多種數(shù)據(jù)集和實際場景的通用模型。(2)提升可解釋性,構(gòu)建具有透明推理流程的AI系統(tǒng),使用戶能夠理解和信任模型的決策。(3)擴展自監(jiān)督技術(shù),利用未標(biāo)注數(shù)據(jù)訓(xùn)練魯棒模型,減少對大量標(biāo)注樣本的依賴。這些方向的研究目標(biāo)是構(gòu)建更強大、更可信的光學(xué)相位展開AI工具。

5.2 AI技術(shù)重構(gòu)曲面重建

三維視覺和計算機圖形學(xué)中的曲面重建技術(shù)同樣在AI技術(shù)應(yīng)用趨勢下實現(xiàn)重構(gòu),主要包括單視圖重建和多視圖重建。

單視圖重建旨在從單張二維圖像中恢復(fù)三維形狀。由于該任務(wù)的本質(zhì)是不適定的,因此研究者提出了多種基于學(xué)習(xí)的方法來解決。早期基于體素的表達(dá)曲面,如3D?R2N2[23]利用卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測體素占據(jù)網(wǎng)格。這種方法具有局限性,內(nèi)存開銷較大,圖像分辨率提升導(dǎo)致計算量急劇增加。后繼方法基于點云或網(wǎng)格的預(yù)測,直接回歸點云或網(wǎng)格頂點坐標(biāo),適用于更細(xì)致的重建。AtlasNet[24]將形狀表示為多個可學(xué)習(xí)的參數(shù)化表面;Pixel2Mesh[25]從圖像特征出發(fā),逐步對初始網(wǎng)格進行形變。近年來興起的方法使用深度神經(jīng)網(wǎng)絡(luò)(DNN)學(xué)習(xí)隱式表面表示,Occupancy Networks[26]學(xué)習(xí)一個連續(xù)函數(shù),用以判斷點是否在物體內(nèi)部;DeepSDF[27]使用神經(jīng)網(wǎng)絡(luò)建模點到表面的有符號距離。

多視圖重建方法利用從多個角度拍攝的圖像來更準(zhǔn)確地重建三維模型。傳統(tǒng)的多視圖立體視覺(MVS)方法依賴圖像匹配與三角測量,基于深度學(xué)習(xí)的MVS方法利用構(gòu)造的代價函數(shù)推理深度圖MVSNet[28]從參考圖像構(gòu)造三維代價體并推理深度圖。CasMVSNet[29]使用金字塔式代價體,從粗到細(xì)逐步提升精度。

神經(jīng)輻射場(NeRF)及其拓展方法通過合成新視角實現(xiàn)間接的三維重建:NeRF通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)空間點的顏色與密度,Mip?NeRF[30]、NeRF++[31]、GeoNeRF[32]提升了可擴展性、視角一致性與場景理解能力。由英偉達(dá)(NVIDIA)提出的即時神經(jīng)圖形原語(Instant Neural Graphics Primitives, Instant?NGP)[33]方法,實現(xiàn)了NeRF的實時訓(xùn)練和渲染,極大提升了三維重建的效率。該方法通過多分辨率哈希編碼,優(yōu)化了內(nèi)存使用和計算速度。

5.3 AI 技術(shù)實現(xiàn)網(wǎng)格生成

點云到網(wǎng)格的重建是計算機視覺和圖形學(xué)的核心任務(wù),廣泛應(yīng)用于機器人、增強現(xiàn)實(AR)、醫(yī)學(xué)成像等領(lǐng)域。傳統(tǒng)方法在處理規(guī)則結(jié)構(gòu)的點云時表現(xiàn)良好,但在處理噪聲、稀疏或不完整數(shù)據(jù)時效果可能不佳。近年來,隨著傳統(tǒng)方法和深度學(xué)習(xí)方法的發(fā)展,相關(guān)研究取得了顯著進展。

PointNet[34]及其變體直接處理原始點云數(shù)據(jù),實現(xiàn)了對點云的分類和分割,為后續(xù)的網(wǎng)格重建提供了基礎(chǔ)。自編碼器(AE)架構(gòu)通過編碼器-解碼器結(jié)構(gòu),將點云映射到潛在空間,再重建出網(wǎng)格模型。例如,AtlasNet[35]利用多個參數(shù)化平面貼圖重建復(fù)雜表面。變形方法從初始網(wǎng)格出發(fā),通過學(xué)習(xí)點云與網(wǎng)格間的對應(yīng)關(guān)系,逐步變形以匹配目標(biāo)形狀。Point2Mesh[36]提出了自先驗方法,利用輸入點云自身的信息指導(dǎo)網(wǎng)格變形。Points2Surf[37]和Neural?Pull等方法使用隱式函數(shù)對點云片段建模,從而重建連續(xù)表面,特別適用于處理局部重疊和稀疏區(qū)域。拓?fù)涓兄椒?如Neural Template[38]利用拓?fù)浼s束和表面結(jié)構(gòu)一致性進行三維建模,提升了拓?fù)浔3趾图?xì)節(jié)恢復(fù)能力。近期研究還推動了實時點云處理與多模態(tài)輸入融合的研究,如Instant?NGP[33]使用多分辨率哈希編碼(MHE)技術(shù)實現(xiàn)了快速的神經(jīng)表面擬合。

保持銳利特征的重建方法,為了在重建中保留物體的銳利邊緣和特征,提出了結(jié)合基元檢測和深度學(xué)習(xí)的框架。例如,Erler等[37]提出了一種基于基元檢測的重建框架,能夠準(zhǔn)確分割基元片段,并在每個片段中擬合網(wǎng)格,確保重建結(jié)果具有清晰的銳利邊緣,同時保持模型的輕量化。

6三維掃描和曲面重建技術(shù)的行業(yè)應(yīng)用

6.1 電影行業(yè)應(yīng)用

三維掃描與曲面重建技術(shù)在電影視覺特效領(lǐng)域具有廣泛應(yīng)用。

(1)數(shù)字角色與虛擬演員建模

應(yīng)用三維掃描獲取演員面部與身體的高精度幾何數(shù)據(jù),驅(qū)動數(shù)字替身(Digital Doubles)、面部捕捉(Facial Capture)、動作捕捉(Motion Capture)等技術(shù),結(jié)合幾何建模與AI驅(qū)動的表情合成,實現(xiàn)高度真實的數(shù)字角色動畫。類似技術(shù)在電影《阿凡達(dá)》(

Avatar
)、《阿凡達(dá):水之道》(
Avatar: The Way of Water
)、《復(fù)仇者聯(lián)盟4:終局之戰(zhàn)》(
Avengers: Endgame
)、《流浪地球2》中得到充分應(yīng)用。

表情動作捕捉技術(shù)運用多攝像頭陣列同步采集動態(tài)點云序列,結(jié)合形狀重建方法(如非剛性配準(zhǔn)、形變網(wǎng)格)用于還原動態(tài)表情和動作。電影《猩球崛起》(

Rise of the Planet of the Apes
)系列中,演員通過頭戴式三維捕捉系統(tǒng)采集肌肉形變,實現(xiàn)面部動畫與真實表演的無縫結(jié)合。

(2)場景與布景數(shù)字化

通過激光雷達(dá)、結(jié)構(gòu)光或攝影測量掃描實景拍攝地,可重建精細(xì)的三維場景模型,并以此作為虛擬布景、虛擬攝制(Virtual Production)與綠幕合成的基礎(chǔ)。同樣,也可對實物道具與服飾進行快速掃描和三維建模,減少人工建模工作量,提升制作效率。

《黑客帝國:矩陣重啟》(

The Matrix Resurrections
)應(yīng)用全景三維掃描技術(shù)采集城市街景,用于數(shù)字場景還原與實時替換背景。虛擬環(huán)境搭建技術(shù)采用攝影測量+激光掃描對真實建筑、自然場景進行多視角采集,利用點云重建構(gòu)建網(wǎng)格化虛擬布景,用于大規(guī)模特效合成或景深模擬?!堵_(dá)洛人》(
The Mandalorian
)制作中使用點云重建與LED全景虛擬舞臺相結(jié)合,實現(xiàn)動態(tài)景深與虛擬攝制。

(3)特效與合成

精確的幾何模型可用于特效模擬(如碰撞、布料、流體模擬等),實現(xiàn)更真實的物理交互效果。如《飛馳人生2》利用三維掃描技術(shù)掃描賽車、山體和賽道模型,從而模擬出更為精準(zhǔn)的摩擦、碰撞等效果,營造出真實感賽車環(huán)境。

6.2 文化、文物保護和數(shù)字遺產(chǎn)領(lǐng)域

三維掃描、點云重建與形狀重建技術(shù)在數(shù)字遺產(chǎn)保護領(lǐng)域也已廣泛應(yīng)用。文物數(shù)字化技術(shù)利用高精度激光掃描對文物表面進行非接觸采樣,結(jié)合泊松表面重建、MLS平滑、基于深度的隱式重建技術(shù)生成高質(zhì)量三維網(wǎng)格模型。數(shù)字米開朗基羅(Digital Michelangelo)[39]項目將意大利佛羅倫薩的大衛(wèi)雕像掃描成30億點云數(shù)據(jù),為后續(xù)修復(fù)、研究與傳播提供數(shù)字基礎(chǔ)。歷史遺址復(fù)原方法對歷史建筑、遺址區(qū)域進行大范圍三維掃描,配合Points2Surf、Neural Template等完成破損區(qū)域的AI形狀重建,實現(xiàn)虛擬復(fù)原。巴黎圣母院火災(zāi)后,研究人員使用火災(zāi)前保存的激光點云數(shù)據(jù),結(jié)合AI技術(shù)輔助幾何建模進行三維重建與仿真。上述技術(shù)也可應(yīng)用于虛擬教育與展示,例如利用VR/AR平臺將數(shù)字文物導(dǎo)入虛擬展廳,實現(xiàn)可漫游、可交互的虛擬博物館與在線教學(xué)。我國“數(shù)字敦煌”項目[40]實現(xiàn)了對莫高窟壁畫與建筑的多模態(tài)重建與全球共享展示,為遠(yuǎn)程教育與學(xué)術(shù)研究提供了新模式。

6.3 存在的技術(shù)瓶頸

(1)高精度與高效率的矛盾。在影視制作中,對模型精度要求極高,尤其在近景或高分辨率渲染中。當(dāng)前高精度掃描耗時長、成本高,且數(shù)據(jù)量龐大,給存儲與處理帶來壓力。

(2)復(fù)雜表面與材質(zhì)的建模難題。透明、反射、毛發(fā)、軟組織等復(fù)雜表面仍難以準(zhǔn)確掃描與建模,往往需依賴手工修復(fù)與后處理。

(3)大規(guī)模數(shù)據(jù)對齊與拼接問題。多視角、多批次掃描數(shù)據(jù)需要高效的配準(zhǔn)(Registration)與融合算法,當(dāng)前仍面臨配準(zhǔn)誤差累積與數(shù)據(jù)冗余問題。

(4)缺失數(shù)據(jù)補全與重建挑戰(zhàn)。在遮擋、陰影等情況下,掃描數(shù)據(jù)常存在缺失,如何智能補全并保持幾何與視覺一致性仍是挑戰(zhàn)。基于AI的方法正在改善但尚未完全成熟。

(5)實時性不足。對于虛擬攝制與實時渲染場景,當(dāng)前幾何建模與掃描仍難以滿足實時性要求,影響交互式應(yīng)用體驗。

(6)成本問題。高端掃描硬件、專業(yè)人員與后期處理仍需大量投入,中小型影視制作公司面臨較高技術(shù)門檻。

目前學(xué)術(shù)界正在發(fā)展新的技術(shù)和方法以解決這些瓶頸。例如:深度學(xué)習(xí)技術(shù)正在逐漸提升缺陷修復(fù)、重建精度與自動標(biāo)注能力,實現(xiàn)AI輔助建模與自動化修復(fù);NeRF與神經(jīng)幾何建??商峁└咝А⒖蓪W(xué)習(xí)的場景重建新范式,尤其適合影視場景快速構(gòu)建;未來可能實現(xiàn)從拍攝到可用模型的自動管線,極大降低技術(shù)門檻,實現(xiàn)端到端的全流程自動化;結(jié)合光場、深度相機與AI算法,實時動態(tài)捕捉與建模,支撐虛擬攝制與數(shù)字人技術(shù)。

7總結(jié)與展望

隨著科技發(fā)展,三維掃描技術(shù)從傳統(tǒng)方法發(fā)展到結(jié)合AI顯著提升數(shù)據(jù)處理精度與效率,深度學(xué)習(xí)在相位展開、單視圖與多視圖重建、點云到網(wǎng)格轉(zhuǎn)換等方面展現(xiàn)出顯著優(yōu)勢,有效解決了傳統(tǒng)算法在處理噪聲、復(fù)雜形狀及不完整數(shù)據(jù)時的局限性,推動了數(shù)字孿生、影視制作、數(shù)字遺產(chǎn)保護等領(lǐng)域的技術(shù)應(yīng)用。

展望未來,隨著AI技術(shù)的不斷進步,三維掃描與曲面重建技術(shù)有望在多個方面取得更大突破:首先,在算法層面,將致力于提升算法的泛化能力,開發(fā)能夠適應(yīng)多種數(shù)據(jù)集和實際場景的通用AI模型,以應(yīng)對不同領(lǐng)域和應(yīng)用場景的需求;其次,增強模型的可解釋性,通過構(gòu)建具有透明推理流程的AI系統(tǒng),使用戶能夠理解和信任模型的決策過程;此外,擴展的自監(jiān)督學(xué)習(xí)技術(shù)將有效利用未標(biāo)注數(shù)據(jù)訓(xùn)練魯棒模型,減少對大量標(biāo)注樣本的依賴,降低數(shù)據(jù)獲取成本;同時,優(yōu)化實時處理能力,結(jié)合硬件加速技術(shù)和優(yōu)化算法,將滿足動態(tài)場景捕捉和實時渲染的需求;最后,該領(lǐng)域有望深化跨領(lǐng)域融合,推動三維掃描與重建技術(shù)與其他新興技術(shù)(如物聯(lián)網(wǎng)、區(qū)塊鏈等)的深度融合,為沉浸式交互娛樂、智能制造、智慧城市、醫(yī)療健康等多個行業(yè)帶來創(chuàng)新變革,在更廣泛的領(lǐng)域發(fā)揮重要作用。

參考文獻

(向下滑動閱讀)

[1] KAZHDAN M, BOLITHO M, HOPPE H. Poisson surface reconstruction[C]// In Proceedings of the fourth Eurographics symposium on Geometry processing, 2006.DOI:10.1145/1364901.1364904.

[2] MARTON Z, RUSU R B, BEETZ M. Fast surface reconstruction from noisy point clouds without normal estimation[C]//In 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2009.

[3] BERNARDINI F, MITTLEMAN J. The ball?pivoting algorithm for surface reconstruction[J].IEEE Transactions on Visualization and Computer Graphics,1999, 5(4):349?359.DOI:10.1109/2945.817351.

[4] LEVIN D. The approximation power of moving least?squares[J]. Math Comp, 1998(67):1517?1531.

[5] GOLDSTEIN R, ZEBKER H, WERNER C. Satellite radar interferometry: Two?dimensional phase unwrapping[J]. Radio Science, 1988,23(4):713?720.

[6] PRATI C, GIANI M, ENGINEER E E. SAR Interferometry: A 2?D Phase Unwrapping Technique Based On Phase And Absolute Values Informations[C]//Geoscience and Remote Sensing Symposium, 1990. IGARSS '90.IEEE, 1990.DOI:10.1109/IGARSS.1990.688929.

[7] DERAUW D. Phase unwrapping using coherence measurements[C]//Proceedings of SPIE?The International Society for Optical Engineering, 1995:319?324.DOI:10.1117/12.227141.

[8] FLYNN T J. Consistent 2?D phase unwrapping guided by a quality map [C]//In Proceedings of IEEE International Geoscience and Remote Sensing Symposium, IEEE, 1996.

[9] HERRáEZ M A, BURTON D R, LALOR M J, et al. Fast two?dimensional phase?unwrapping algorithm based on sorting by reliability following a noncontinuous path[J].Applied Optics, 2002,41(35):7437?7444.DOI:10.1364/AO.41.007437.

[10] BIOUCAS?DIAS J M, VALADAO G. Phase Unwrapping via Graph Cuts[J].IEEE Transactions on Image Processing. 2007,16(3):698?709.DOI: 10.1109/TIP.2006.888351

[11] DONG J, CHEN F, ZHOU D, et al. Phase unwrapping with graph cuts optimization and dual decomposition acceleration for 3D high‐resolution MRI data[J].Magnetic Resonance in Medicine, 2017,77(3):1353.DOI:10.1002/mrm.26174.

[12] DONG J, LIU T, CHEN F, et al. Simultaneous phase unwrapping and removal of chemical shift (SPURS) using graph cuts: application in quantitative susceptibility mapping [J].IEEE Transactions on Medical Imaging, 2015, 34(2):531?540.DOI:10.1109/TMI.2014.2361764.

[13] FLYNN T J. Two?dimensional phase unwrapping with minimum weighted discontinuity[J]. Journal of the Optical Society of America A, 1997,14(10):2692?2701.DOI:10.1364/JOSAA.14.002692.

[14] GREIG D M, PORTEOUS B T, SEHEULT A H. Exact Maximum A Posteriori Estimation for Binary Images[J]. Journal of the Royal Statistical Society. Series B: Methodological, 1989, 51(2):271?279.DOI:10.1111/j.2517?6161.1989.tb01764.x.

[15] ROY S, COX I J. A Maximum?Flow Formulation of the N?Camera Stereo Correspondence Problem[C]//International Conference on Computer Vision. IEEE,1998.DOI:10.1109/ICCV.1998.710763.

[16] BOYKOV Y, JOLLY M. Interactive graph cuts for optimal boundary and region segmentation of objects in n?d images[C]//Proceedings of the International Conference on Computer Vision (ICCV), 2001.

[17] BOYKOV Y, FUNKA?LEA G. Graph Cuts and Efficient N?D Image Segmentation[J]. International Journal of Computer Vision, 2006, 70(2):109?131.DOI:10.1007/s11263-006-7934-5.

[18] YANG W, HE Y, ZHANG L, et al. Unwrap?Net: A deep neural network?based InSAR phase unwrapping method assisted by airborne LiDAR data[J].ISPRS Journal of Photogrammetry and Remote Sensing, 2024:12(218):510?529.

[19] ZHU X, HAN Z, YUAN M, et al. Hformer: hybrid convolutional neural network transformer network for fringe order prediction in phase unwrapping of fringe projection [J]. Optical Engineering,2022, 61(9).

[20] LUO X, SONG W, BAI S, et al. Deep Learning?enabled Spatial Phase Unwrapping for 3D Measurement[EB/OL]. [2025?05?29].https://arxiv.org/abs/2208. 03524.

[21] GAO X, SONG W, TAN C, et al. Self?supervised phase unwrapping in fringe projection profilometry[EB/OL]. (2023?02?13)[2025?05?29].https://arxiv.org/abs/2302.06381.

[22] ZHAO L, ZHU Y, WANG J, et al. Multimodal adaptive temporal phase unwrapping[J]. Applied Physics Letters, 2023,122(6):064104.

[23] CHOY C B, XU D, GWAK J Y, et al. 3D?R2N2: A Unified Approach for Single and Multi?view 3D Object Reconstruction[EB/OL]. (2016?04?02)[2025?05?29].https://arxiv.org/abs/1604.00449.

[24] GROUEIX T, FISHER M, KIM V G, et al. AtlasNet: A papier?maché approach to learning 3d surface generation[EB/OL].(2018?02?15)[2025?05?29].https://arxiv.org/abs/1802.05384.

[25] WANG N, ZHANG Y, LI Z, et al. Pixel2Mesh: Generating 3d mesh models from single RGB images[EB/OL].(2018?02?24)[2025?05?29].https://arxiv.org/abs/1804.01654.

[26] MESCHEDER L, OECHSLE M, NIEMEYER M, et al. Occupancy Networks: Learning 3d reconstruction in function space[C]//In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.

[27] PARK J J, FLORENCE P, STRAUB J,et al. DeepSDF: Learning continuous signed distance functions for shape representation[C]//In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.

[28] YAO Y, LUO Z, LI S, et al. MVSNet: Depth inference for unstructured multi?view stereo[C]//In European Conference on Computer Vision (ECCV), 2018.

[29] GU X,F(xiàn)AN Z, DAI Z, et al. Cascade Cost Volume for High?Resolution Multi?View Stereo and Stereo Matching [C]// In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2020.

[30] BARRON J T, MILDENHALL B, TANCIK M, et al. Mip?NeRF: A multiscale representation for anti?aliasing neural radiance fields[C]//In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021.

[31] ZHANG K, LIU G R, KOLTUN V, et al. NeRF++: Analyzing and improving neural radiance fields [EB/OL].(2020?10?15)[2025?05?27]. https://arxiv.org/abs/2010.07492.

[32] JOHARI M M, LEPOITTEVIN Y, FLEURET F. GeoNeRF: Generalizing NeRF with Geometry Priors [EB/OL]. (2021?11?26) [2025?05?28]. https://arxiv.org/abs/2111.13539v2.

[33] MüLLER T, EVANS A, SCHIED C, et al. Instant Neural Graphics Primitives with a Multiresolution Hash Encoding[EB/OL]. (2022?01?16)[2025?05?28].http://arxiv.org/abs/2201.05989.

[34] QI C R, SU H, MO K, et al. PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation[C]//In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.

[35] GROUEIX T, FISHER M, KIM V G, et al. AtlasNet: A papier?maché approach to learning 3d surface generation[C]//In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.

[36] HANOCKA R, METZER G, GIRYES R, et al. Point2Mesh: A self?prior for deformable meshes[EB/OL]. (2020?05?22)[2025?05?28]. http://arxiv.org/abs/2005.11084v1.

[37] ERLER P, GUERRERO P, OHRHALLINGER S, et al. Points2Surf: Learning Implicit Surfaces from Point Cloud Patches.[EB/OL].(2024?02?13)[2025?05?28].http://arxiv.org/abs/2007.10453.

[38] HUANG Z, LIU L, THEOBALT C. Neural Template: Topology?aware Reconstruction and Disentangled Generation of 3D Meshes[C]//In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022.

[39] LEVOY M, PULLI K, CURLESS B, et al. The digital Michelangelo project: 3D scanning of large statues[C]//In SIGGRAPH, 2001.

[40] 敦煌研究院. 數(shù)字敦煌資源庫[EB/OL].[2025?05?27].http://www.e-dunhuang.com.

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

電影技術(shù)微刊 incentive-icons
電影技術(shù)微刊
電影技術(shù)微刊
633文章數(shù) 209關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠(yuǎn)方

無障礙瀏覽 進入關(guān)懷版