本文引用格式:.基于多AR攝像頭的裸眼3D體積視頻直播方法探究[J].藝術科技,2025,38(19)244-246.
中圖分類號:TP391.9 文獻標識碼:A文章編號:1004-9436(2025)19-0244-03
0引言
隨著5G網絡、計算能力與人工智能內容生成的發(fā)展,傳統(tǒng)二維視頻已難以滿足用戶對沉浸式內容的需求。體積視頻技術通過多攝像頭同步捕獲真實場景的三維動態(tài)信息,生成可從自由視角觀看的內容,逐步拓展應用于體育賽事、文化教育[1]、娛樂綜藝、電商直播與元宇宙數字化身[2]等場景。例如,在虛擬演唱會中,觀眾可通過自由視角直播切換機位,以數字化身的身份進人元宇宙舞臺,與虛擬歌手實時互動;在元宇宙會議中,用戶數字化身可自由移動至不同視角,通過低延遲直播實現(xiàn)“面對面”交流。然而,體積視頻以點云為數據基礎,面臨數據量巨大(每秒GB計)、計算復雜(重建與渲染需毫秒級響應)以及終端兼容性和用戶友好性等挑戰(zhàn)。同時,2025年最新研究強調了稀疏攝像頭配置下的視覺保真度和低延遲傳輸的重要性。
本文聚焦于基于高規(guī)格超高清多AR攝像頭陣列,構建從實時場景捕獲到融合6DOF與體積視頻技術的自由視角,并使用裸眼3D顯示器渲染的直播全流程系統(tǒng)。相較于傳統(tǒng)點云傳輸,本文采用深度學習驅動的體積視頻重建算法和透鏡光柵渲染技術,集成高斯濺射方法,以提升重建效率和質量,實現(xiàn)高清晰、低延遲、低成本的6DOF裸眼3D直播效果。
1多AR攝像頭裸眼3D體積視頻直播的技術框架
體積視頻通過多臺AR攝像頭組成的陣列,從不同角度同步捕獲目標場景的實時圖像,結合深度學習模型重建三維點云場景。與傳統(tǒng)視頻流相比,體積視頻支持6DOF自由視角切換,提供更真實的沉浸式體驗。裸眼3D渲染下,觀看者無需佩戴3D眼鏡,通過4K裸眼3D顯示器,結合AI驅動的雙眼位置識別和實時眼動追蹤,基于雙眼視差和深度計算原理生成立體效果。
圖1多AR攝像頭裸眼3D體積視頻直播架構圖

基于多AR攝像頭的裸眼3D渲染體積視頻自由視角直播系統(tǒng),簡稱AR3D-FVLS系統(tǒng)。如圖1展示了多AR攝像頭裸眼3D體積視頻直播的架構,通過AR攝像頭陣列、點云重建和裸眼3D渲染實現(xiàn)6DOF(六自由度)直播效果。
AR3D-FVLS系統(tǒng)采用多臺4K分辨率AR攝像頭(支持可更換鏡頭的標準鏡頭接口,可選 4K@30 fps或 4K@60fps 單攝像頭碼率可達 100Mbps ),從不同角度實時拍攝目標場景。攝像頭陣列的布置方式(如直線、扇形、環(huán)形或矩形)直接影響點云重建質量。為了減少視角盲區(qū)和重影,需根據場景尺寸和拍攝角度優(yōu)化攝像頭密度和配置。捕獲的多路視頻流通過超高帶寬網絡傳輸,經過點云重建融合為6DOF雙目三維視頻流,最終在裸眼3D顯示器上渲染。為確保高質量、低延遲直播,系統(tǒng)優(yōu)化了多線程任務調度、GPU計算、視頻編解碼和3D渲染流程,滿足毫秒級響應需求。
1.1體積視頻的圖像處理與三維點云重建
多攝像頭系統(tǒng)的核心在于將多視角二維圖像融合為三維點云場景,主要包含以下步驟:圖像校準與配準、深度信息估計、點云生成與表面重建。首先,通過對AR攝像機矩陣拍照獲取4K圖像組,通過相機標定方法獲取攝像頭內參(如焦距、鏡頭畸變)和外參(如相對位置、旋轉矩陣),對捕獲圖像進行校正和對齊。其次,采用立體匹配算法(高斯濺射深度學習模型),基于多視角圖像估算深度信息。最后,利用三維幾何算法(如三角化),融合多視角深度圖,生成點云數據并進行表面重建。融合后的三維點云P表示為N個視角點云的并集,如公式(1)所示:

其中 π-1 表示深度反投影操作,即基于相機內參K和外參(旋轉矩陣R,平移向量T),三維深度圖的像素坐標 (φu,φv) 和深度值(d)映射至三維空間。
3DGaussianSplatting(3DGS)是一種用于實時輻射場渲染的顯式場景表示方法。不同于傳統(tǒng)的神經輻射場(NeRF)[3]依賴神經網絡進行隱式表示,導致訓練和渲染速度慢;3DGS使用數百萬個3D高斯分布(Gaussian)作為基本構建塊,通過噴濺技術實現(xiàn)高效的光柵化渲染。通過集成實時的深度學習3DGS渲染模型,提升了重建速度,支持人物與物體的動態(tài)場景重構。
1.2裸眼3D眼動追蹤與低延遲直播
裸眼3D渲染通過圖像處理與顯示技術實現(xiàn)無須佩戴眼鏡的立體效果,常見技術包括透鏡光柵、視差屏障和光場顯示。透鏡光柵3D顯示基于光學折射和視差分離,通過微透鏡陣列將不同視角的圖像投射到人眼,形成立體視覺;柱透鏡光柵的節(jié)距(Pitch)需與顯示面板的像素排布精確匹配。視差屏障通過物理遮擋和視差分離實現(xiàn)立體視覺效果,光場顯示則是基于光場方程生成裸眼3D效果。本系統(tǒng)中為優(yōu)化渲染,引入自適應視差調整算法,減少極端場景下的深度突變區(qū)不適,提高生理舒適度。AI驅動的裸眼3D顯示器是實現(xiàn)體積視頻直播系統(tǒng)中6DOF(六自由度)沉浸式體驗的核心組件,其技術參數直接影響圖像質量、視差精度和用戶體驗。采用裸眼3D顯示器支持人臉檢測與瞳孔定位,分辨率4K( 3840×2160 。刷新率為 60Hz ;AI眼動追蹤技術用于實時捕獲用戶雙眼位置,支持6DOF視角調整。技術實現(xiàn)包括人臉檢測、瞳孔定位與視線方向估計,結合裸眼3D顯示器動態(tài)調整渲染視差。
在多攝像頭系統(tǒng)下,裸眼3D渲染不僅需要高效的識別與渲染算法,還需要支持高帶寬的流媒體傳輸。通過視頻壓縮技術、定制流媒體協(xié)議和實時傳輸技術[4],確保裸眼3D渲染的實時性和視頻質量。為支持實時裸眼3D渲染,系統(tǒng)結合高效高斯濺射渲染算法與高帶寬流媒體傳輸技術,視頻流采用低延遲編碼流媒體協(xié)議傳輸至顯示器[5],大幅降低端到端延遲,最終實現(xiàn)實時裸眼3D渲染輸出。AR3D-FVLS系統(tǒng)通過實時傳輸優(yōu)化[6],確保低延遲和高畫質之間的平衡。除了基于AI人臉識別的眼動追蹤之外,下一步多模態(tài)人工智能將被應用于目標物體識別、聲音識別、體積測量[7]、手勢識別與步態(tài)識別等,進一步實現(xiàn)交互過程的數字化與智能化。
2系統(tǒng)驗證
基于多AR攝像頭的裸眼3D渲染體積視頻自由視角直播系統(tǒng)采用8臺以上4KAR攝像頭組成陣列,從多角度同步捕獲目標場景。攝像頭采用直線或扇形排列,每臺攝像頭支持4K分辨率( 3840×2160 ),幀率 30fps 或 60fps ,單鏡頭碼率最高為 100Mbps 。視頻流通過萬兆網絡實時傳輸至點云重建渲染服務器。服務器配備多路高性能GPU(NVIDIARTX4090),運行深度學習驅動的實時3D高斯濺射點云重建算法,融合多視角深度圖生成三維點云模型。
在客戶端,4K裸眼3D顯示器集成AI人臉識別和眼動追蹤模塊,實時獲取用戶雙眼位置及6DOF(六自由度)姿態(tài)信息。這些信息通過WebSocket接口回傳至服務器,用于動態(tài)調整渲染視差,生成雙目3D視頻流。視頻流采用低延遲編碼流媒體協(xié)議傳輸至顯示器,并進行實時解碼與渲染,降低端到端延遲,最終實現(xiàn)端到端的6DOF實時裸眼3D渲染輸出。
為驗證系統(tǒng)性能,實驗從以下方面進行測試:一是圖像重建質量,包括點云密度、紋理清晰度和幾何精度;二是裸眼3D渲染效果,評估視差精度和6DOF視角切換的流暢性;三是系統(tǒng)實時性,測量端到端延遲和幀率穩(wěn)定性;四是用戶主觀體驗,評估3D沉浸感和真實感。
實驗選取虛擬演唱會和元宇宙會議兩種典型應用場景。測試對象為會議演講、動態(tài)人物與文化玩具等。渲染效果通過PSNR(峰值信噪比)和SSIM(結構相似性)量化圖像質量,視差精度通過雙眼視差誤差(以像素為單位)評估,6DOF效果通過用戶主觀評分和視角切換響應時間分析。
視差精度測試顯示,雙眼視差誤差控制在1.5像素內,確保了裸眼3D效果的穩(wěn)定性。6DOF水平視角 30° 左右,垂直視角 15°~30° ,支持多用戶觀看和自由視角切換。視角切換響應時間低于 60ms ,用戶主觀體驗友好,表明系統(tǒng)提供的沉浸式體驗真實、自然。實驗結果表明,AR3D-FVLS系統(tǒng)能夠在高清分辨率下實現(xiàn)流暢的6DOF裸眼3D視頻播放,幀率穩(wěn)定在 30fps ,從眼動追蹤到點云渲染再到編解碼傳輸的端到端延遲控制在 200ms 以內。與傳統(tǒng)點云傳輸相比,基于雙目視差渲染的圖像合成和視差圖生成方法顯著降低了數據量,減少了網絡帶寬需求。實驗還驗證了AR3D-FVLS系統(tǒng)在不同攝像頭陣列配置下的魯棒性(指系統(tǒng)在面對內部結構和外部環(huán)境變化時,保持其性能和功能穩(wěn)定的能力):扇形排列相比直線排列減少了視角盲區(qū),提升了點云覆蓋率。
深度學習驅動的點云重建和渲染技術顯著提升了體積視頻的圖像質量和實時性,滿足了虛擬現(xiàn)實和元宇宙應用的沉浸式需求。然而,目前系統(tǒng)仍存在一些局限性:一是高密度攝像頭陣列數量、布局與質量的平衡;二是復雜動態(tài)場景(如多人交互)導致點云重建精度下降;三是邊緣設備的算力限制可能影響渲染效果;四是裸眼3D顯示器的視角有限。未來可從分布式計算、視頻編碼優(yōu)化、渲染模型改進、終端能力擴展與多模態(tài)人工智能融合等方面進一步優(yōu)化系統(tǒng)性能。
3結語
本文設計的AR3D-FVLS系統(tǒng)采用8臺以上4KAR攝像頭陣列,以直線或扇形排列同步捕獲場景,結合3DGaussianSplatting算法和RTX4090GPU生成高質量點云模型。客戶端通過4K裸眼3D顯示器,集成AI眼動追蹤,動態(tài)調整視差,實現(xiàn)6DOF低延遲自由視角實時裸眼3D渲染,幀率30fps。實驗驗證了系統(tǒng)在虛擬演唱會和元宇宙會議場景下的圖像質量、實時性和沉浸感。深度學習提升了渲染效率,但系統(tǒng)面臨攝像頭布局、復雜場景精度、邊緣算力和視角限制的挑戰(zhàn)。未來可通過分布式計算、多模態(tài)AI優(yōu)化,擴展至移動端和多用戶擴展現(xiàn)實(XR)應用。
參考文獻:
[1」陳旺,李鈺.體積視頻技術賦能非物質文化遺產傳承發(fā)展的實踐與應對之路[J].北京文化創(chuàng)意,2024(1):26-32.
[2」潘志庚,郎旭,夏先亮,等.元宇宙視域下XR影視技術應用研究[J].現(xiàn)代電影技術,2025(6):18-27.
[3」胡強,鐘后強,王惟沙,等.基于神經輻射場的體積視頻高效編碼與傳輸方法[J」.廣播電視網絡,2024(S2):41-45.
[4」趙鶴鳴.六自由度體積視頻重建及傳輸優(yōu)化關鍵技術研究[D」.北京:北京郵電大學,2023.
[5」黃成豪.基于幀間復用的體積視頻傳輸研究與實現(xiàn)[D」.北京:北京郵電大學,2024.
[6]朱原瑋,黃亞坤,喬秀全.面向全息視頻通信的自適應分塊傳輸方法[J].電子學報,2024,52(4):1144-1154.
[7」李許峰.三維可視化體積測量技術研究與實現(xiàn)[D」.包頭:內蒙古科技大學,2012.