**劃重點(diǎn):**
- ?? 南洋理工大學(xué)與商湯科技的S-Lab團(tuán)隊(duì)推出GauHuman,基于Gaussian Splatting實(shí)現(xiàn)高質(zhì)量3D人體快速重建和實(shí)時(shí)渲染。
- ? GauHuman在1~2分鐘內(nèi)完成建模,每秒渲染高達(dá)189幀,超越了現(xiàn)有方案,應(yīng)用前景廣泛,涵蓋游戲、電影、虛擬現(xiàn)實(shí)等領(lǐng)域。
- ?? 通過SMPL參數(shù)和神經(jīng)網(wǎng)絡(luò),GauHuman有效處理單目人體視頻,快速生成高質(zhì)量3D數(shù)字人,開創(chuàng)了3D人體建模新局面。
站長之家(ChinaZ.com)1月11日 消息:南洋理工大學(xué)與商湯科技的S-Lab團(tuán)隊(duì)近日發(fā)布了一項(xiàng)令人振奮的研究成果,推出了基于Gaussian Splatting的高效3D人體建??蚣埽幻麨镚auHuman。該框架在快速重建和實(shí)時(shí)渲染方面取得了顯著的突破,為數(shù)字領(lǐng)域的人體建模提供了高效解決方案。
GauHuman的主要特點(diǎn)之一是其在短時(shí)間內(nèi)完成3D人體建模的能力。通過利用Gaussian Splatting技術(shù),該框架僅需1到2分鐘即可完成對單目人體視頻的建模,這一速度遠(yuǎn)遠(yuǎn)領(lǐng)先于現(xiàn)有的方案。不僅如此,GauHuman還實(shí)現(xiàn)了高達(dá)189幀每秒的實(shí)時(shí)渲染,為用戶提供更加流暢和逼真的體驗(yàn)。
這一框架的應(yīng)用前景也非常廣泛,覆蓋了游戲、電影制作、虛擬現(xiàn)實(shí)等多個(gè)領(lǐng)域。用戶只需提供一段單目人體視頻以及相應(yīng)的相機(jī)參數(shù)和人體動(dòng)作體形參數(shù)(SMPL),即可在短時(shí)間內(nèi)完成對3D數(shù)字人的高質(zhì)量建模。這使得GauHuman在數(shù)字創(chuàng)意領(lǐng)域具有巨大的潛力,為創(chuàng)作者提供了更靈活、高效的工具。
GauHuman的建??蚣芑贕aussian Splatting,并受到了之前人體神經(jīng)輻射場(Human NeRF)的啟發(fā)。通過對標(biāo)準(zhǔn)空間下的3D人體進(jìn)行建模,再利用線性蒙皮算法(Linear Blend Skinning,LBS)將其轉(zhuǎn)換到目標(biāo)空間,GauHuman有效地解決了傳統(tǒng)方法中的一些難題。在優(yōu)化算法方面,GauHuman通過3D高斯球的初始化、分裂/克隆/合并操作以及剪枝等手段,進(jìn)一步提高了建模效率和質(zhì)量。
在實(shí)驗(yàn)中,GauHuman在ZJU_MoCap和MonoCap兩個(gè)單目人體數(shù)據(jù)集上進(jìn)行了比較,與多個(gè)先進(jìn)的3D人體重建方法相比,包括NB、AN、AS、HumanNeRF等,GauHuman在PSNR、SSIM和LPIPS指標(biāo)上表現(xiàn)出色,驗(yàn)證了其在性能上的卓越。
研究團(tuán)隊(duì)表示,雖然GauHuman已經(jīng)取得了顯著的成果,但仍存在一些待解決的問題,如如何從3D高斯中提取人體mesh以及從單目視頻中恢復(fù)3D人體的細(xì)節(jié)等。不過,他們對GauHuman的未來發(fā)展充滿信心,同時(shí)已經(jīng)將代碼完全開源,鼓勵(lì)廣大開發(fā)者共同參與,共同推動(dòng)這一領(lǐng)域的研究和創(chuàng)新。
**參考鏈接:**
[GauHuman論文]https://arxiv.org/abs/2312.02973
[項(xiàng)目主頁]https://top.aibase.com/tool/gauhuman
[代碼開源]https://github.com/skhu101/GauHuman
(舉報(bào))