Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >CVPR 2024 | DNGaussian: 全局局部深度归一化优化的稀疏三维高斯辐射场

CVPR 2024 | DNGaussian: 全局局部深度归一化优化的稀疏三维高斯辐射场

作者头像
用户1324186
发布于 2024-05-31 12:15:54
发布于 2024-05-31 12:15:54
1.5K0
举报
文章被收录于专栏:媒矿工厂媒矿工厂

来源:CVPR 2024 题目:DNGaussian: Optimizing Sparse-View 3D Gaussian Radiance Fields with Global-Local Depth Normalization 论文作者:Jiahe Li, Jiawei Zhang, Xiao Bai, Jin Zheng 论文链接:https://arxiv.org/pdf/2403.06912 内容整理:高弈杰 为了解决稀疏视图下新视角合成的高成本、速度慢的问题,本文引入了DNGaussian,一种基于3D GS的深度约束架构。文章提出了用单目深度监督实现硬和软深度约束,从而学习到更准确的场景几何。此外文章还引入了全局局部深度归一化,加强了对微小局部深度变化的关注。DNGaussian在多个数据集上取得了sota效果。

介绍

从稀疏输入合成新视图对于辐射场来说是一个挑战。神经辐射场(NeRF)的最新进展在仅使用少量输入视图就能重建出高度逼真的外观和准确的几何信息方面取得了卓越成果。然而,大部分基于稀疏视图的NeRF实现速度较慢,内存消耗也较大,导致时间和计算成本很高,限制了它们的实际应用。

最近,3D高斯溅射(3D Gaussian Splatting)引入了一种无结构的3D高斯辐射场,使用一组3D高斯基元来实现从密集输入视图快速、高质量和低成本的新视图合成。即使只有稀疏输入,它仍然能部分保留重建清晰和细节丰富的局部特征的能力。然而,视图约束的减少导致场景几何结构的大部分被学习错误,从而导致新视图合成失败。

尽管3D高斯辐射场和NeRF在深度渲染形式上有相似之处,但它们的深度正则化却存在显著差异。首先,现有的NeRF深度正则化策略通常会将深度用于正则化整个模型,这在高斯场中会产生潜在的几何冲突,从而对质量产生不利影响。具体来说,这种做法会迫使高斯形状适应平滑的单目深度,而不是复杂的颜色外观,从而导致细节丢失和模糊化。考虑到场景几何的基础在于高斯基元的位置而不是它们的形状,文章冻结形状参数,提出硬和软深度正则化,以鼓励基元之间的移动来实现空间重塑。在正则化过程中,文章提出渲染两种类型的深度,以独立调整高斯的中心和不透明度,而不改变它们的形状,从而在复杂颜色外观和平滑粗糙深度之间达到平衡。

此外,与NeRF相比,3D GS对小的深度误差更加敏感,这可能导致基元的分布噪声以及在复杂纹理区域出现失败。现有的尺度不变深度损失通常会将深度图对齐到固定尺度,从而忽略了小的损失。为了解决这个问题,文章在深度损失函数中引入全局-局部深度归一化,从而以尺度不变的方式鼓励学习小的局部深度变化。通过局部和全局尺度归一化,文章的方法将损失函数重新聚焦于小的局部错误,同时保持对绝对尺度的知识,以增强深度正则化过程中的细节几何重塑。

文章结合上述两种技术,DNGaussian在LLFF、Blender和DTU数据集的多种稀疏视图设置中,其合成视图的质量和细节能力与sota方法相比具有竞争力。这一优势进一步得到增强,内存成本大幅降低,训练时间缩短25倍,渲染速度提高3000多倍。实验还证明了文章的方法在拟合复杂场景、广泛视角和多种材质方面的通用能力。

文章的贡献可以归纳为以下三点:

①提出了一种硬性和软性深度正则化方法,通过鼓励高斯的移动来约束3D高斯辐射场的几何结构。这种方法实现了在不损害细粒度颜色性能的情况下对粗糙深度进行正则化的空间重塑。

②提出了一种全局-局部深度归一化方法,通过在局部尺度上归一化深度块来实现对小的局部深度变化的重新聚焦,从而提高3D高斯辐射场对细节外观的重建。

③提出了一种DNGaussian框架,用于快速高质量的少样本新视图合成。该框架结合了上述两种技术,在多个基准测试中与sota方法相比取得了竞争性的质量,在以大幅降低的训练成本和实时渲染的情况下,展现了对细节捕捉的优势。

方法

图1

3D高斯的先验知识

3D高斯使用一组3D高斯表示3D信息。它使用一组3D高斯基元、视图姿态和涉及中心的相机参数,计算像素级颜色。具体地说,一个高斯基元可以用一个中心、一个缩放因子和一个旋转四元数来描述。第个基元的基函数的形式为:

其中协方差矩阵可以用和计算得到。为了渲染目的,高斯基元还保留了一个不透明度值和一个维颜色特征。那么就是第个高斯的参数。

3D高斯使用基于点的渲染方法,通过混合重叠像素的个有序高斯来计算像素的颜色:

其中是由颜色特征计算得到的与NeRF的光线采样策略不同,所涉及的N个高斯是根据、相机参数和视图姿态,以及一组预定义的规则,由经过良好优化的光栅化器收集的。个基元的渲染不透明度是由它们在图像平面上的投影2D高斯和计算得出的:

然后,与NeRF类似,我们可以用到相机中心的距离来表示像素级深度:

3D高斯通过梯度下降在颜色监督下优化所有高斯的参数。在优化过程中,它识别并复制最活跃的基元,以更好地表示复杂的纹理,同时删除不活跃的基元。文章将继续沿用这些优化策略进行颜色监督。为了从更好的几何结构开始,该方法建议利用COLMAP或其他SfM生成的点云来初始化高斯。但是,考虑到在稀疏视角情况下点云的不稳定性,文章将使用一组随机初始化的高斯来启动本文的方法。

深度约束

形状冻结

3D高斯辐射场拥有四个可优化参数可以直接影响深度,这比NeRF更复杂。由于单通道深度比颜色要平滑得多,更容易拟合,对整个模型应用全参数深度正则化,这在之前的稀疏视角神经场中广泛使用,会导致形状参数过拟合目标深度图,从而造成模糊的外观。因此,这些参数必须被不同地对待。由于场景几何主要由高斯基元的位置分布表示,我们认为中心和不透明度是最重要的需要正则化的参数,因为它们分别代表位置本身和位置的占用。此外,为了减少对颜色重建的负面影响,我们在深度正则化中冻结缩放和旋转。

硬深度正则化

为了实现高斯场的空间重塑,文章首先提出了一种硬深度正则化,鼓励最近的高斯移动,这些高斯被期望组成表面,但通常会引起噪声和伪影。考虑到预测的深度是由多个高斯的混合渲染,并由累积乘积重新加权的,我们手动为所有高斯应用了一个大的不透明度值。然后,我们渲染一个"硬深度",它主要由从相机中心穿过像素的射线上最近的高斯组成:

由于现在只有中心处于优化状态,位置错误的高斯无法通过降低它们的不透明度或改变形状来避免被正则化,因此它们的中心会移动。该正则化是通过目标图像区域的相似性损失实现的,鼓励硬深度接近单目深度:

软深度正则化

仅对"硬深度"进行正则化是不够的,因为缺乏不透明度优化。文章还希望确保实际渲染的"软深度"的准确性,否则表面可能会变得半透明并造成空洞。从这个角度来看,文章额外冻结了高斯中心(表示为)以避免中心移动造成的负面影响,并提出了软深度正则化来调整不透明度:

通过同时使用硬深度正则化和软深度正则化,文章约束最近的高斯保持在合适的位置并具有较高的不透明度,因此可以组成完整的表面。

全局-局部深度归一化

之前基于深度监督的神经场通常在深度图的源尺度上构建深度损失。这种对齐方式是通过基于大面积统计数据的固定尺度来测量所有损失的。结果可能会忽视小错误,特别是当处理颜色重建或广泛深度变化等多个目标时。这种忽视在之前基于NeRF的工作中可能不太重要,但在高斯辐射场中可能会出现更严重的问题。

在高斯辐射场中,纠正小的深度错误更具挑战性,因为它主要依赖于高斯基元的移动,这是一个发生在较小学习率下的过程。此外,如果基元在深度正则化期间没有被纠正位置,它们将变成漂浮的噪声,并导致失败,特别是在具有细节丰富外观的区域,需要聚集大量基元,如下图所示。

图2

局部深度归一化

为了解决这个问题,文章通过引入基于局部补丁的归一化来让损失函数重点关注小错误。具体来说,文章将整个深度图切分成小的补丁,并使用接近于的标准差和的均值对预测深度和单目深度的补丁进行归一化:

全局深度归一化

与仅关注局部小损失不同,还需要一个全局视角来学习整体形状。为了弥补全局尺度的缺失,我们在深度正则化中进一步添加了全局深度归一化。这使得深度损失在关注全局尺度的同时保留了局部相关性。与局部归一化类似,我们应用基于补丁的归一化来使深度摆脱源尺度,关注局部变化。唯一的不同在于,这里使用整个图像I的深度DI的全局标准差来替换补丁的标准差:

此外,基于补丁的归一化还可以通过促进局部相对深度的学习来避免单目深度中的远距离错误,这与深度排序知识蒸馏产生类似的效果。但不同的是,为了几何重塑的目的,我们还鼓励模型学习绝对深度变化,而不是忽略它。

损失函数

损失函数由三部分组成:颜色重建损失、硬深度正则化和软深度正则化。根据3D高斯散射,颜色重建损失是渲染图像和地面真值的重建损失和项的组合:

深度正则化和都包括一个来自文章两种深度归一化的局部项和全局项。我们使用损失来度量相似性。两种正则化的形式都是:

其中代表硬或软。在实践中,实验为损失保留了一个误差容限,以放松约束。完整的损失函数形式为:

实验

数据集

文章在三个数据集进行了实验:NeRF Blender合成数据集、DTU数据集和LLFF数据集。遵循之前工作使用的设置,对DTU和LLFF数据集使用相同的分割,在3个视图上训练模型,并在另一组图像上进行测试。为了消除背景噪声,专注于目标对象,文章在DTU评估时应用了与之前工作相同的对象掩码。对于Blender,遵循DietNeRF和FreeNeRF的方式,使用相同的个视图进行训练,并在个未见图像上进行测试。与基线保持一致,我们对LLFF、DTU和Blender应用了倍、倍和倍的下采样率。遵循之前的稀疏视图设置,假定相机姿态通过校准或其他方式已知。

实验模型

继承之前的稀疏视图神经场方法,我们将目前sota方法SRF、PixelNeRF、MVSNeRF、Mip-NeRF、DietNeRF、RegNeRF、FreeNeRF和SparseNeRF作为基线。对于大多数基于NeRF的方法,直接从相应发表论文中报告其最佳定量结果进行比较。文章还报告了raw 3D高斯散射(3DGS)的结果。

实现细节

在官方的PyTorch 3D高斯散射代码库上构建了文章的模型。针对所有数据集训练模型次迭代,并在第次迭代后应用软深度正则化,以获得稳定性。文章在所有实验中设置作为损失函数。神经渲染器由一个具有个级别、分辨率范围为到、最大为的哈希编码器和一个层MLP(隐藏维度为)组成。文章使用DPT来预测所有输入视图的单目深度图。3DGS 和 DNGaussian模型是使用均匀分布随机初始化的。

实验结果

LLFF和DTU数据集上的实验结果

表1

图3

图4

Blender数据集上的实验结果:

表2

图5

消融实验结果

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-05-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 媒矿工厂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
谷歌给NeRF动了个小手术,2D变3D,照片视角随心换
最近,来自谷歌Research和谷歌Brain的一组研究人员开发了一个深度学习模型,仅使用非结构化的野外图片集合就能合成复杂的户外3D场景图。
新智元
2020/08/11
1.7K0
谷歌给NeRF动了个小手术,2D变3D,照片视角随心换
ICLR 2025|高效重建几何精准的大规模复杂三维场景,中科院提出CityGaussianV2
是否还在担心大规模场景训练和压缩耗时太长、显存开销太大?是否还在苦恼重建出的建筑物和道路表面破碎不堪?是否还在困扰如何定量衡量大规模场景几何重建的精确程度?
机器之心
2025/02/06
1830
ICLR 2025|高效重建几何精准的大规模复杂三维场景,中科院提出CityGaussianV2
仅用三张图,合成高质量的3D场景,NTU提出SparseNeRF
随着深度学习与 3D 技术的发展,神经辐射场(NeRF)在 3D 场景重建与逼真新视图合成方面取得了巨大的进展。给定一组 2D 视图作为输入,神经辐射场便可通过优化隐式函数表示 3D。
机器之心
2023/09/08
5690
仅用三张图,合成高质量的3D场景,NTU提出SparseNeRF
华为3D实景地图,30分钟构建超精细数字世界,达到厘米级
千百年来,人类都致力于记录和解释身处的物理世界。随着计算机科学的发展,将物理世界数字化重建,不仅是长远的理想,更是千行百业努力的当下工作。真实的数字化重建三维物理环境,进而从任意视角观察重建的环境,是图形学、计算机视觉领域每个人的终极梦想,也是虚拟增强现实、元宇宙等众多未来应用的基石。
机器之心
2022/12/16
7950
华为3D实景地图,30分钟构建超精细数字世界,达到厘米级
CVPR 2024 | Scaffold-GS:自适应视角渲染的结构化 3D 高斯
神经辐射场利用基于学习的参数模型来产生连续的渲染图像,并保留更多的细节。然而,其耗时的随机采样,会导致性能下降和出现潜在的噪声。
用户1324186
2024/05/20
1.7K0
CVPR 2024 | Scaffold-GS:自适应视角渲染的结构化 3D 高斯
FSGS: 基于 Gaussian Splatting 的实时 Few-shot 视角合成
新视角合成是计算机视觉和图形学领域中一项长期存在并且富有挑战的任务。过去两年,NeRF及其衍生工作的提出将该任务提升到了新的高度。然而,基于NeRF的方法的训练和渲染需要大量的成本才能达到理想的效果,比如稠密的输入视角和耗时的训练与渲染。尽管后续的一些稀疏视角NeRF的工作以及InstantNGP的提出在一定程度上解决了部分缺陷,但NeRF方法始终没有做到实时和高质量的高分辨率渲染。
用户1324186
2024/04/12
1K0
FSGS: 基于 Gaussian Splatting 的实时 Few-shot 视角合成
CVPR2024 | HUGS:人体高斯溅射
真实渲染和人体动态是一个重要的研究领域,具有在AR/VR、视觉特效、虚拟试衣、电影制作等众多应用。早期的工作创建人类化身依赖于多相机捕捉设置中的高质量数据捕捉、大量计算和大量手工努力。最近的工作通过使用3D参数化身体模型如SMPL,直接从视频生成3D化身来解决这些问题,这些模型具有高效光栅化和适应未见变形的能力。然而,参数化模型的固定拓扑结构限制了对衣物、复杂发型和其他几何细节的建模。最近的进展探索了使用神经场来建模3D人类化身,通常使用参数化身体模型作为建模变形的模版。神经场在捕捉衣物、配饰和头发等细节方面表现出色,超越了通过纹理和其他属性光栅化参数化模型所能实现的质量。然而,它们也有不足,特别是在训练和渲染效率方面较低。
用户1324186
2024/05/31
6070
CVPR2024 | HUGS:人体高斯溅射
比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅 | CVPR 2024 Highlight
人类生活在一个三维世界中,并通过文本语言描述三维场景,构建三维语义场以支持在三维空间中的开放文本查询最近越来越受到关注。
新智元
2024/06/28
2250
比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅 | CVPR 2024 Highlight
经典论文 | Nerf: 将场景表示为用于视图合成的神经辐射场
计算机视觉中一个研究方向是在 MLP 的权重中编码对象和场景,使得该 MLP 直接从 3D 空间位置映射到形状的隐式表示。然而,之前的方法无法使用离散的方式(如三角形网格或体素网格)以相同的保真度再现具有复杂几何形状的真实场景,迄今为止也仅限于表示具有低几何复杂性的简单形状,从而导致渲染过度平滑。NeRF提出将一个静态场景表示为5D输入,即:空间中某个位置的3D坐标以及观察方向,通过MLP神经网络得到该位置的颜色以及体密度,使用体绘制技术可以得到输入相机位姿条件下的视角图片,然后和 ground truth 做损失即可完成可微优化,从而渲染出连续的真实场景。
用户1324186
2022/11/07
3.7K0
经典论文 | Nerf: 将场景表示为用于视图合成的神经辐射场
SIGGRAPH 2023 | 用于实时辐射场渲染的 3D Gaussian Splatting
网格和点是最常见的可以用于基于 GPU/CUDA 快速光栅化的显式三维场景表征方式。而神经辐射场基于 MLP 使用体渲染对捕捉的场景化进行自由视角合成。而提升辐射场效率的方案目前多基于体素、哈希网格或是点。辐射场方法的连续性有助于场景的优化,但是渲染过程中所需的随机采样需要的花销较大同时会带来噪声。因此,在本文中,作者提出了一种新的方法:本文所提出的 3D 高斯表达在能达到 sota 视觉质量和可比的渲染时间的同时,本文所提出的基于 tile 的 Splatting 方法可以实时渲染 1080p 的结果。
用户1324186
2023/10/10
1.8K0
SIGGRAPH 2023 | 用于实时辐射场渲染的 3D Gaussian Splatting
CVPR 2024满分论文:浙大提出基于可变形三维高斯的高质量单目动态重建新方法
单目动态场景(Monocular Dynamic Scene)是指使用单眼摄像头观察并分析的动态环境,其中场景中的物体可以自由移动。单目动态场景重建对于理解环境中的动态变化、预测物体运动轨迹以及动态数字资产生成等任务至关重要。
机器之心
2024/03/07
4760
CVPR 2024满分论文:浙大提出基于可变形三维高斯的高质量单目动态重建新方法
ICCV 2023 | LERF:语言嵌入的辐射场
神经辐射场(NeRFs)已成为一种强大用于捕捉复杂现实世界 3D 场景的真实数字表征的技术。然而,NeRF 的即时输出只是一个有颜色的密度场,没有实际意义或上下文信息,这阻碍了构建与所生成的 3D 场景进行交互的接口。自然语言是用于与 3D 场景交互的直观接口。以图 1 中的厨房为例,想象一下,通过询问“餐具”在哪里,或者更具体地说,询问你可以用来“搅拌”的工具,甚至询问你最喜欢的带有特定标志的马克杯,你就可以对这个厨房了如指掌。这不仅需要处理自然语言输入查询的能力,还需要具有在多个尺度上整合语义,并与长尾和抽象概念相关的能力。
用户1324186
2023/11/24
4720
ICCV 2023 | LERF:语言嵌入的辐射场
神经辐射场去掉「神经」,训练速度提升100多倍,3D效果质量不减
没有了神经网络,辐射场(Radiance Fields)也能达到和神经辐射场(Neural Radiance Fields,NeRFs)相同的效果,但收敛速度快了 100 多倍。 2020 年,加州大学伯克利分校、谷歌、加州大学圣地亚哥分校的研究者提出了一种名为「NeRF」的 2D 图像转 3D 模型,可以利用少数几张静态图像生成多视角的逼真 3D 图像。其改进版模型 NeRF-W (NeRF in the Wild)还可以适应充满光线变化以及遮挡的户外环境,分分钟生成 3D 旅游观光大片。
机器之心
2021/12/28
1.6K0
神经辐射场去掉「神经」,训练速度提升100多倍,3D效果质量不减
本科生新算法打败NeRF,不用神经网络照片也能动起来,提速100倍|开源
它是一个简单的全连接神经网络,使用2D图像的信息作为训练数据,还原拥有体积的3D场景。
量子位
2021/12/24
1.5K0
本科生新算法打败NeRF,不用神经网络照片也能动起来,提速100倍|开源
高真实感、全局一致、外观精细,面向模糊目标的NeRF方案出炉
模糊复杂目标的高真实感建模和渲染对于许多沉浸式 VR/AR 应用至关重要,其中物体的亮度与颜色和视图强相关。在本文中,来自上海科技大学的研究者提出了一种使用卷积神经渲染器为模糊目标生成不透明辐射场的新方案,这是首个将显式不透明监督和卷积机制结合到神经辐射场框架中以实现高质量外观的方案,并以任意新视角生成全局一致的 alpha 蒙版。
机器之心
2021/06/08
8990
滑铁卢大学使用谷歌地球图像和高斯溅射进行真实感3D城市场景重建和点云提取!
从2D图像中进行3D重建和建模近年来受到了极大的关注,这要归功于具有3D重建能力的真实感视图合成方法的最新进展。从技术角度来看,这是一个跨计算机视觉、计算机图形学和摄影测量学的交叉研究领域。
AIGC 先锋科技
2024/07/08
9390
滑铁卢大学使用谷歌地球图像和高斯溅射进行真实感3D城市场景重建和点云提取!
【他山之石】3D Gaussian Splatting:实时的神经场渲染
“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注。
马上科普尚尚
2023/12/15
3K0
【他山之石】3D Gaussian Splatting:实时的神经场渲染
NeurIPS2022的Spotlight文章,性能超出当前SOTA的神经隐式表面重建方法20%
近年来,通过基于体渲染技术的神经隐式表面学习来实现多视图三维重建成为计算机三维视觉领域研究的热点。然而,目前仍然存在一个关键性问题亟待解决:现有的方法缺乏明确的多视图几何约束,因此通常无法实现几何一致的三维重建。为了应对这一问题,我们提出了一种几何一致的神经隐式多视图三维重建算法。首先,我们从理论上分析了基于积分的体渲染技术和基于空间点的符号距离函数(SDF)建模之间存在着固有偏差。为了消除这一偏差,我们直接定位到SDF网络的零测度集,并通过利用来自运动恢复结构(SFM)的稀疏三维信息和多视图立体视觉(MVS)中的光度一致性约束来显式地对表面进行多视图几何优化。这保证了我们的符号距离函数优化无偏,并使得多视图几何约束聚焦于真正表面的优化。大量实验表明,我们提出的方法在复杂的精细结构和大范围的平滑区域都实现了高质量的三维重建,从而在性能上大大优于现有技术。
CV君
2023/03/06
9830
NeurIPS2022的Spotlight文章,性能超出当前SOTA的神经隐式表面重建方法20%
动态三维高斯:通过持续动态视图合成进行跟踪
动态3D世界建模将对判别式和生成式人工智能产生变革性影响。在判别式方面,这将实现对场景每一部分随时间变化的度量空间重建。模拟一切当前的位置、过去的位置及其移动方向,对许多应用至关重要。在生成式人工智能中,这样的模型可以实现诸如轻松控制和编辑高分辨率动态3D资源等新形式的内容创作,用于电影、视频游戏或元宇宙。许多此类应用需要可扩展的方法,能够实时处理高分辨率图像。到目前为止,还没有方法能够实现对任意动态场景的逼真重建,同时具备高度精确的追踪和视觉上吸引人的新视角,而且能够快速训练并实时渲染。
用户1324186
2023/12/28
9990
动态三维高斯:通过持续动态视图合成进行跟踪
谷歌华人研究员发布MobileNeRF,渲染3D模型速度提升10倍
---- 新智元报道   编辑:LRS 【新智元导读】最近谷歌发布了全新的MobileNeRF模型,直接将神经辐射场拉入移动时代,内存需求仅为1/6,渲染3D模型速度提升10倍,手机、浏览器都能用! 2020年,神经辐射场(NeRF)横空出世,只需几张2D的静态图像,即可合成出该模型的3D场景表示,从此改变了3D模型合成的技术格局。 NeRF以一个多层感知器(MLP)来学习表示场景,评估一个5D隐式函数来估计从任何方向、任何位置发出的密度和辐射,可在体渲染(volumic rendering)框架下
新智元
2022/08/26
1.1K0
谷歌华人研究员发布MobileNeRF,渲染3D模型速度提升10倍
推荐阅读
谷歌给NeRF动了个小手术,2D变3D,照片视角随心换
1.7K0
ICLR 2025|高效重建几何精准的大规模复杂三维场景,中科院提出CityGaussianV2
1830
仅用三张图,合成高质量的3D场景,NTU提出SparseNeRF
5690
华为3D实景地图,30分钟构建超精细数字世界,达到厘米级
7950
CVPR 2024 | Scaffold-GS:自适应视角渲染的结构化 3D 高斯
1.7K0
FSGS: 基于 Gaussian Splatting 的实时 Few-shot 视角合成
1K0
CVPR2024 | HUGS:人体高斯溅射
6070
比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅 | CVPR 2024 Highlight
2250
经典论文 | Nerf: 将场景表示为用于视图合成的神经辐射场
3.7K0
SIGGRAPH 2023 | 用于实时辐射场渲染的 3D Gaussian Splatting
1.8K0
CVPR 2024满分论文:浙大提出基于可变形三维高斯的高质量单目动态重建新方法
4760
ICCV 2023 | LERF:语言嵌入的辐射场
4720
神经辐射场去掉「神经」,训练速度提升100多倍,3D效果质量不减
1.6K0
本科生新算法打败NeRF,不用神经网络照片也能动起来,提速100倍|开源
1.5K0
高真实感、全局一致、外观精细,面向模糊目标的NeRF方案出炉
8990
滑铁卢大学使用谷歌地球图像和高斯溅射进行真实感3D城市场景重建和点云提取!
9390
【他山之石】3D Gaussian Splatting:实时的神经场渲染
3K0
NeurIPS2022的Spotlight文章,性能超出当前SOTA的神经隐式表面重建方法20%
9830
动态三维高斯:通过持续动态视图合成进行跟踪
9990
谷歌华人研究员发布MobileNeRF,渲染3D模型速度提升10倍
1.1K0
相关推荐
谷歌给NeRF动了个小手术,2D变3D,照片视角随心换
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档