首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Meta研究为Avatar设计合成逼真自然的穿衣服饰效果

查看引用/信息源请点击:映维网Nweon

穿衣Avatar建模

映维网Nweon 2022年09月28日)照片真实感Avatar是远程社交的重要组成环节,系AR/VR的关键应用之一。实际上,如果你有关注映维网的分享,你会注意到Meta一直在积极探索相关的解决方案。在名为《Dressing Avatars: Deep Photorealistic Appearance for Physically Simulated Clothing》的论文中,由Meta、卡内基梅隆大学和明尼苏达大学组成的团队又针对穿衣Avatar建模提出了相关的思考方案。

尽管关于全身Avatar的研究已经产生了能够从稀疏信号中生成人类照片真实感合成表示的可动画模型,但合成真实感服饰依然是Avatar建模中的一个挑战。

同时,服饰是一种基本的自我表达形式,而创造出高品质的穿衣真实感动画的根本需要。关于可动画穿衣Avatar的现有研究主要可以分为两大类:1. 服饰模拟通过动力学创建逼真的服饰变形,但只关注几何建模;2. 另一项研究则利用真实世界捕捉来构建服饰几何的神经表示。然而,相关系统通常会阻碍服饰的动态性,难以泛化到看不见的姿态,并且无法很好地处理碰撞。

Meta团队的主要见解是,这两条路线实际上是相辅相成,可以将它们结合起来并利用两者的优势。在研究中,研究人员建议将基于物理的服饰模拟集成到Avatar建模中,以便Avatar的服饰可以与身体一起进行照片真实感的动画化,同时实现高质量的动力学、碰撞处理、以及使用新服饰对Avatar进行动画制作和渲染的能力。

值得一提的是,这项研究是以全身Codec Avatars作为基础,利用Variational Autoencoder(VAE)来模拟人体的几何结构和外观。特别是,他们遵循多层公式,但重新设计了服饰层,从而集成基于物理的模拟器。

在训练阶段,团队通过动态服饰配准管道处理原始捕获,使用真实世界的数据学习服饰外观模型。在测试时,使用适当的材质参数模拟底层身体模型之上的服饰几何,然后应用学习的外观模型合成最终输出。

遗憾的是,这个管道的简单实现存在两个主要问题。首先,模拟器输出和从实际数据获得的追踪之间存在差距。尽管在受控设置或仅在估计身体参数方面取得了一定的进展,但估计身体和服饰的全套物理参数以忠实地再现穿衣身体配置依然是一个尚未解决的问题。手动选择参数的测试时间模拟输出与用于训练的真实服饰几何图形之间存在不可避免的差异。

其次,高精度追踪服饰和潜在的身体几何形状依然是一个十分具有挑战性的问题,特别是对于宽松的服饰,如裙子和连衣裙。

这两个问题,训练和测试场景之间的不一致性,以及不可靠的追踪,使得学习一个可泛化的外观模型更具挑战性。

为此,研究人员根据架构和输入表示设计了本地化模型。他们同时从基于物理的渲染中获得灵感,将外观分解为局部漫反射组件、依赖视图和全局照明效果,如阴影。

特别是,团队依赖于一个无监督的阴影网络,以从身体和服饰几何显式计算的环境遮挡贴图为条件。因此,即使在测试时针对不同的基础身体模型,其都可以有效地建模动态阴影。所述方法可以生成物理真实的动力学和照片真实感外观,支持复杂身体-服饰交互中的各种身体运动。

另外,相关公式允许在不同个人的Avatar之间转移服饰。团队指出,这一方法为照片级真实感Avatar穿着新衣开辟了可能性。

方法介绍

研究人员的目标是构建具有动态服饰和照片级真实感外观的姿势驱动型全身Avatar。他们对Avatar进行了多视角拍摄序列的训练,每个主体都穿着感兴趣的服饰。在测试时,Avatar由骨架运动的稀疏驱动信号设置动画,并可以在新的camera视点中渲染。团队的目标是实现高保真动画,无论是从人类主体的外观还是从时间的服饰动态来看都足够逼真。

为此,他们开发了一个由三个模块组成的动画管道:底层身体Avatar模型、基于物理的服饰模拟和、以及服饰外观模型。

底层身体Avatar将骨架姿势作为输入,并输出身体几何体。给定一系列身体几何图形,然后使用服饰模拟生成具有自然和丰富动力学的服饰几何图形,并与底层身体的运动在物理上保持一致。

最后,将服饰外观模型应用于模拟几何体并生成照片级真实感纹理。其中,所述纹理不仅考虑了服饰几何体,同时考虑了Avatar身体遮挡造成的阴影。服饰投射在身体上的阴影在底层身体Avatar中进行了类似建模。图2显示了整体管道。

团队发现,服饰的高效照片级外观建模是这样一个管道中缺少的关键组件。为了构建这样一个系统,他们解决了两个主要的技术挑战。一方面,他们开发了一个深度服饰外观模型,它可以有效生成具有动态视相关和阴影效果的高度真实感服饰纹理。对于模型的设计,研究人员侧重于生成外观的泛化,因为来自服饰模拟器的输入几何体可能不同于用于训练外观模型的追踪服饰几何。

另一方面,为了生成外观模型的训练数据,他们扩展了以前的服饰配准算法,从而处理高度动态的服饰类型,包括裙子和连衣裙。另外,研究人员通过匹配显著特征来追踪服饰上的光度对应关系(所述特征对于高纹理服饰外观的建模至关重要)。

穿衣身体配准

由于服饰配准不是这项研究的核心贡献,所以他们重点关注大型服饰动态和丰富纹理带来的挑战,因为这是实现高保真动画必须解决的问题。数据采集设置与之前的工作类似。这一管道以对象的多视图图像序列作为输入,并在两个单独的层中输出服饰和底层身体的配准网格。

研究人员将原始几何体重建和网格分割到身体和服饰区域。他们同样估计了运动身体姿态和内层身体表面。

动态服饰配准的目标是以一致的对应关系在单个网格拓扑中表示服饰几何体。团队的服饰配准方法包括两个主要步骤,几何配准和光度校准。图3说明了服饰配准方法的概述。

几何配准

在这一步中,使用非刚性Iterative Closest Point(ICP)算法将服饰模板拟合到重建网格的分段服饰区域。非刚性ICP算法类似于之前的研究,因此团队省略了相关细节。为了追踪宽松和动态服饰类型(如裙子和连衣裙),为非刚性ICP提供良好的初始化非常重要。

他们观察到,服饰边界提供了关于服饰整体方向和变形的有用信息。因此,他们首先估计粗糙边界对应。利用每件服饰都有固定数量的边界这一事实,通过查询追踪的内身体表面中最近的顶点,将目标服饰边界上的每个点与模板网格边界相关联。考虑到这种粗糙的边界对应关系,他们使用Biharmonic Deformation Fields来求解满足边界对齐约束的逐顶点变形,同时最小化内部变形。

研究人员使用Biharmonic Deformation Fields的输出作为非刚性ICP算法的初始化。

光度校准

几何配准方法通过最小化表面距离将衣服饰几何与单个模板拓扑对齐,但没有明确求解内部对应。为了有效地建模服饰外观,有必要确保模板中的每个顶点始终跟踪相同的颜色(基本上是反射比),这称为光度对应。他们观察到,基于chunk的逆绘制算法可以纠正几何配准步骤中光度对应的小偏差,但无法从初始化中的大误差中恢复。

在这里,他们通过匹配服饰高纹理区域中的显著特征来明确解决光度对应问题。对于序列中的每一帧,首先使用上一步中几何对齐的网格将多视图图像中的平均纹理展开到UV空间。然后,使用DeepMatching在展开纹理和模板纹理之间建立稀疏对应对。团队同时使用RANSAC来删除错误的通信。

然后,通过求解拉普拉斯方程,将稀疏对应加密到每个顶点,类似于上一步中的Biharmonic Deformation Fields。最后,在模板和目标网格之间运行彩色ICP以测光对齐所有顶点。

深度动态服饰外观模型

服饰外观模型是实现照片级真实感服饰动画系统的关键技术组件。给定服饰几何体作为输入,服饰外观模型的目标是生成可与输入几何体一起用于光栅化的服饰纹理,以生成照片级真实感外观。

他们构建了一个数据驱动的服饰外观模型,以便从实际捕获的图像序列中学习复杂的照片级真实感外观。在设计这种模型时,需要考虑几个因素。

首先,外观模型根据前一个配准步骤中的跟踪几何体进行训练,但在测试时,它将模拟服饰几何体作为输入。因此,模型必须弥合训练数据和测试数据之间的泛化差距。

其次,生成的纹理应包括照片级真实感外观的各个方面,例如视相关效果和动态阴影。

第三,为了提高效率,模型应该只涉及可以从服饰几何体中轻松推导出的基本量,而不需要计算成本高昂的操作,例如多反弹蒙特卡罗光线追踪。

研究人员从捕获设置中获得了一系列配准的服饰网格{ } 和基础身体网格{ },并与多视图图像配对。他们从外观函数学习从几何图形 , 和视点到真实照片级UV纹理。图4显示了服饰外观模型。

根据分析,函数 应该能够对局部漫反射外观、依赖于视图的效果、以及投射阴影进行建模。根据假设,每个位置的漫反射分量由法向和漫反射系数确定。因此,视图独立部分以法线方向n为条件来编码照明方向。

他们使用带untied biases的2D卷积来编码服饰上空间变化的反射率。实验表明,作为局部几何性质的法向在用作输入条件时比绝对顶点位置更适用于泛化。网络中与视图相关的部分同时将获取视点信息作为输入,并预测附加的视相关外观偏移。

对于动态阴影效果,之前的研究表明,阴影网络根据环境遮挡预测的阴影贴图可以在输出质量和计算效率之间实现良好的权衡。因此,团队遵循这一点,并使用阴影网络预测准阴影贴图。输入环境光遮挡是通过光线网格与身体和服饰几何相交来计算。他们使用2D卷积神经网络(CNN)作为外观模型的架构。网络的所有输入都将根据固定的UV映射转换为2D要素贴图。与编Codec Avatar的自动编码器结构不同,这三个部分中的每一部分都采用了U-Net架构。所述架构可以关注每个输入位置周围的本地信息,以学习可泛化的外观函数。

结果

他们使用基于GPU的服饰模拟器和基于扩展位置的动力学公式。在9k个顶点的身体序列之上模拟35k个顶点服饰时,模拟解算器每帧的平均运行时间在8ms之间,在Nvidia Tesla V100 GPU上每帧执行20步时为10毫秒。对于部署,他们使用PyTorch实时(JIT)编译来提高性能。在Lambda工作站的Nvidia RTX 3090 GPU上,这两个模块组合在一起的平均运行时间为78毫秒。他们使用多个GPU来并行化推理。例如,可以用3个GPU并行实现>30 fps。补充视频展示了在VR头显中查看动画序列的演示。其中,服饰模拟是预先计算,而身体Avatar和服饰外观是实时渲染。尽管目前分别运行服饰模拟器和神经网络,但考虑到三个模块中每个模块的计算量不大,所述管道有潜力集成到一个完整的实时在线系统之中。

局限

团队展示了高效的全身穿衣Avatar,其具有物理上看似合理的动力学和照片级的外观。所述方法实现了动态服饰几何体的高保真配准,并基于配准的几何体学习深度服装外观模型进行训练。在测试时,服饰通过基于物理的模拟变形,并通过外观模型进行渲染。为了弥补训练时追踪服饰几何和测试时模拟服饰几何体之间的差距,他们设计了一个输入表示和一个由三个模块组成的架构。一旦一件服饰被建模,系统就可以用它来打扮一个新的Avatar。

然而,服饰存在非常的几何和外观变化空间。尽管所述方法处理单层宽松衣服的效果比以前的研究要好得多,但在处理极宽松服饰的大褶皱时可能会有困难,例如和服等内层明显被遮挡的多层服饰。另外,如果由于错误的初始化和/或重复模式而导致特征匹配不准确,光度配准可能会失败。

另外,由于模拟的实时限制,基于物理的服饰模拟在处理高度复杂的手布交互时可能面临挑战。

尽管服饰外观模型是使用仅为一个对象捕获的数据进行训练,但阴影分支在用于打扮新颖Avatar时显示出合理的泛化能力,因为它仅通过光线的遮挡间接地受到身体形状的影响。然而,由于可获得的最低着装量数据有限,所述模型如何适用于极端体型尚未得到测试。对不同服饰和身份的阴影进行系统研究是一个有趣的未来方向。另外,研究人员不考虑服饰和身体之间,以及衣服褶皱之间照明的复杂相互反射。

他们在给新Avatar穿衣时同样假设了一致的照明条件。当假设不成立时,会观察到轻微的不一致。未来,他们希望通过将重新照明功能与更新的捕获设置结合到Avatar和服饰模型中,从而环节这一限制。

相关论文

Dressing Avatars: Deep Photorealistic Appearance for Physically Simulated Clothing

https://paper.nweon.com/13171

总而言之,这一研究的贡献如下:

展示了可设置动画的穿衣Avatar,其具有数据驱动的照片级真实感外观和来自模拟的物理真实感服饰动态;

开发了一个深度服饰外观模型,可生成照片级真实感的服饰外观。这一模型弥补了训练用追踪服饰几何图形和测试时模拟服饰几何图形之间的泛化差距;

动画系统进一步实现了不同主体之间的服饰转换以及服饰尺寸的编辑。在实验中,团队通过设置多种特征和服饰类型的动画来评估方法的有效性,并对现有技术进行全面的定性和定量比较。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220928A02CT300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券