整理:AI算法与图像处理
CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo
ECCV2022论文和代码整理:https://github.com/DWCTOD/ECCV2022-Papers-with-Code-Demo
标题:Texturify: Generating Textures on 3D Shape Surfaces
主页:http://www.cgg.cs.tsukuba.ac.jp/~endo/projects/UserControllableLT/
论文:http://arxiv.org/abs/2208.12408
代码: https://github.com/endo-yuki-t/UserControllableLT
摘要:潜在空间探索是一种发现可解释的潜在方向并操纵潜在代码以编辑由生成对抗网络 (GAN) 生成的图像中的各种属性的技术。然而,在之前的工作中,空间控制仅限于简单的变换(例如平移和旋转),识别适当的潜在方向并调整其参数是很费力的。在本文中,我们通过直接注释图像来解决编辑 StyleGAN 图像布局的问题。为此,我们提出了一个交互式框架,用于根据用户输入操作潜在代码。在我们的框架中,用户使用他们想要移动或不移动的位置来注释 StyleGAN 图像,并通过鼠标拖动指定移动方向。从这些用户输入和初始潜在代码中,我们基于转换器编码器 - 解码器架构的潜在转换器估计输出潜在代码,这些代码被馈送到 StyleGAN 生成器以获得结果图像。为了训练我们的潜在转换器,我们利用现成的 StyleGAN 和光流模型生成的合成数据和伪用户输入,无需人工监督。定量和定性评估证明了我们的方法优于现有方法的有效性。
Improving RGB-D Point Cloud Registration by Learning Multi-scale Local Linear Transformation
Style-Agnostic Reinforcement Learning
SimpleRecon: 3D Reconstruction Without 3D Convolutions