“ 感知技术 · 感触CG · 感受艺术 · 感悟心灵 ”
中国很有影响力影视特效CG动画领域自媒体
说起游戏里的角色,多数为了游戏性而优化了场景的面数以及贴图纹理等等。即使很写实,也因为光照和游戏引擎的原因显得“很假”,比如游戏巫师3里的角色。
这样
再比如游戏行尸走肉中的角色
总之就是很假。
但是最近一个网名叫gutekx12网友使用一个名为StyleClip的AI系统来生成巫师3、哥特式和行尸走肉中角色的真实版本。一下将塑料质感的游戏角色拉回到了超写实,效果是相当可以。
左侧为游戏原角色,右侧为AI生成的效果
怎么样?效果是真的可以。
是不是跟我们平时拍的照片差不多了?上面几幅是老哥用巫师3中的角色,那你会问这个角色本身有很多细节了,其他的可以么?来,再接着看行尸走肉中的几个效果。
据了解,他是用StyleCLIP将StyleGAN的生成能力与CLIP联合图像,再输入几行文本,就可以实现基于文本的图像处理。简单说就是上传几张图片,然后一段简短的文字来告诉AI你想要啥样的,接着机器学习你输入的图像和文本,最后就直接给你生成一个写实的角色了。
低面数的角色也是可以的。再来看几个游戏《哥特王朝》中的角色效果。
哈哈哈,看完这几个低面数的,我觉得简直太牛了。
然后我就顺着这个StyleCLIP去搜了下,它到底干嘛的。在这里也跟大家分享下。
其实这是一个论文的开源程序,论文全称《StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery》,大意为StyleCLIP:StyleGAN图像的文本驱动操作。
关于StyleGan我们之前在好多文章里介绍过,StyleGAN 是官方TensorFlow实现,用于生成人脸图像, 它可以生成高度真实图像的能力,目前已经在很多行业上得到实验和应用。
那么StyleCLIP开发者基于StyleGAN能力,在此基础上他们加入图像和文本相结合的方式创建可操纵生成更加细致的写实图像。这里他们引入了对比语言图像预训练(CLIP)模型,为StyleGAN图像处理开发一个基于文本的界面,而不需要手动操作。
他们引入一种优化方案,用基于CLIP的损失来修改输入潜在向量来响应用户提供的文本提示。
接下来,用一个潜在映射器,为给定的输入图像推断出文本描述做引导,给出潜在操作步骤,从而允许基于文本的操作。最后,将文本提示映射到StyleGAN样式空间,从而实现交互式文本驱动的图像操作,实现最终的效果。
看了这些我突然有个大胆的想法,就是我那些封尘了很久的,超级丑陋的角色练习是不是有救了,哈哈哈,用这个AI不就直接变成超写实角色了么??上传到A站,我也是大神了,就这么定了,好了,今天内容就到这里了,我去做超写实角色了!~~拜拜~~
全文完
A站5000+赞神作大赏
V-Ray秀肌肉!Vray2021 Showreel
米哈游急招场景岗位?听说入职就送3070!
连水珠都实时可调?!用UE做个产品级冰镇可口可乐是怎样的体验?
有爱死机内味了!6个学生搞出来的科幻短片
领取专属 10元无门槛券
私享最新 技术干货