二次元图片着色技术路线
1.样本收集以及预处理
2.训练过程
1. 提取人物(去除干扰元素)
2. 提取轮廓(去色),及特征元素(皮肤,眼睛,头发...)
3. 进入编码器(一图变多图)
4. CNN初步生成器训练
5. 生成对抗,获得最优结果
6.(训练过程:提取边缘,人物轮廓,部分特征(脸,眼睛,耳朵,腿,胳膊等),编码器,深度学习网络(貌似有用GAN等))张老师修改
3. 生成过程
1. 提取人物特征,并抽象为数组
2. 查表确认该人物的着色方案已存在,则使用该方案着色。如果不存在继续。
3. 生成该人物对应的特征着色参数(各特征元素着色方案),并按记录
4. 按方案着色
4.图片着色的技术难点在哪里?预计周期大概多久可以实现?(合伙人必问的两个问题)
技术难点:不同风格的人物轮廓提取要求和方法不同;颜色渐变过度,风格迁移(画风不同)
5.超越或者达到“喵图App”的水平是否能实现?(合伙人必问的两个问题)
喵图可以实现,现有的开源软件,可以试下,应该不会差别太多
6.你么需要什么技术支持或者要求?
要求:等我们先试下,看看效果。前期提供一些素材(线稿图,和上色图)用于训练。最好你们也能把你们掌握的一些资料,做成一个PPT发给我们,我们交流。
开源代码:
1.Paintschainer https://paintschainer.preferred.tech/index_en.html https://github.com/pfnet/PaintsChainer.git
nvidia-docker run --name paintschainer --rm -p 8000:8000 -e PAINTSCHAINER_GPU=1 liamjones/paintschainer-docker
2.Auto-painter https://arxiv.org/abs/1705.01908
3.style2paints 2.0 style2paints 2.0大部分训练都是纯粹无监督,甚至无条件的。https://arxiv.org/pdf/1706.03319.pdf
https://github.com/lllyasviel/style2paints
4. fast-style-transfer https://github.com/lengstrom/fast-style-transfer.git
5. FastPhotoStyle https://github.com/NVIDIA/FastPhotoStyle.git
6. https://github.com/pfnet/PaintsChainer.git
领取专属 10元无门槛券
私享最新 技术干货