Ubuntu 16.04
Python 3.6.5
Pytorch 0.4.1
OpenCV 3.4.4
2. PS:不是linux环境:设置 nThreads=0
in EverybodyDanceNow_reproduce_pytorch/src/config/train_opt.py
./src/pix2pixHD/models/
./src/PoseEstimation/network/weight/
./face_enhancer/
./data/source/
and run make_source.py
, 标签图片保存在 ./data/source/test_label_ori/
and ./data/source/pose_souce.npy
(在第6步使用). 如果想从摄像头抓取图片./src/utils/save_img.py
获取你的目标视频 重命名为 mv.mp4 放在 ./data/target/
,运行n make_target.py
, pose.npy
保存在 ./data/target/
,其中包含协调的脸部表情。
train_pose2vid.py
模型保存在 ./checkpoints/
load_pretrain = './checkpoints/target/
在 ./src/config/train_opt.py
*运行 normalization.py
正则化标签图片, 可以使用两张图片 ./data/target/train/train_label/
and ./data/source/test_label_ori/
来完成正则化transfer.py
结果保存在 ./results
cd ./face_enhancer
.prepare.py
在data
文件夹检测结果, 分别在这两个文件夹 (data/face/test_sync
and data/face/test_real
).main.py
执行面部强化训练.运行 enhance.py
执行强化测试cd
回到根路径,执行 make_gif.py
生成gif文件.