AnimeGANv2 源代码地址:
https://github.com/TachibanaYoshino/AnimeGANv2
AnimeGANv2的Pytorch实现代码地址:
https://github.com/bryandlee/animegan2-pytorch
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow-gpu==1.8.0
失败报错,看了一下,好像1.8版不支持py3.7,我最近主要环境都是用的3.7,所以没意识到这个问题。
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow-gpu==1.15
更换为1.15版进行测试,1.15版确定可以调用。
克隆代码
git clone https://github.com/TachibanaYoshino/AnimeGANv2
转换weight文件
python convert_weights.py
简单测试,标准代码
python test.py --input_dir [image_folder_path] --device [cpu/cuda]
我们使用cuda,所以直接调整参数如下
python test.py --input_dir 图片文件夹地址 --device cuda
使用特定模型进行推理测试并输出图片
python test.py --checkpoint_dir checkpoint/generator_Hayao_weight --test_dir dataset/test/HR_photo --style_name Hayao/HR_photo
使用的模型是generator_Hayao_weight,测试文档会自动导出
如果是想测试视频的处理和输出,使用下面命令
python video2anime.py --video video/input/お花見.mp4 --checkpoint_dir checkpoint/generator_Paprika_weight
执行图片测试的时候,虽然会报错找不到dll,但是这是cuda版本兼容问题,修改dll名称后解决,这个具体情况具体分析解决,不好一概而论。
执行完以后会在项目根目录,生成一个results 文件夹,生成图片就在里面,如果是没看代码的小白,可能会找不到结果在哪里……
下面是测试命令,使用了一些不同的风格模式:
python test.py --checkpoint_dir checkpoint/generator_Hayao_weight --test_dir dataset/test_pic --style_name Hayao/HR_photo
python test.py --checkpoint_dir checkpoint/generator_Shinkai_weight --test_dir dataset/test_pic --style_name Shinkai
下面是官方的训练部分的说明,我这部分由于没有数据集,先不进行测试
3. Do edge_smooth
python edge_smooth.py --dataset Hayao --img_size 256
4. Calculate the three-channel(BGR) color difference
python data_mean.py --dataset Hayao
5. Train
python main.py --phase train --dataset Hayao --data_mean [13.1360,-8.6698,-4.4661] --epoch 101 --init_epoch 10
For light version: python main.py --phase train --dataset Hayao --data_mean [13.1360,-8.6698,-4.4661] --light --epoch 101 --init_epoch 10
6. Extract the weights of the generator
python get_generator_ckpt.py --checkpoint_dir ../checkpoint/AnimeGAN_Hayao_lsgan_300_300_1_2_10_1 --style_name Hayao