新的培训策略
我发布了一种新的训练策略,该方法可以减少色偏,从而有助于应对随机面罩训练,而这大约需要30%的训练时间。 当我们执行脸部插入时,这是非常有用的。 设置--which_model_netG='face_unet_shift_triple'和--model='face_shiftnet'和--batchSize=1来执行该策略。
参见下面的一些示例,当在面部数据集上使用随机蒙版进行训练时,许多方法都会遭受这种color shifting困扰。
输入
纳维·Shift
翻转移位
真相
注意:当您使用face_flip training strategy ,它有一些小缺点:
与原始移位相比,它不是完全平行的。
它只能在'cpu'或单个gpu上进行训练,批大小必须为1,否则会发生错误。
如果您想克服这些缺点,可以参考原始班次进行优化。 这并不困难,但是我没有时间去做。
建
2022-10-14 22:40:46
5.66MB
Python
1