作者PyTorch (PY火炬)
看板DataScience
标题[问题] GAN训练时batch的实作请教
时间Tue May 22 19:35:26 2018
我最近新手上路实作GAN,采用的架构是DCGAN
paper写DCGAN训练时batch size 128
我不是很明白batch size在送进discriminator训练时怎麽做?
例如是128个乱数送进generator产生128张图片
再加上128张真实的图片送进discriminator
吗?
这样一次完整训练里面,
总共是256张图片送进discriminator训练
但只有128张图片送进generator训练吗?
对於GAN,我不是很明白,先谢谢各位的帮忙
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.71.0.182
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1526988928.A.4CA.html
1F:推 a75468: 有谣言是说一个batch里都放同一种label比较好,所以这个ca05/22 21:09
2F:→ a75468: se就是两个batch,128个1以及128个005/22 21:09
那好像是因为有batch normalize的关系?
3F:→ catxfish: 通常会用相同数目的real image跟fake image去训练05/22 22:48
4F:→ catxfish: 直接参考的实作预设是用64+6405/22 22:50
谢谢回答,想再请问这64张假的image是在同一个training step由训练Generator产生的128个image取64张丢进Discriminator吗?
还是generator再重新产生64张假的image?
※ 编辑: PyTorch (114.136.86.37), 05/22/2018 23:31:57
5F:→ catxfish: 直接乱数64个latent产生64个fake image进discriminator 05/23 00:33
6F:→ catxfish: 不用重新产生 直接用同一组去算两个的loss function 05/23 00:36
7F:→ catxfish: G是64个input D是128个input 不过其实这些你都可以调整 05/23 00:38
8F:→ catxfish: 但我以前测试最需要调整的是learning rate 05/23 00:39
9F:→ catxfish: batch size反而还好 05/23 00:39
10F:→ catxfish: 话说pytorch github example里面就有DCGAN啊 XD 05/23 00:49