作者PyTorch (PY火炬)
看板DataScience
标题[问题] GAN的discriminator要train比较多次理由
时间Fri Aug 24 18:50:36 2018
作业系统:(ex:mac,win10,win8,win7,linux,etc...)
问题类别:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
GAN generative adversail networks
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
keras
问题内容:
之前有看过WGAN的discriminator要train 5次 相比generator只train一次
当初是想说WGAN的discriminator本来就被弱化 所以train比较多次合理
但是我翻Goodfellow那篇原本GAN的paper里面就有写道discrimintor可以train比generat
多次
这我就不懂了, discriminator原本就容易因为train太好导致gradient vanish让generator
学不起来
还反而要train discriminator比较多次?
这样不是更容易把discrimintor train到acc 100% ?
有没有人可以指点一下其中的原因
谢谢各位
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.25.100
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1535107838.A.644.html
1F:→ Mchord: 经验法则,先试出效果,再想道理解释,GAN的基本套路 08/24 22:31
2F:→ InvincibleK: 我看过train 10次的... 08/31 08:11
3F:推 Activation: 因为Discriminator的learning rate比较低吧,所以要tr 09/05 21:37
4F:→ Activation: ain比较多次,科学的说法可能是Discriminator的loss s 09/05 21:37
5F:→ Activation: urface比较崎岖起伏 09/05 21:37
6F:→ yoyololicon: D的learning rate比较低??不是都随便设的ㄇ 09/05 23:31
7F:→ Activation: 我看github上都是D的lr比G低耶,可能我看得不够多 09/05 23:53
8F:→ Activation: 不过周遭同学也是把D设比较低才train起来 09/05 23:54