作者PyTorch (PY火炬)
看板DataScience
標題[問題] GAN的discriminator要train比較多次理由
時間Fri Aug 24 18:50:36 2018
作業系統:(ex:mac,win10,win8,win7,linux,etc...)
問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
GAN generative adversail networks
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
keras
問題內容:
之前有看過WGAN的discriminator要train 5次 相比generator只train一次
當初是想說WGAN的discriminator本來就被弱化 所以train比較多次合理
但是我翻Goodfellow那篇原本GAN的paper裡面就有寫道discrimintor可以train比generat
多次
這我就不懂了, discriminator原本就容易因為train太好導致gradient vanish讓generator
學不起來
還反而要train discriminator比較多次?
這樣不是更容易把discrimintor train到acc 100% ?
有沒有人可以指點一下其中的原因
謝謝各位
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.25.100
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1535107838.A.644.html
1F:→ Mchord: 經驗法則,先試出效果,再想道理解釋,GAN的基本套路 08/24 22:31
2F:→ InvincibleK: 我看過train 10次的... 08/31 08:11
3F:推 Activation: 因為Discriminator的learning rate比較低吧,所以要tr 09/05 21:37
4F:→ Activation: ain比較多次,科學的說法可能是Discriminator的loss s 09/05 21:37
5F:→ Activation: urface比較崎嶇起伏 09/05 21:37
6F:→ yoyololicon: D的learning rate比較低??不是都隨便設的ㄇ 09/05 23:31
7F:→ Activation: 我看github上都是D的lr比G低耶,可能我看得不夠多 09/05 23:53
8F:→ Activation: 不過周遭同學也是把D設比較低才train起來 09/05 23:54