作者PyTorch (PY火炬)
看板DataScience
標題[問題] GAN訓練時batch的實作請教
時間Tue May 22 19:35:26 2018
我最近新手上路實作GAN,採用的架構是DCGAN
paper寫DCGAN訓練時batch size 128
我不是很明白batch size在送進discriminator訓練時怎麼做?
例如是128個亂數送進generator產生128張圖片
再加上128張真實的圖片送進discriminator
嗎?
這樣一次完整訓練裡面,
總共是256張圖片送進discriminator訓練
但只有128張圖片送進generator訓練嗎?
對於GAN,我不是很明白,先謝謝各位的幫忙
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.71.0.182
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1526988928.A.4CA.html
1F:推 a75468: 有謠言是說一個batch裡都放同一種label比較好,所以這個ca05/22 21:09
2F:→ a75468: se就是兩個batch,128個1以及128個005/22 21:09
那好像是因為有batch normalize的關係?
3F:→ catxfish: 通常會用相同數目的real image跟fake image去訓練05/22 22:48
4F:→ catxfish: 直接參考的實作預設是用64+6405/22 22:50
謝謝回答,想再請問這64張假的image是在同一個training step由訓練Generator產生的128個image取64張丟進Discriminator嗎?
還是generator再重新產生64張假的image?
※ 編輯: PyTorch (114.136.86.37), 05/22/2018 23:31:57
5F:→ catxfish: 直接亂數64個latent產生64個fake image進discriminator 05/23 00:33
6F:→ catxfish: 不用重新產生 直接用同一組去算兩個的loss function 05/23 00:36
7F:→ catxfish: G是64個input D是128個input 不過其實這些你都可以調整 05/23 00:38
8F:→ catxfish: 但我以前測試最需要調整的是learning rate 05/23 00:39
9F:→ catxfish: batch size反而還好 05/23 00:39
10F:→ catxfish: 話說pytorch github example裡面就有DCGAN啊 XD 05/23 00:49