作者PyTorch (PY火炬)
看板DataScience
標題[問題] WGAN的Loss
時間Wed May 16 06:23:29 2018
WGAN的loss
我看paper是Discriminator去 minimize 假的output -真的output
而generator是minimize -假的output
我看我train時generator的loss都是負很大
越train負越多
請問這樣是合理的嗎?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.177.219
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1526423011.A.0B2.html
1F:推 bessgaga: 對,generator就是要騙discriminator給很高的分數,所以 05/16 18:51
2F:→ bessgaga: 加一個負號是maximum 分數的意思 05/16 18:51
3F:推 tsoahans: 有做weight clipping嗎 05/16 20:02