作者PyTorch (PY火炬)
看板DataScience
标题[问题] WGAN的Loss
时间Wed May 16 06:23:29 2018
WGAN的loss
我看paper是Discriminator去 minimize 假的output -真的output
而generator是minimize -假的output
我看我train时generator的loss都是负很大
越train负越多
请问这样是合理的吗?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 223.137.177.219
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1526423011.A.0B2.html
1F:推 bessgaga: 对,generator就是要骗discriminator给很高的分数,所以 05/16 18:51
2F:→ bessgaga: 加一个负号是maximum 分数的意思 05/16 18:51
3F:推 tsoahans: 有做weight clipping吗 05/16 20:02