作者PyTorch (PY火炬)
看板DataScience
标题[问题] GAN的Discriminator要加dropout吗?
时间Fri Jul 27 20:59:52 2018
最近想到一个问题
如果GAN的Discriminator前面用convolution後面用fully connected dense layer,
那後面要加dropout吗?
如果不加,FC layer很容易overfitting
可是Discriminator如果overfitting会造成GAN怎样? 一时想不通
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.71.72.70
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1532696394.A.4C0.html
1F:→ Mchord: Discriminator失效之後你Generator的结果就会很诡异,一 07/27 22:36
2F:→ Mchord: 般从loss也能看出来 07/27 22:36
3F:推 OnePiecePR: D overfitting, 会不会是对初期 G 的训练还 OK, 但是 07/28 02:20
4F:→ OnePiecePR: 到了最後 G 有能力产生不错的输出时会被拉到跟看过的 07/28 02:20
5F:→ OnePiecePR: real data 几乎一样,少了 “想像力”? 如果 D 不 07/28 02:20
6F:→ OnePiecePR: 难 train, 加上 dropout 应该是有帮住的。 07/28 02:20
7F:推 seasa2016: 挺好奇的 gan的想像力是指什麽呢 07/28 02:25
8F:→ Mchord: 实际一点来说,在G能生成足够真实的图之前D就依特定少量fe 07/28 06:36
9F:→ Mchord: ature能判别real跟fake的话,G基本上就会直接往生成该feat 07/28 06:36
10F:→ Mchord: ure的方向前进 07/28 06:36
11F:→ Mchord: 关键字请搜寻mode collapse,原则上只有数学,没有所谓想 07/28 06:40
12F:→ Mchord: 像力 07/28 06:40
13F:→ seasa2016: 嗯嗯 我知道mode collapse 只是我觉得gan还是画不出资 07/28 09:36
14F:→ seasa2016: 料中没有的东西 所以想像力用的挺妙的? 07/28 09:36
15F:→ atrix: 函数随机产生的杂讯经过多次分类器训练,能够把产生杂讯的 07/28 18:12
16F:→ atrix: 分布限定在我们想要的范围内。 07/28 18:13
17F:→ atrix: (我的理解是这样,请问有错吗?) 07/28 18:14
18F:推 yiefaung: 应该说mapping到一个包含real data的space里 07/28 20:22