作者PyTorch (PY火炬)
看板DataScience
標題[問題] GAN的Discriminator要加dropout嗎?
時間Fri Jul 27 20:59:52 2018
最近想到一個問題
如果GAN的Discriminator前面用convolution後面用fully connected dense layer,
那後面要加dropout嗎?
如果不加,FC layer很容易overfitting
可是Discriminator如果overfitting會造成GAN怎樣? 一時想不通
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.71.72.70
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1532696394.A.4C0.html
1F:→ Mchord: Discriminator失效之後你Generator的結果就會很詭異,一 07/27 22:36
2F:→ Mchord: 般從loss也能看出來 07/27 22:36
3F:推 OnePiecePR: D overfitting, 會不會是對初期 G 的訓練還 OK, 但是 07/28 02:20
4F:→ OnePiecePR: 到了最後 G 有能力產生不錯的輸出時會被拉到跟看過的 07/28 02:20
5F:→ OnePiecePR: real data 幾乎一樣,少了 “想像力”? 如果 D 不 07/28 02:20
6F:→ OnePiecePR: 難 train, 加上 dropout 應該是有幫住的。 07/28 02:20
7F:推 seasa2016: 挺好奇的 gan的想像力是指什麼呢 07/28 02:25
8F:→ Mchord: 實際一點來說,在G能生成足夠真實的圖之前D就依特定少量fe 07/28 06:36
9F:→ Mchord: ature能判別real跟fake的話,G基本上就會直接往生成該feat 07/28 06:36
10F:→ Mchord: ure的方向前進 07/28 06:36
11F:→ Mchord: 關鍵字請搜尋mode collapse,原則上只有數學,沒有所謂想 07/28 06:40
12F:→ Mchord: 像力 07/28 06:40
13F:→ seasa2016: 嗯嗯 我知道mode collapse 只是我覺得gan還是畫不出資 07/28 09:36
14F:→ seasa2016: 料中沒有的東西 所以想像力用的挺妙的? 07/28 09:36
15F:→ atrix: 函數隨機產生的雜訊經過多次分類器訓練,能夠把產生雜訊的 07/28 18:12
16F:→ atrix: 分佈限定在我們想要的範圍內。 07/28 18:13
17F:→ atrix: (我的理解是這樣,請問有錯嗎?) 07/28 18:14
18F:推 yiefaung: 應該說mapping到一個包含real data的space裡 07/28 20:22