作者Haikyuu (孔文革)
看板DataScience
標題[問題] 在convolution layer的dropout行為?
時間Sun Apr 29 15:36:03 2018
請教在convolution layer 的dropout的方式是?
例如假設那層是64個(4,4) filter
那如果dropout設0.5 那是代表?
1. 64個filter隨機丟掉32個filter?
還是
2. 每個filter中的16個pixel隨機丟掉8個pixel?
謝謝
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.4.190
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1524987365.A.D4F.html
1F:→ chchan1111: DROPOUT丟棄的機率是以單顆神經元來看的歐 04/29 16:05
2F:→ chchan1111: 所以嚴格來說應該是每張feature maps 的每個pixel 04/29 16:06
3F:→ chchan1111: 都有一半的機率訊息不會被往下傳遞 04/29 16:06
4F:→ Haikyuu: 謝謝你,所以我可以理解為所有feature map都會被保留,但 04/29 18:49
5F:→ Haikyuu: 是每個feature map都有缺角或挖空對嗎? 04/29 18:49
6F:推 chchan1111: 是的 在dnn裡加dropout相當於每個神經元有一定機率被 04/29 21:06
7F:→ chchan1111: 忽略 而cnn中每個pixel就相當於神經元 04/29 21:06
8F:→ chchan1111: 另外feature maps跟filter是不一樣的歐 04/29 21:08
9F:→ Haikyuu: 謝謝你, feature map應該就是filter的輸出吧? 04/30 15:32