作者Haikyuu (孔文革)
看板DataScience
标题[问题] 在convolution layer的dropout行为?
时间Sun Apr 29 15:36:03 2018
请教在convolution layer 的dropout的方式是?
例如假设那层是64个(4,4) filter
那如果dropout设0.5 那是代表?
1. 64个filter随机丢掉32个filter?
还是
2. 每个filter中的16个pixel随机丢掉8个pixel?
谢谢
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.4.190
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1524987365.A.D4F.html
1F:→ chchan1111: DROPOUT丢弃的机率是以单颗神经元来看的欧 04/29 16:05
2F:→ chchan1111: 所以严格来说应该是每张feature maps 的每个pixel 04/29 16:06
3F:→ chchan1111: 都有一半的机率讯息不会被往下传递 04/29 16:06
4F:→ Haikyuu: 谢谢你,所以我可以理解为所有feature map都会被保留,但 04/29 18:49
5F:→ Haikyuu: 是每个feature map都有缺角或挖空对吗? 04/29 18:49
6F:推 chchan1111: 是的 在dnn里加dropout相当於每个神经元有一定机率被 04/29 21:06
7F:→ chchan1111: 忽略 而cnn中每个pixel就相当於神经元 04/29 21:06
8F:→ chchan1111: 另外feature maps跟filter是不一样的欧 04/29 21:08
9F:→ Haikyuu: 谢谢你, feature map应该就是filter的输出吧? 04/30 15:32