作者PyTorch (屁眼火炬)
看板DataScience
标题[问题] Dropout的值
时间Fri Apr 27 21:12:28 2018
我看github上面很多code好像大家几乎都用
dropout=0.几
有人会把他tune到小数点後3,4位吗?
好奇专业的机器学习从业人员是怎摸做的?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 223.137.53.11
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1524834751.A.7E5.html
1F:→ kumitang: 一般都0.4-0.75吧 印象中 04/27 22:31
2F:推 kula0000: dropout有随机的性质在,没必要用到很精准吧? 04/27 23:30
3F:→ Rprogramming: 那如果设0.1会怎样?介於overfitting一半吗? 04/28 00:57
5F:→ PyTorch: 感谢 04/28 15:00
6F:推 EGsux: dropout就是做一个mask在你的W上面 rand(size(W)) > p(drop 04/29 01:14
7F:→ EGsux: out) 04/29 01:14
8F:→ EGsux: 所以你做到三四位影响不大 10%变10.34%那种 04/29 01:15