作者PyTorch (屁眼火炬)
看板DataScience
標題[問題] Dropout的值
時間Fri Apr 27 21:12:28 2018
我看github上面很多code好像大家幾乎都用
dropout=0.幾
有人會把他tune到小數點後3,4位嗎?
好奇專業的機器學習從業人員是怎摸做的?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.53.11
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1524834751.A.7E5.html
1F:→ kumitang: 一般都0.4-0.75吧 印象中 04/27 22:31
2F:推 kula0000: dropout有隨機的性質在,沒必要用到很精準吧? 04/27 23:30
3F:→ Rprogramming: 那如果設0.1會怎樣?介於overfitting一半嗎? 04/28 00:57
5F:→ PyTorch: 感謝 04/28 15:00
6F:推 EGsux: dropout就是做一個mask在你的W上面 rand(size(W)) > p(drop 04/29 01:14
7F:→ EGsux: out) 04/29 01:14
8F:→ EGsux: 所以你做到三四位影響不大 10%變10.34%那種 04/29 01:15