作者steveyeh987 (麻醬跟麵要分開)
看板DataScience
標題[問題] binary classification
時間Sat May 19 03:13:02 2018
在二元分類問題中
最後一層hidden layer往往使用sigmoid或是softmax
而其loss function在計算上是相同的
然而卻時常聽到使用softmax的準確率好於sigmoid的說法
不知道其中的道理或是可能的原因在哪裡呢?
找好久的資料還是不知道所以然QQ
(其實是因為被質疑說我的模型為什麼不使用softmax來求助大家
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.71.215.69
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1526670786.A.55F.html
1F:推 pups003: 我的認知是,在二元分類問題,如果輸出層是1維就用sigmoi 05/19 12:42
2F:→ pups003: d, 是2維就用softmax ,但是應該沒有什麼理由要用2維的 05/19 12:42
3F:→ pups003: 輸出(? 05/19 12:42
4F:→ bestchiao: 因為softmax輸出總合為1 sigmoid不一定? 05/19 15:04
5F:→ yoyololicon: 多一個output最後一層的參數會比單個sigmoid多一倍ㄅ 05/19 16:11
6F:→ yoyololicon: 但數學式子完全一模一樣 覺得沒什麼必要用softmax 05/19 16:13
7F:→ truehero: 在二元分類下 sigmoid和softmax的節果應該是一樣的 05/19 18:23
8F:推 ray39620: 也可問他為什麼不能用sigmoid 05/22 10:27