作者steveyeh987 (麻酱跟面要分开)
看板DataScience
标题[问题] binary classification
时间Sat May 19 03:13:02 2018
在二元分类问题中
最後一层hidden layer往往使用sigmoid或是softmax
而其loss function在计算上是相同的
然而却时常听到使用softmax的准确率好於sigmoid的说法
不知道其中的道理或是可能的原因在哪里呢?
找好久的资料还是不知道所以然QQ
(其实是因为被质疑说我的模型为什麽不使用softmax来求助大家
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 219.71.215.69
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1526670786.A.55F.html
1F:推 pups003: 我的认知是,在二元分类问题,如果输出层是1维就用sigmoi 05/19 12:42
2F:→ pups003: d, 是2维就用softmax ,但是应该没有什麽理由要用2维的 05/19 12:42
3F:→ pups003: 输出(? 05/19 12:42
4F:→ bestchiao: 因为softmax输出总合为1 sigmoid不一定? 05/19 15:04
5F:→ yoyololicon: 多一个output最後一层的参数会比单个sigmoid多一倍ㄅ 05/19 16:11
6F:→ yoyololicon: 但数学式子完全一模一样 觉得没什麽必要用softmax 05/19 16:13
7F:→ truehero: 在二元分类下 sigmoid和softmax的节果应该是一样的 05/19 18:23
8F:推 ray39620: 也可问他为什麽不能用sigmoid 05/22 10:27