作者f422661 (恩恩)
看板DataScience
标题[问题] sigmoid cross entropy
时间Wed Apr 25 15:40:36 2018
作业系统:(ex:mac,win10,win8,win7,linux,etc...)
macos
问题类别:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
ML
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
tensorflow
问题内容:
请问tensorflow 中的sigmoid_cross_entropy_with_logits
https://goo.gl/tRjS6j
labels 在二分类上是要转成one-hot vector 还是直接给0 or 1就可以了
不太懂网页中这句话
Measures the probability error in discrete classification tasks in which each
cl
在范例中也常常看到logits这个字
请问logits有什麽特别意思吗?
谢谢
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.229.5.50
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1524642039.A.196.html
※ 编辑: f422661 (36.229.5.50), 04/25/2018 15:42:50
1F:推 robert780612: 是指最後一层未过softmax的值04/25 19:15
2F:→ robert780612: 应该是延用logistic regression的名称吧04/25 19:16
3F:→ robert780612: logistic regression的link function就是sigmoid04/25 19:17
好的谢谢!!
不过还是不太懂是不是要用one-hot vector当label?
※ 编辑: f422661 (36.229.5.50), 04/25/2018 21:14:28
4F:推 EGsux: 二分类里0 1跟 onehot是一样的阿04/25 21:45
5F:→ abc2090614: logit丢wiki就有了啊04/26 06:50
谢谢各位前辈
※ 编辑: f422661 (27.242.170.199), 04/26/2018 09:35:21