作者f422661 (恩恩)
看板DataScience
標題[問題] sigmoid cross entropy
時間Wed Apr 25 15:40:36 2018
作業系統:(ex:mac,win10,win8,win7,linux,etc...)
macos
問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
ML
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
tensorflow
問題內容:
請問tensorflow 中的sigmoid_cross_entropy_with_logits
https://goo.gl/tRjS6j
labels 在二分類上是要轉成one-hot vector 還是直接給0 or 1就可以了
不太懂網頁中這句話
Measures the probability error in discrete classification tasks in which each
cl
在範例中也常常看到logits這個字
請問logits有什麼特別意思嗎?
謝謝
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.5.50
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1524642039.A.196.html
※ 編輯: f422661 (36.229.5.50), 04/25/2018 15:42:50
1F:推 robert780612: 是指最後一層未過softmax的值04/25 19:15
2F:→ robert780612: 應該是延用logistic regression的名稱吧04/25 19:16
3F:→ robert780612: logistic regression的link function就是sigmoid04/25 19:17
好的謝謝!!
不過還是不太懂是不是要用one-hot vector當label?
※ 編輯: f422661 (36.229.5.50), 04/25/2018 21:14:28
4F:推 EGsux: 二分類裡0 1跟 onehot是一樣的阿04/25 21:45
5F:→ abc2090614: logit丟wiki就有了啊04/26 06:50
謝謝各位前輩
※ 編輯: f422661 (27.242.170.199), 04/26/2018 09:35:21