作者nctukmdick (kmdick)
看板DataScience
標題[問題] 訓練CNN時遇到的問題
時間Sat Apr 21 14:34:10 2018
作業系統:Linux
問題類別:CNN
使用工具:Keras
問題內容:
小弟菜逼八剛接觸ML
再訓練貓狗分類器時,acc和val_acc一直卡在0.5,這樣跟用猜的機率一樣...,不知道是
哪邊出了原因,求各位大神指點
https://i.imgur.com/ixHSHaf.jpg
https://i.imgur.com/aRmMYUu.jpg
https://i.imgur.com/ppf8ERA.jpg
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.110.103.225
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1524292452.A.C10.html
1F:推 goldflower: 看起來是error炸了 有normalize先?04/21 15:13
是加BatchNormaliztion()嗎?還是其他東西
2F:推 tea596933: output layer的activation改用softmax?04/21 15:26
我後來又改成softmax好像不會卡在0.5了xD謝謝啦,記憶混亂
3F:→ tea596933: 另外推樓上 normalize蠻重要~04/21 15:27
4F:推 goldflower: 2分類softmax = sigmoid喔 可以帶個數字看一下04/21 15:30
對啊,好像一樣,我是先用softmax再試sigmoid
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 15:32:01
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 15:33:27
5F:推 tea596933: 數學式不太一樣 但的確不是這裡重點 謝謝指正~04/21 15:36
6F:推 tea596933: 這裡sigmoid的output是2 表示模型預測是貓或狗的機率可04/21 15:39
7F:→ tea596933: 以同時是1 用softmax的話兩個機率一定加總為104/21 15:39
8F:推 goldflower: 一樣內 你把0,1代進去就知道惹04/21 15:39
9F:→ goldflower: 你可能是0-255 要轉到0-104/21 15:40
10F:推 ray39620: 該跟樓上說的一樣,要先預處理04/21 17:18
謝謝你,我會努力看懂他在幹嘛的
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 18:38:38
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 18:39:35
12F:→ Mchord: 樓上提到sigmoid output2是怎麼回事 04/21 20:59
13F:推 wilson0937: 想順便問一下 norm. 的理由是啥,之前被老闆問回答不 04/21 22:06
14F:→ wilson0937: 出來 04/21 22:06
15F:推 EGsux: norm 照片會train比較快, 帶去下一層的數值比較不會令 gra 04/21 23:12
16F:→ EGsux: dient爆炸 04/21 23:12
17F:→ tea596933: 回M大 我看著output layer的nodes數量為2 解釋時誤植 04/22 00:38
18F:→ tea596933: 為sigmoid output 2 打快造成誤會抱歉 04/22 00:38
19F:推 aqua2: 訓練資料有亂數打亂嗎 04/22 03:35
20F:推 ssd860505da: 有加BN真的有差 04/22 03:36
21F:推 f496328mm: lr的問題 04/22 18:09
23F:→ f496328mm: 分享一下之前做的 04/22 18:10