作者nctukmdick (kmdick)
看板DataScience
标题[问题] 训练CNN时遇到的问题
时间Sat Apr 21 14:34:10 2018
作业系统:Linux
问题类别:CNN
使用工具:Keras
问题内容:
小弟菜逼八刚接触ML
再训练猫狗分类器时,acc和val_acc一直卡在0.5,这样跟用猜的机率一样...,不知道是
哪边出了原因,求各位大神指点
https://i.imgur.com/ixHSHaf.jpg
https://i.imgur.com/aRmMYUu.jpg
https://i.imgur.com/ppf8ERA.jpg
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 123.110.103.225
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1524292452.A.C10.html
1F:推 goldflower: 看起来是error炸了 有normalize先?04/21 15:13
是加BatchNormaliztion()吗?还是其他东西
2F:推 tea596933: output layer的activation改用softmax?04/21 15:26
我後来又改成softmax好像不会卡在0.5了xD谢谢啦,记忆混乱
3F:→ tea596933: 另外推楼上 normalize蛮重要~04/21 15:27
4F:推 goldflower: 2分类softmax = sigmoid喔 可以带个数字看一下04/21 15:30
对啊,好像一样,我是先用softmax再试sigmoid
※ 编辑: nctukmdick (123.110.103.225), 04/21/2018 15:32:01
※ 编辑: nctukmdick (123.110.103.225), 04/21/2018 15:33:27
5F:推 tea596933: 数学式不太一样 但的确不是这里重点 谢谢指正~04/21 15:36
6F:推 tea596933: 这里sigmoid的output是2 表示模型预测是猫或狗的机率可04/21 15:39
7F:→ tea596933: 以同时是1 用softmax的话两个机率一定加总为104/21 15:39
8F:推 goldflower: 一样内 你把0,1代进去就知道惹04/21 15:39
9F:→ goldflower: 你可能是0-255 要转到0-104/21 15:40
10F:推 ray39620: 该跟楼上说的一样,要先预处理04/21 17:18
谢谢你,我会努力看懂他在干嘛的
※ 编辑: nctukmdick (123.110.103.225), 04/21/2018 18:38:38
※ 编辑: nctukmdick (123.110.103.225), 04/21/2018 18:39:35
12F:→ Mchord: 楼上提到sigmoid output2是怎麽回事 04/21 20:59
13F:推 wilson0937: 想顺便问一下 norm. 的理由是啥,之前被老板问回答不 04/21 22:06
14F:→ wilson0937: 出来 04/21 22:06
15F:推 EGsux: norm 照片会train比较快, 带去下一层的数值比较不会令 gra 04/21 23:12
16F:→ EGsux: dient爆炸 04/21 23:12
17F:→ tea596933: 回M大 我看着output layer的nodes数量为2 解释时误植 04/22 00:38
18F:→ tea596933: 为sigmoid output 2 打快造成误会抱歉 04/22 00:38
19F:推 aqua2: 训练资料有乱数打乱吗 04/22 03:35
20F:推 ssd860505da: 有加BN真的有差 04/22 03:36
21F:推 f496328mm: lr的问题 04/22 18:09
23F:→ f496328mm: 分享一下之前做的 04/22 18:10