作者st1009 (前端攻城师)
看板Prob_Solve
标题[问题] 类神经网路的反向传播与逻辑回归
时间Sun Aug 27 22:09:54 2017
不好意思,想请请教各位大大,
我看一般训练类神经网路都是使用反向传播演算法(Backpropagation),
可是我看类神经网路(ANN)与逻辑回归式(Logistic regression)高度相似,
甚至有些人说,逻辑回归式叠加就是类神经网路!
所以我在想,是否我可以用多层的逻辑回归式,来建立深度学习?
并且逻辑回归式权重虽然可以用BP求得,
但是其实也可以直接根据输入来算吧?
而且感觉直接以逻辑回归式本身计算方法算出权重,应该会比BP更快?
可是我似乎都没看到有人这样用,是会有甚麽问题嘛?
有相关的论文资料嘛?
--
半壁河山半攻守
半争成败半悟道
许银川
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 1.164.99.134
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Prob_Solve/M.1503842998.A.171.html
1F:→ andrenvq57: ㄜ 可以定义多层吗 08/28 08:36
我想到是3种算法,直接把上一层的资料,多算1遍,就可以产生2组资料,
再把此2组资料再进行一次LR这样子
法2:原先可能LR是处理6维回归,我把他变成2个LR,各处理3维回归,
再将这2组资料LR
法3:原来是6类分类,我再将分类细分成更多类譬如43类,
然後LR成6个数值,之後再LR出答案
话说...其实我数学不好Q
所以不是很确定我这样OK嘛?
2F:推 singlovesong: 是一样的东西 就是多参数求导 BP 只是 chain rule 08/29 12:27
好的,谢谢您<3
3F:→ jackace: DN不只是Sigmoid 公式解能用的场合太少 maxpooling, BN, 09/13 21:06
4F:→ jackace: 还有RNN 都没公式解 09/13 21:11
现在也接触到了如relu之类的存在了,谢谢大大提点!
※ 编辑: st1009 (1.163.157.60), 09/21/2017 19:27:06