作者deo2000 (800IM)
看板Soft_Job
标题Re: [请益] deep learning怎麽学习?
时间Sun Jul 30 00:11:21 2017
※ 引述《beaprayguy (小羊快跑啊)》之铭言:
: 最近被deepmind的AI震惊
: AI最核心部分是deep learning
: 阅读文献得知,deep learning
: 是透过artificial neural network
: 透过一层一层neuron堆叠,得到一个output
: 若想自学要从哪一方面进入,若相关职缺基础门槛是什麽。
你好,想要入手 DL,建议先从感知机(perceptron)入手。
感知机是所有类神经网路的单细胞,先读懂这个才不会觉得门槛太高。
反过来说,连这个读不懂,那就要再审慎评估自己适不适合机器学习?
perceptron 是最基本的线性机器学习模型,所有机器学习的课本都会讲到,
包括田神的书。不过田神的书比较难读啦,有很多严谨的证明。
我自己是从 pattern recognition 入门机器学习的。
实践是检验的最好方法,找一个能一刀画开的两类 2D dataset,
你的目标就是找程式自动将他们划开,这也是机器学习的目标。
逼自己忍住工具的诱惑,不用任何函式库,用你最熟悉的程式语言自行硬干 perceptron。
读理论、实作、读理论、修改实作、读理论、再修改实作、读理论、再继续修改实作,
如此不断循环,直到你的 perceptron 程式可以自动找出一类一边的正确直线为止,
恭喜你!取得了搞懂类神经网路的第一个里程碑!
接下来就推广到 MLP 以及如何用 back-propagation 收敛,搞懂了就不怕类神经网路,
不过那又是另外一个坑了..
---
阿?那要什麽时候才可以开始学习 Deep Learning 呢?
等你发现传统 MLP 层数加多也没什麽屁用的时候,那就是学习 DL 的开始惹。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.233.52.77
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Soft_Job/M.1501344683.A.644.html
※ 编辑: deo2000 (36.233.52.77), 07/30/2017 00:22:24
1F:→ hsnuyi: 林的书跟国外同等级的课比起来 算很平易近人了 每章後面的 07/30 00:27
2F:→ hsnuyi: 习题倒比较有水准 07/30 00:27
3F:→ hsnuyi: 而且NN是放在e-Appendix 科科 07/30 00:28
4F:→ hsnuyi: e-Chapter 写错 07/30 00:29
那本书出来的时候 NN 还没有这麽红,主角还是 SVM 与 cascade。
※ 编辑: deo2000 (36.233.52.77), 07/30/2017 00:33:10
5F:→ hsnuyi: 某些领域SVM还是很棒呢 NN有时提供的少量优势 必须要用数 07/30 00:49
6F:→ hsnuyi: 十倍的training time去换 只能用来发paper 07/30 00:49
你说的 NN 有用试图平均 margin 吗?
我认为 NN 应该要用 Hinge Loss Function 才能和 SVM 公平比较
※ 编辑: deo2000 (36.233.52.77), 07/30/2017 01:13:13
7F:→ ericrobin: 精确度高一些但时间多好几倍算公平吗? 07/30 02:55
8F:推 buper: 看他要时间还是正确性罗 07/30 03:22
9F:推 dreamnook: 推个 07/30 10:22
10F:→ SouthRa: 哇靠你这篇写得超排外的 看得懂的只有原本就懂的人 07/31 02:49
11F:→ SouthRa: 新手看了你的介绍马上就会昏头了 07/31 02:49
我如果写到大家都看得懂,那应该有 10 倍以上篇幅,都可以当成专栏文章了。
不是我不想写,但是这样的文章应该没多少人有耐心看,直接 end...
12F:→ beaprayguy: 有关键字,就好google 07/31 07:25
13F:→ beaprayguy: 我觉得这篇让我了解很多 07/31 07:26
感谢回馈~
※ 编辑: deo2000 (125.227.205.43), 07/31/2017 10:42:30
14F:推 wildli0422: 看不太懂 但是得到很多关键字 08/01 19:04
15F:→ wildli0422: 谢谢你 08/01 19:04
16F:→ Surrey00: dick learning 08/02 11:46
17F:推 alan23273850: PUSH 08/02 14:42
18F:推 ppc: 这篇写得不错啊 08/10 02:32