作者deo2000 (800IM)
看板Soft_Job
標題Re: [請益] deep learning怎麼學習?
時間Sun Jul 30 00:11:21 2017
※ 引述《beaprayguy (小羊快跑啊)》之銘言:
: 最近被deepmind的AI震驚
: AI最核心部分是deep learning
: 閱讀文獻得知,deep learning
: 是透過artificial neural network
: 透過一層一層neuron堆疊,得到一個output
: 若想自學要從哪一方面進入,若相關職缺基礎門檻是什麼。
你好,想要入手 DL,建議先從感知機(perceptron)入手。
感知機是所有類神經網路的單細胞,先讀懂這個才不會覺得門檻太高。
反過來說,連這個讀不懂,那就要再審慎評估自己適不適合機器學習?
perceptron 是最基本的線性機器學習模型,所有機器學習的課本都會講到,
包括田神的書。不過田神的書比較難讀啦,有很多嚴謹的證明。
我自己是從 pattern recognition 入門機器學習的。
實踐是檢驗的最好方法,找一個能一刀畫開的兩類 2D dataset,
你的目標就是找程式自動將他們劃開,這也是機器學習的目標。
逼自己忍住工具的誘惑,不用任何函式庫,用你最熟悉的程式語言自行硬幹 perceptron。
讀理論、實作、讀理論、修改實作、讀理論、再修改實作、讀理論、再繼續修改實作,
如此不斷循環,直到你的 perceptron 程式可以自動找出一類一邊的正確直線為止,
恭喜你!取得了搞懂類神經網路的第一個里程碑!
接下來就推廣到 MLP 以及如何用 back-propagation 收斂,搞懂了就不怕類神經網路,
不過那又是另外一個坑了..
---
阿?那要什麼時候才可以開始學習 Deep Learning 呢?
等你發現傳統 MLP 層數加多也沒什麼屁用的時候,那就是學習 DL 的開始惹。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.233.52.77
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Soft_Job/M.1501344683.A.644.html
※ 編輯: deo2000 (36.233.52.77), 07/30/2017 00:22:24
1F:→ hsnuyi: 林的書跟國外同等級的課比起來 算很平易近人了 每章後面的 07/30 00:27
2F:→ hsnuyi: 習題倒比較有水準 07/30 00:27
3F:→ hsnuyi: 而且NN是放在e-Appendix 科科 07/30 00:28
4F:→ hsnuyi: e-Chapter 寫錯 07/30 00:29
那本書出來的時候 NN 還沒有這麼紅,主角還是 SVM 與 cascade。
※ 編輯: deo2000 (36.233.52.77), 07/30/2017 00:33:10
5F:→ hsnuyi: 某些領域SVM還是很棒呢 NN有時提供的少量優勢 必須要用數 07/30 00:49
6F:→ hsnuyi: 十倍的training time去換 只能用來發paper 07/30 00:49
你說的 NN 有用試圖平均 margin 嗎?
我認為 NN 應該要用 Hinge Loss Function 才能和 SVM 公平比較
※ 編輯: deo2000 (36.233.52.77), 07/30/2017 01:13:13
7F:→ ericrobin: 精確度高一些但時間多好幾倍算公平嗎? 07/30 02:55
8F:推 buper: 看他要時間還是正確性囉 07/30 03:22
9F:推 dreamnook: 推個 07/30 10:22
10F:→ SouthRa: 哇靠你這篇寫得超排外的 看得懂的只有原本就懂的人 07/31 02:49
11F:→ SouthRa: 新手看了你的介紹馬上就會昏頭了 07/31 02:49
我如果寫到大家都看得懂,那應該有 10 倍以上篇幅,都可以當成專欄文章了。
不是我不想寫,但是這樣的文章應該沒多少人有耐心看,直接 end...
12F:→ beaprayguy: 有關鍵字,就好google 07/31 07:25
13F:→ beaprayguy: 我覺得這篇讓我瞭解很多 07/31 07:26
感謝回饋~
※ 編輯: deo2000 (125.227.205.43), 07/31/2017 10:42:30
14F:推 wildli0422: 看不太懂 但是得到很多關鍵字 08/01 19:04
15F:→ wildli0422: 謝謝你 08/01 19:04
16F:→ Surrey00: dick learning 08/02 11:46
17F:推 alan23273850: PUSH 08/02 14:42
18F:推 ppc: 這篇寫得不錯啊 08/10 02:32