作者abjw778899 (蒙其D癡漢)
看板DataScience
標題[問題] scikit-learn等Package維護的大神養成
時間Fri Jan 3 19:44:03 2020
手機排版請見諒...
小弟剛踏入機器學習領域不久
本來都follow PRML然後直接numpy實作底層
但是當我偶然跑去翻開scikit-learn上大神們的code以後才發現自己根本像烏龜一樣在往
前進...
所以想問問板上的大神們都是怎麼訓練自己的
小弟綜合多篇文章走的路大多都是:
PRML -Good Fellow那本Deep learning-Conference paper等配合Kaggle實作
然後讀PRML或是Goodfellow也是實作一些底層這樣,但是讀起來很挫折,實際implement更
是滿滿的失落感。
小弟目前大概只把PRML掃過一次然後做一些相對較重要的演算法然後開始啃Deep learnin
g那本。
想問板上的大神們這樣走下去真的是對的嗎?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.72.44.219 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1578051845.A.A80.html
1F:→ Kazimir: 不要看good fellow那本學DL 那是給會的人看的書 01/03 20:08
2F:→ abjw778899: 我覺得PRML才真的是給神看的書QAQ 01/03 20:12
3F:→ Kazimir: 我是認為看這些書最好是有了基礎再看 我會傾向先從mooc 01/03 20:18
4F:→ Kazimir: 開始著手 一邊檢驗自己是不是數學都充分了 最後再看書來 01/03 20:20
5F:→ Kazimir: 獲取更多Insight 我曾經信過DL那本說自己self-contained 01/03 20:22
6F:→ Kazimir: 面向工程師的鬼話 看的那是痛不欲生XD 01/03 20:22
7F:→ abjw778899: 其實之前上課老師都follow PRML可是自己真的實際推導 01/03 21:04
8F:→ abjw778899: 的時間要花超久,我之前會拿老師的錄音檔複習,另外 01/03 21:04
9F:→ abjw778899: 其實我也最近開始服用清大吳尚鴻的OCW這樣,可是還是 01/03 21:04
10F:→ abjw778899: 覺得真的遠遠不夠orz 01/03 21:04
11F:→ abjw778899: 另外我自己實際推導要用的數學基本面好像還好,反而 01/03 21:05
12F:→ abjw778899: 很多tricky的地方,所以我覺得無論再怎麼補數學基礎 01/03 21:06
13F:→ abjw778899: 其實都有點隔靴搔癢,我後來索性就直接看解答或查資 01/03 21:06
14F:→ abjw778899: 料推導這樣 01/03 21:06
15F:推 kiwi946946: prml和dl你目前都用不到,李弘毅,吳恩達,林軒田公開 01/04 03:32
16F:→ kiwi946946: 課程,配合作業實作,然後prml如果有要賣二手請私我XD 01/04 03:32
17F:推 erre: call package調參數, 然後出去說自己做ai還應徵大學教職 01/04 08:53
18F:→ erre: 掰陳是成功的例子,現在是助教級助理教授! 01/04 08:54
19F:→ Edison4ever: 為什麼叫做掰陳? 01/04 09:27
20F:→ abjw778899: 我目前就大概follow老師的實作在走,感謝wiki大大 01/04 14:57
21F:→ howayi: PRML的Appendix都很重要 01/04 21:56
22F:→ abjw778899: 有,我常常翻那邊補充數學back ground不過說實在好像 01/05 00:46
23F:→ abjw778899: 用到的其實沒有很多,頂多向量或是矩陣微分這樣orz 01/05 00:46
24F:推 j0958322080: 助理教授就助理教授,啥叫做助教級助理教授 01/05 23:45
25F:→ abjw778899: 其實我還蠻想知道他到底為什麼這麼執著,如果有他講 01/06 00:05
26F:→ abjw778899: 的這麼簡單為什麼不自己去做就好,還瘋狂暗示人不講清 01/06 00:05
27F:→ abjw778899: 楚掰陳是誰到處留言像小狗撒尿一樣 01/06 00:05
28F:推 roccqqck: 好像是他對交大Andrew Chen很有怨言 01/06 00:37
29F:→ abjw778899: 樓上厲害了哈哈有同名同姓的人 01/06 07:33
30F:→ roccqqck: 我之前沒事google他的推文 但我也不知道是誰 01/06 08:56
31F:推 sxy67230: 如果你是學生,我會推薦你用手刻一個功能去實際感受, 01/06 09:25
32F:→ sxy67230: 尤其是sklearn的回歸分析有很多功能其實是缺少的,但是 01/06 09:25
33F:→ sxy67230: 實際應用我會說你就找一個最好的library 去使用,因為 01/06 09:25
34F:→ sxy67230: 按照Andrew Wu的課follow,很多特殊模塊套件已經幫你處 01/06 09:25
35F:→ sxy67230: 理好了,不需要在一直重複implement。 01/06 09:25
36F:推 sxy67230: PRML真正的用意是要讓你理解算法過程,不是讓你去implem 01/06 09:35
37F:→ sxy67230: ent用的,而且你用numpy真正去實作還可能會遇到效能上 01/06 09:35
38F:→ sxy67230: 的問題,套件很多時候把你的效能問題都做了一定程度的優 01/06 09:35
39F:→ sxy67230: 化跟支持multiple cpu的做法,自己去做真的很浪費生命。 01/06 09:35
40F:→ abjw778899: QAQ樓上大神感謝 01/06 10:28
41F:→ abjw778899: 之前就是因為手刻EM才發現效能問題,自己跟package差 01/06 10:33
42F:→ abjw778899: 太多了,才很厭世的跑上來問自己是不是走在對的方向上 01/06 10:33
43F:→ abjw778899: orz想問樓上大大現在還會去重新理解PRML或是Deep lear 01/06 10:33
44F:→ abjw778899: ning每個數學細節嗎? 01/06 10:33
45F:推 as30385438: 只是要驗證自己對算法的理解對不對,用純python刻個 01/06 12:03
46F:→ as30385438: 原型再用最簡單的dataset測試就好,不用執著於優化細節 01/06 12:04
47F:→ sxy67230: 我認為想要繼續往專業的道路前進,數學細節還是不要馬 01/06 13:11
48F:→ sxy67230: 虎啦,真的認真跟你說,小孩子才做選擇,我自己當然是 01/06 13:11
49F:→ sxy67230: 全部都要。如果今天真的遇到很有趣的新論文,我也會自己 01/06 13:11
50F:→ sxy67230: 先手刻一個,遇到真的要應用的在去找最優解。 01/06 13:11
51F:→ abjw778899: 好的,了解。只是我說的細節是指那兩本書的數學推導 01/06 13:42
52F:→ abjw778899: 細節,並不是優化效能的細節QAQ,我常常導一導一個早 01/06 13:42
53F:→ abjw778899: 上或下午就沒了,所以想知道到底該不該繼續這樣 01/06 13:42
54F:→ abjw778899: 抱歉剛剛那段話是回as大大的,我手機畫面剛剛暫留在sxy 01/06 13:49
55F:→ abjw778899: 還沒留言的畫面,sxy大大這邊有我的膝蓋orz我接下來可 01/06 13:49
56F:→ abjw778899: 能先拉快進程把deep 掃過一遍,再來trace 一些 paper 01/06 13:49
57F:→ abjw778899: 的時候把那些數學細節疏理一次可能有需要用的就手刻這 01/06 13:49
58F:→ abjw778899: 樣 01/06 13:49