作者asa121 (秋風之痕)
看板DataScience
標題[問題] 基礎數學請益
時間Wed Jun 26 10:42:30 2019
資料科學的板友好
小弟最近再複習資料探勘、機器學習的基礎數學。
預計會讀微積分、線代、機率與統計,以及練習一下Python
想請問在各科裡面有那些可以略過部分,有哪些需要額外加強的部分?
比如說:三角函數的部分需要念嗎?
ps.目前以線上教材為主 Ex:莊重老師的微積分
以上,謝謝大家
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 124.9.79.207 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1561516952.A.462.html
1F:→ loser113: 林軒田機器學習 youtu有 06/26 10:55
2F:→ sxy67230: 機率與統計、隨機程序最好是有全方面都讀,尤其是想走GM 06/26 11:15
3F:→ sxy67230: M領域。線代特徵方程、特徵向量,基本的矩陣運算、svd、 06/26 11:15
4F:→ sxy67230: LU分解。微分真的用到的就是偏微方而已。這些讀熟,ML真 06/26 11:15
5F:→ sxy67230: 心不難。 06/26 11:15
6F:推 sxy67230: 進修就數學的最佳化理論,電資應該接觸到比較少要另外 06/26 11:17
7F:→ sxy67230: 看,然後要從大架構看整個DL消息理論一定要讀熟。 06/26 11:17
8F:推 thefattiger: 不用,邊看邊學就好,這領域的數學沒那麼難 06/26 11:25
9F:→ thefattiger: 除非你要做基礎研究,不然基本線代跟機率概念有就好 06/26 11:26
10F:推 sxy67230: 另外,我真心推薦吳恩達教授Coursera 的課程,雖然部分 06/26 12:00
11F:→ sxy67230: 課程有點舊,但是作業都是從matlab來做,matlab的好處是 06/26 12:00
12F:→ sxy67230: 你會比較有實際實用到線代在數值運算上的感覺。 06/26 12:00
13F:→ sxy67230: 全部作業都有做的話,基本的ml一定沒問題 06/26 12:00
14F:→ Pieteacher: 基本微積分概念 + 應用的線性代數層面 + 直接讀機器 06/26 19:01
15F:→ Pieteacher: 學習 + python實作 就夠了 06/26 19:01
16F:→ asa121: 謝謝版友的建議,我大概抓到方向了,謝謝各位。 06/26 19:09
17F:推 erre: call svm 06/27 07:39
18F:噓 liang1230: .......不難喔 一堆收斂速度 generalization bound算 06/27 12:45
19F:→ liang1230: 到我懷疑人生了 會用deep和理解也是兩回事 比創意不難 06/27 12:45
20F:→ liang1230: 啦 比數學我看是難到爆啦 連現在的數學工具有沒有辦法 06/27 12:45
21F:→ liang1230: 解決deep的問題都是個謎 06/27 12:45
22F:推 thefattiger: 我在產品端的,重點是要能解決客戶跟user的問題 06/27 23:37
23F:→ thefattiger: 只要理解各個算法的限制就好,不需要多高深的數學 06/27 23:37
24F:→ thefattiger: 樓主是跨領域來學的,本來也就不太可能走學術 06/27 23:37
25F:→ cybermeow: 怎麼不去讀讀現在deep learning theory的paper 你會發 06/28 06:46
26F:→ cybermeow: 現convergence rate跟concentration bound都是小菜一疊 06/28 06:46
27F:→ cybermeow: 不會random matrix, dynamical system, stochastic cal 06/28 06:48
28F:→ cybermeow: culus我都不敢說自己會theory了 06/28 06:48
29F:→ cybermeow: 更偏門的還有代數拓普的TDA跟information geometry 所 06/28 06:50
30F:→ cybermeow: 以問到ml需要什麼數學我都笑笑 06/28 06:50
31F:→ cybermeow: (沒有針對樓主或哪位 單純發牢騷 06/28 06:51
32F:→ liang1230: Deep Learning Theory根本就還沒有幾個dataset可以算 06/28 19:28
33F:→ liang1230: 好的bound你說小菜一碟.... 收斂速度也一堆沒辦法算 06/28 19:28
34F:推 cybermeow: 我指的是傳統statistical learning theory的generaliza 06/29 20:09
35F:→ cybermeow: tion bound跟convex optimization類型的基本convergenc 06/29 20:09
36F:→ cybermeow: e rate 06/29 20:09
37F:→ cybermeow: 不然新出的paper也不知道用什麼鬼神技術來做 XD. 06/29 20:11
38F:推 liang1230: 也沒到什麼鬼神技術啦 就加一堆constrain還有一堆看不 07/01 10:54
39F:→ liang1230: 懂的證明 07/01 10:54
40F:推 tipsofwarren: David J. C. MacKay 07/02 07:30
41F:→ tipsofwarren: Information Theory, Inference and Learning Algor 07/02 07:30
42F:→ tipsofwarren: ithms 這本試試 07/02 07:30