作者hortune (enutroh)
看板NTUcourse
标题[评价] 107-1 李彦寰 最佳化演算法
时间Sat Jan 19 02:02:47 2019
※ 本文是否可提供台大同学转作其他非营利用途?(须保留原作者 ID)
(是/否/其他条件):
否
哪一学年度修课:
107-1
ψ 授课教师 (若为多人合授请写开课教师,以方便收录)
李彦寰
λ 开课系所与授课对象 (是否为必修或通识课 / 内容是否与某些背景相关)
资工所
δ 课程大概内容
课程网页:
https://cool.ntu.edu.tw/courses/130
Ω 私心推荐指数(以五分计) ★★★★★
★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★
η 上课用书(影印讲义或是指定教科书)
老师自己的投影片
μ 上课方式(投影片、团体讨论、老师教学风格)
投影片在上前会放到NTU Cool
上课就是投影片辅以白板
σ 评分方式(给分甜吗?是紮实分?)
作业 40 % (取最高三次)
期中考 20 % (期中考前的作业一定要写,不写会後悔QQ)
Final Project 40 %
ρ 考题型式、作业方式
作业真的超Nice,基本上每次作业都是两到三个大题,
然後里面的题目会一个接一个,逐步带领你证出神秘的
bound,这个真的是用心的老师才会这麽仔细的安排。
不过老师作业一版通常都会有bug,所以要早点开始写
,不然会被bug误导得很惨,但老师回信修改的速度真
的超快。
ω 其它(是否注重出席率?如果为外系选修,需先有什麽基础较好吗?老师个性?
加签习惯?严禁迟到等…)
出席率 0
建议修过线代,不然会有一点痛苦
Hsuan-Tien ML, Shou-De ML, Hung-Yi ML之类的课,
没修过也没差
不过有修过 Chih-Jen OPTML(下学期停开QQ)的话,前面一两份的投影
片和第一次作业会满舒服的,不过後面就没差了。
Ψ 总结
在大大大ML时代,人人都是资料科学家,大家都是pytorch, tensorflow,
keras, chainer,caffe叠积木大师,但你是否曾经想过,为何gradient
descent会收敛,就算他会收敛,又会收敛的多快呢?那是否有比gradient
descent还快的演算法呢?
在堂课中,老师带着大家从convex function简单的性质开始,从定义
开始,然後介绍了gradient descent然後又介绍了神一般的俄国人
Nesterov的accelerated gradient descent,之後将gradient descent
的式子写成norm形式,开始想着是否能用其他的norm来做gradient descent?
於是mirror descent就进入了眼帘,之後将convex function改成
composite形式,出现了proximal gradient系列算法,然後你的期中
考范围就到这惹。
期中考完後,就是Frank-Wolfe Method,之後稍微进入Online的世界
介绍惹Online Mirror Descent。最後踏入Learning in games,从
naive的follow-the-leader,加入神奇天眼的be-the-leader,最後
进入follow-the-regularized leader.
学期的最後,以Optimistic method划下句点。
好课不修嘛~ 而且期中考平均好像7x~
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.215.99
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/NTUcourse/M.1547834570.A.B57.html
1F:推 liang1230: 你也太快...... 01/19 02:15
差点忘记写
※ 编辑: hortune (140.112.215.99), 01/19/2019 02:15:57
2F:→ liang1230: 楼主神人 小弟常常读到怀疑人生 01/19 02:19
3F:推 liang1230: 补个:王奕翔教授也会来旁听这门课 01/19 02:21
4F:→ liang1230: 下学期的MPML如果跟去年一样 在gradient descent的部 01/19 02:21
5F:→ liang1230: 分跟期中考前重复蛮多的 只是上的超快 01/19 02:21
6F:→ liang1230: 但觉得若对ML为什麽会work的原理有兴趣也是推荐大家修 01/19 02:23
7F:→ liang1230: 个 但是作业可能更怀疑人生啦 从网路上抄可能都有抄个 01/19 02:23
8F:→ liang1230: 三天三夜才抄的完 01/19 02:23
9F:推 yiefaung: 推 01/19 04:02
10F:推 xavierqqqq: 请问除了线代就够了吗 没资料结构跟演算法的基础会听 01/19 12:16
11F:→ xavierqqqq: 不懂吗 01/19 12:16
12F:推 exe1023: 回楼上演算法只要懂bigO那些的意思就好 资料结构不用 听 01/19 12:48
13F:→ exe1023: 不懂通常只是自己数学档次不够 01/19 12:48
14F:推 xavierqqqq: 3Q 01/19 14:38
15F:推 empennage98: 除了线代之外,还要会操作多变量微积分 01/19 15:23
16F:推 CharlieL: 推寰神 01/19 21:03
17F:推 MataAshita: 请问被当+停修的人多吗? 01/19 21:20
是满多的
不过大家停修的原因都不太一样
有人是拿到广告公司offer就休学了
有人是拿到国外visiting research offer就停修了
有人是觉得自己的研究领域只需要前面一半就停修惹
不过期中考人数是一开始人数的一半吧XD
旁听众多的一门课
18F:→ MataAshita: 田神出没!! 01/19 21:20
19F:推 rrro: 推寰神! 01/19 21:44
20F:推 CKNTUErnie: 哇 神串留名 01/19 21:50
21F:推 unmolk: 楼上上rrro 01/20 03:31
22F:推 dQoQb: 推寰神! 01/20 13:47
※ 编辑: hortune (140.112.16.133), 01/20/2019 17:46:54
23F:推 PyTorch: 砍一半 那跟王神的机器学习数学原理有得拼 01/20 18:35