作者KILLE (啃)
看板Tech_Job
标题Re: [新闻] AI「薪」贵!科技业祭出年薪200万抢人才
时间Sun Dec 2 01:34:08 2018
个人认为 AI是个大泡泡
理由很不是因为炒很热 又没确实赚钱这观点
现在我们用104 去查 deep learning
全台可以找到全职6185个职缺
https://imgur.com/wCQVRqB
但用CUDA去找 只能看到 77个职缺
https://imgur.com/ve9tbj1
※ OpenCL:65个
类似的状况在矽谷也一样 以下是用indeed之结果
https://imgur.com/uHP7coL
https://imgur.com/JfQZ5UP
※ OpenCL是152个
看来OpenCL虽然号称是业界标准 但流通度还是不如辉达私有之CUDA
所以以下文用CUDA来讨论
大部份人都知道 深度学习是基於多核共同决策
这人工智能多核环境 大多是用显卡来运行
看看这精美的比例 台湾1:80 矽谷 1:10
现在深度学习 是成熟到像.Net框架
不需要聘人来优化下面的显卡操作是不?
还是说这些做优化计算的人 不削用CUDA
直接骗显卡他要画3D 用directX/OpenGL来操作?
亦或是这些使用人工智能之公司 不是用显卡 是用并连CPU来算?
还是说
这些人工智能 根本就还未进入到稳定营运模式
所以无需找人来做下层优化?
算法开发与算法优化 人力配置比是多少 大家心里有数
但绝不是十比一这数字 更不可能是80:1 (80:1是根本不聘人优化)
更况论CUDA职位还很多与人工智能无关者
若人工智能不是泡泡...那要怎解释为何需求这样少的CUDA人力?
※ 引述《orz44444 (修罗下辈子是人才是人~~)》之铭言:
: https://udn.com/news/story/7269/3512387
: 2018-12-01 13:26 联合晚报 记者叶卉轩/台北报导
: 系统分析师起薪43K
: AI对就业影响大,大企业开始布局。人力银行表示,2019年企业最看好题材与职缺第一名
: ,皆与AI有关,AI是各项工作职能最耀眼的显学,薪资相对亮眼。如演算法开发工程师、
: 系统分析师大学学历,起薪分别是约3万9000元和4万3000元,工作五年後薪资可以突破5
: 万,平均年薪80万到100万。金融业导入FIN TECH领域後,科技业或制造业,若与互联网
: 、云端运算、区块链、产线自动化有关,AI相关职缺大热门。
: 104人资学院资深副总经理花梓馨表示,近年来台湾IC产值不断提升,带起AI与大数据等
: 人才缺口,2019年将延续浪潮,新科技成长持续看俏。
: 1111人力银行和yes123求职网也指出,明年企业最看好题材与职缺第一名,皆与AI有关,
: AI目前工作职能起薪条件最耀眼。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 24.5.126.55
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Tech_Job/M.1543685658.A.66B.html
1F:推 wellonguy6: 同意 12/02 01:42
2F:推 meatybobby: 需求量差很多啊 CUDA就NVIDIA最缺人 其他家用N的框架 12/02 01:43
3F:→ meatybobby: 除非运算量有大到要去优化CUDA的 但那种一定更少 12/02 01:43
所以少到一比十?
若真无需优化..那这样与做网页都用.net框架一样 不用五年就烂到翻
4F:推 meatybobby: AI算新产业 有做起来到需要优化运算的 只有十分之一也 12/02 01:49
5F:→ meatybobby: 合理吧 12/02 01:49
早年windows编程聘多少比例之人优化效能 ?
十年前机器视觉 聘多少人优化计算?
6F:→ meatybobby: 现在主流的AI框架Tensorflow Pytorch都很成熟了 12/02 01:50
7F:→ meatybobby: 一个是Google在维护 另一个是Facebook在维续 算很稳吧 12/02 01:51
所以说这些在做应用之公司 只要靠框架就可
那就是公司间没甚差异性
看看 做网页 只要.net就可以 那利润怎样 大家很清楚
8F:→ meatybobby: 我看懂楼主想表达的意思了 确实现在AI做起来的不多 12/02 01:53
9F:→ meatybobby: 但现在硬体的进步也让需要优化的运算量门槛提升了 12/02 01:55
10F:嘘 justin1943: 你应该不是在业界 12/02 02:54
没错 本人确实不是在台湾业界
11F:推 a000000000: 之前看过某台厂在徵(低薪)大数据专员 结果 12/02 02:56
12F:→ a000000000: 说穿惹只是在作excel统计资料而已 12/02 02:56
13F:→ a000000000: 开缺的人不懂随便扯 职缺内容当然也是乱七八糟 12/02 02:57
14F:推 kkenex: 推 12/02 02:57
15F:推 Morphee: 其实很多人在优化 只是不是优化CUDA 帮敌人磨刀干嘛 12/02 03:25
优化CUDA本身只有辉达才有办法 太多黑盒部份
但深度学习 不需要优化用CUDA写的"函式库层"
(这牵扯到CUDA架构 算法特性 目标模型 题目质实)
而只聘人在上层改模型 凑曲线
说这真的有甚搞头 我是不太信 根本是还在搞原型吧
※ 编辑: KILLE (24.5.126.55), 12/02/2018 03:41:33
16F:→ vesta9: 不知所云。应用的下一层是 tensorflow 等的开发框架,不是 12/02 06:53
17F:→ vesta9: cuda。不管是效果还是效率的优化对象不会是 cuda 12/02 06:53
18F:推 dworld: 大推,你讲是内行人会的,这篇大概还有很多人看不懂 12/02 07:51
19F:推 sdyy: 瓶颈不在那啊 难不成车厂要先会做好轮胎才能开发引擎 12/02 08:33
20F:→ sdyy: 同意vest讲的 12/02 08:34
21F:推 hakkacandy: 是谁看不懂啊......推 vesta 12/02 08:46
22F:→ hakkacandy: 都用框架,厉害的厂商可以卖你元件一套卖40万啦 12/02 08:48
23F:推 Fireis556: 有趣 12/02 08:48
24F:推 hakkacandy: 而且很多公司弄ai是在改善自己流程,不是把应用拿去 12/02 08:57
25F:→ hakkacandy: 卖 12/02 08:57
26F:推 NUKnigel: 推!一年後再来看这篇 12/02 09:22
27F:推 batista1980: 看不懂哭哭,感觉是好文 12/02 09:25
28F:→ DrTech: 不是在业内吧,机器学习实际上,不一定要深度学习。不一定 12/02 10:00
29F:→ DrTech: 扯到CUDA 12/02 10:00
30F:推 DrTech: AI 工作,等於CUDA工作吗? 12/02 10:03
31F:推 guest0079: 又是一篇学生文 还是外国学生文 可能跑去大陆念书了 12/02 10:26
32F:推 guest0079: 屁孩写文章跟大老板一样都一堆文句 12/02 10:28
33F:→ guest0079: 问句一堆 什麽屁也没放 12/02 10:29
34F:嘘 wixter: 完全巷子外的,最大瓶颈明明是model架构 12/02 10:29
没错 还卡在模型上啊
所以还没获利啊 当然不聘人去优化下层CUDA
这不就是泡沫
35F:推 guest0079: 就好像在二十年前质疑网路是泡沫 理由是网卡公司开的 12/02 10:33
36F:→ guest0079: 缺极少 12/02 10:33
37F:推 michaelgodtw: 某英特尔出来的,到处说以後不用工程师,产线了, 12/02 10:33
38F:→ michaelgodtw: 完全ai 12/02 10:33
39F:→ michaelgodtw: 然後上面就听的很高兴,你讲的跟他完全不一样,人 12/02 10:34
40F:→ michaelgodtw: 家说他英特尔出来的说 12/02 10:34
41F:→ codotsun: 看完文章只想问... 你真的有碰过AI吗... 12/02 10:41
讨论枝叶之繁貌可能性 对根之疏浅略之不提?
42F:→ aiueokaki: 很多都有赚钱了好吗 而且为啥关键字是cuda… 12/02 10:49
不然要用OpenCL DirectCompute当指标也可以 只是会更惨
※ 编辑: KILLE (24.5.126.55), 12/02/2018 10:53:04
43F:嘘 Murasaki0110: 又是一个键盘ai专家 12/02 10:52
44F:推 w60904max: 现在train的运算速度不是瓶颈 12/02 10:59
45F:嘘 vvind: 你太执着在获利前提是需要去改底层 12/02 11:01
没有啊
获利後再改底层 是极正常
所以就是还未获利嘛 不然怎CUDA缺与深度学习不成比例
※ 编辑: KILLE (24.5.126.55), 12/02/2018 11:04:15
46F:推 simpleplanya: 个人觉得满有道理的 12/02 11:13
47F:推 yiefaung: 热钱涌入 大部分的人当然先卡位先赚 12/02 11:36
48F:嘘 Murasaki0110: 吐槽点太多了啦。你要比也比成长幅度,cuda和dl比 12/02 11:42
49F:→ Murasaki0110: 职缺数? 12/02 11:42
50F:→ Murasaki0110: cuda本来就是通用框架,当然很多和dl无关,底下还 12/02 11:43
51F:→ Murasaki0110: 有cudnn ok? 12/02 11:44
52F:嘘 blackrays: 庄董 12/02 12:00
53F:推 lovebridget: 後金本位经济型态本来就建筑在泡沫上 12/02 12:21
54F:→ lovebridget: 世界最大公司亚马逊都还没获利 还是世界最大 12/02 12:22
55F:→ lovebridget: 钱是无限的印 能一直吸引投资进来 钱就能无限赚 12/02 12:23
56F:推 josey822000: 楼主在讨论的是跟你们工程师不同层级的问题 12/02 12:28
57F:推 zerobx: 全世界AI跟台湾AI有没有起来 这不一样吧? 12/02 12:40
58F:推 vesta9: 真要讨论是不是泡沫,也是讨论深度学习有没有极限。从 cud 12/02 12:55
59F:→ vesta9: a 职缺看出泡沫??外星层级的讨论 12/02 12:55
60F:→ snoopy790428: 先说明一下ai定义好吗 每个大老板都在唬烂 12/02 16:36
61F:→ matyih: 小弟刚好就是做cuda/ML的 关键字有cuda/openCL的湾区工作 12/02 16:47
62F:→ matyih: 搜到烂掉 就是NV,MS,Intel, AMD跟百度有一些 剩下都是新 12/02 16:47
63F:→ matyih: 创或是很少的seinor职位,因为真的不需要这麽多人做底层。 12/02 16:47
64F:→ matyih: 。 12/02 16:47
65F:→ matyih: Don't reinvent the wheel 12/02 16:48
66F:推 popmentos: 看到这篇有点感慨,因为最近我才明白自己只是API工程师 12/02 17:01
67F:推 LinuxKernel: 泡沫没错,但这样看不太对 12/02 18:58
68F:→ egnaro123: 原po弄错了,写程式的也不会一开始就最佳化,一定是先 12/02 21:13
69F:→ egnaro123: 先对,等全部规格完成,再看那些再最佳化,顺序根本反了 12/02 21:14
70F:推 eknbz: 我懂原PO想说甚麽:走到後期tuning效能,最佳化的公司比例甚 12/02 23:01
71F:→ eknbz: 少,大多还在前期prototype, model阶段 但AI已经喊得震天价 12/02 23:03
72F:→ eknbz: 响 认为这样算是吹泡泡 12/02 23:04
73F:→ eknbz: 传统消费电看法的确要到後期调教性能才算接近商业化产品 12/02 23:07
74F:嘘 Murasaki0110: 产品落地不会是靠cuda,起头就错了 12/02 23:08
75F:→ eknbz: 有的AI应用是比想法创意,至於框架和实现就站在google nvid 12/02 23:10
76F:→ eknbz: 的肩膀上 有的是拼效能,这种就要最佳化 两者无法相提并论 12/02 23:12
77F:推 eknbz: 结果我想说的下一篇blue大就讲的差不多了... 12/02 23:16
78F:推 a3294814: cuda 不就只是用来做gpu平行运算用吗 优化算的更快 还不 12/02 23:22
79F:→ a3294814: 如把model压缩-.- 况且还要确认你演算法精度够高 12/02 23:22
80F:→ matyih: 楼上Cuda还是很重要喔,只是cudnn都帮你写好了(里面由cud 12/03 02:18
81F:→ matyih: a/ptx码组成) 没有的话普通人根本没有办法有效训练模型 12/03 02:18
82F:→ sachung28: pandas在github主要开发者(commits>200)也才10人 12/03 05:13
83F:→ sachung28: 其他AI主流套件也差不多 核心开发者都少 一般都是会使 12/03 05:17
84F:→ sachung28: 用就好 其实除非强到会飞天 不建议改底层算法 因为写出 12/03 05:17
85F:→ sachung28: 来bug不见得少 效能不见得好 12/03 05:17
86F:推 followwar: 可能对他们而言 找人改底层算法不如加一片GPU... 12/03 12:05
87F:推 krizarlid: 因为直接套Framework,懒得优化 12/11 18:19
88F:→ krizarlid: 东西能动能炒新闻就好 12/11 18:19