作者YAYA6655 (YAYA)
看板Stock
标题Re: [新闻] 市值蒸发19.7兆!辉达声明:DeepSeek未
时间Tue Jan 28 13:22:05 2025
我之前有Po张大型主机的图
主要就是抨击现在搞AI的方向不对
几百亿美元的硬体加上数亿的电费
这就是当时电脑的状况 大型臃肿 走不进民间
AI如果是堆一堆硬体的算力而来,能用得安心吗?
如果ai替我们省下100亿的人工成本(画图,摘要简报,程式码搜索),却要花500亿的成
本,这方法就很难被普及。
Nvidia该省思一下,Ai真的只有堆算力这条路? 没有更优雅的方法吗?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.82.232.93 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738041727.A.33B.html
1F:推 william456 : 5090更难抢了QQ 01/28 13:23
2F:推 TaipeiKindom: 找外星人要黑科技 优雅 01/28 13:23
3F:→ audic : 堆算力就是省成本 01/28 13:23
4F:→ matlab1106 : 川普就职 结果黄飞中国 这事真的很诡异 01/28 13:24
5F:→ fakelie : 萝福莉~福莉萝~萝福莉~福莉萝~ 01/28 13:24
6F:推 mamorui : 门槛降、显卡热销吧 01/28 13:24
7F:推 stcr3011 : 除非软体和服务业 制造业贵的是机台 01/28 13:25
8F:推 c41231717 : 美股狂跌的原因是川普关税吧 才不是什麽DS 主要是 01/28 13:26
9F:→ c41231717 : 市场不知道他会怎麽管制 要看实际行政命令才知道 01/28 13:26
10F:→ c41231717 : 会垫高美国产品售价 加速设计公司外移 01/28 13:26
11F:→ henrk : 另类的比特币矿场? 01/28 13:26
12F:推 intela03252 : 这不是nvidia该思考的问题吧 01/28 13:26
13F:→ saisai34 : NV依旧会是主导者,但估值不会在像之前那麽夸张@@a 01/28 13:26
14F:推 iamjojo : 欸不是 NV卖机器的你要NV审视干嘛? 01/28 13:27
15F:嘘 johnny055279: 你终究还是得堆算力啊...... 01/28 13:27
16F:→ adngg579 : 什麽是优雅的方法? 01/28 13:27
17F:推 CMPunk : 最後一句害我笑出来 给推 01/28 13:28
18F:推 crowley : 优雅的方法 跋杯吗? 01/28 13:29
19F:推 cielilver : 买铲子的还要教你怎麽挖土,也太累?? 01/28 13:29
20F:→ saisai34 : 就像30年前intel一样咩 算力需求永远不满足但 01/28 13:29
21F:推 mamorui : 比特矿场诱因是有钱赚,AI要看各市场专业的热度 01/28 13:30
22F:推 adngg579 : 还是请苹果从新定义优雅,然後叫NV跟着做? 01/28 13:30
23F:推 zip00000 : 最後一句是?卖铲子变成还要主导怎麽挖 01/28 13:30
24F:→ saisai34 : 又不用一口气满足 GB200很棒 但没必要年年买那麽多 01/28 13:31
25F:推 mamorui : 但一样是该领域热度澎发时期的概念 01/28 13:31
26F:→ saisai34 : 可以买一部分剩下钱当等等党 等GB300 400 500 600.. 01/28 13:32
27F:→ uv5566 : 卖铲子当然要推销铲子 自己没脑跟商人风怪我罗 01/28 13:32
28F:→ saisai34 : 硬体,软体就是左右脚,不可能一只脚一直往前 @n@a 01/28 13:33
29F:推 rereterry : ???关辉达屁事啊!不要跟着新闻一起唬烂欸,它就 01/28 13:33
30F:→ rereterry : 卖铲子的,更多人来挖矿,它只是得出不一样型号的铲 01/28 13:33
31F:→ rereterry : 子而已,一样赚好麻 01/28 13:33
32F:推 vindiesl2000: 辉达炒股有钱赚就好才不管合不合理 01/28 13:34
33F:推 jaricho : 年薪不到100万镁的 在替黄仁勳操心? 01/28 13:35
34F:推 IDF5566 : 人类的求知慾还在,AI的追逐就不会停,难道现在DS 01/28 13:35
35F:→ IDF5566 : 就算满足?那现在肉搏不就好了,我是这样想啦 01/28 13:35
36F:推 mamorui : 除非其他领域不需要用到算力,只要LLM搞好就够了, 01/28 13:37
37F:→ mamorui : 可能吗? @@ 01/28 13:37
38F:推 CMPunk : 看好的就抄底 不看好的就空 赚钱就是这麽简单 01/28 13:38
39F:嘘 penta : 要多优雅??? 01/28 13:41
40F:推 a210510 : 还是要继续堆啊 01/28 13:42
41F:→ CCH2022 : 演算法能用更强的硬体去算 01/28 13:44
42F:→ CCH2022 : 接下来军备竞赛反而是关键 01/28 13:44
43F:→ CCH2022 : 硬体可以说是物理限制,对手比你有好的硬体就大幅 01/28 13:44
44F:→ CCH2022 : 领先,谁不想用好的硬体来让软体突破上限。 01/28 13:44
45F:→ CCH2022 : 大从国家设施小到生活穿戴,各种基础建设硬体是根 01/28 13:44
46F:→ CCH2022 : 本的。 01/28 13:44
47F:→ CCH2022 : 你会回去用20年前的电脑跑高阶软体?还是NOKIA手机 01/28 13:44
48F:→ CCH2022 : 跑手游?CRT来看Netfix?开全垒打通勤出游? 01/28 13:44
49F:→ CCH2022 : 科技会反映人性需求只会越进步,AI产业只是才刚开 01/28 13:44
50F:→ CCH2022 : 始,一堆人讲得好像DS就是句点,这个宇宙要算的比 01/28 13:44
51F:→ CCH2022 : 你我想得多太多,外星科技都还没出来,每次市场会 01/28 13:44
52F:→ CCH2022 : 先反应之後才会冷静下来。 01/28 13:44
53F:→ jacky40383 : 算力需求没有止境 效率进步也不会降低需求 01/28 13:46
54F:推 wxyz7819 : 这关他啥事 01/28 13:46
55F:→ eett811025 : 现在砍的是你对未来乐观的梦 01/28 13:46
56F:嘘 cityhunter04: 他是硬体商,软体关他屁事? 01/28 13:47
57F:推 mainsa : 之前挖矿那种烧电挖出垃圾NV都不在乎了 现在AI对人 01/28 13:47
58F:→ mainsa : 类还真的有用的 而且技术还在进展中欸 01/28 13:47
59F:→ kinda : 50系列没堆算力吧 DLSS 4不就只是塞一堆假帧 01/28 13:47
60F:嘘 ganninian : 我只知道三上优雅 01/28 13:49
61F:推 jen1121 : DeepSeek走的是,算法>算力 01/28 13:49
62F:推 jen1121 : 小铲子 大铲子,都是我辉达卖的 01/28 13:52
63F:→ jen1121 : 可是Dio再怎麽改,还是跑不过重机 01/28 13:53
64F:→ shellback : 他只是提供高算力硬体的 思考啥... 01/28 13:59
65F:推 mntonmylife : AI堆算力是加速训练模型,又不是应用 01/28 14:01
66F:推 deolinwind : 刀客之前发布会有给机器人用的低价版本啊 01/28 14:01
67F:推 suzer : 图灵奖得主都认为现在 ai 发展方向错了 01/28 14:02
68F:推 fucc : 感觉是想赚爽才公开低价版,结果被爆挂 01/28 14:06
69F:→ la8day : 发展方向错是因为文字接龙吧 01/28 14:06
70F:推 tyy749 : 影响最大的应该是OpenAI吧。如果用deepseek 配上更 01/28 14:06
71F:→ tyy749 : 高算力的硬体不就不久的未来可以打趴他 01/28 14:06
72F:嘘 ejnfu : 到底在写什麽?你问卖铲子的为什麽只专注於要把铲子 01/28 14:08
73F:→ ejnfu : 做更高阶更好? 01/28 14:08
75F:→ e123456ddd : 好低水准的文和讨论串 01/28 14:12
76F:推 gamixxxx : 5090有货了吗 01/28 14:20
77F:→ MizPerfect : 大模型还没商业化变现 就先搞个青春版模型 没意义 01/28 14:22
78F:→ MizPerfect : DeepSeek 感知都很烂, OpenAI 尾巴都没看到,一直吹 01/28 14:24
79F:→ annboy : 很多研究有相关结论了 LLM就是大力出奇蹟 01/28 14:29
80F:→ annboy : 不是说小的不可能 而是太小的不可能 01/28 14:29
81F:→ annboy : 现在的商用模型可能都在7B附近 01/28 14:29
82F:→ annboy : 要比这个数字小10倍可能真的就做不到 01/28 14:29
83F:→ sdiaa : 好的算法配好的硬体不是更好~ 01/28 14:32
84F:→ IBIZA : 问题就是要达到7B需要多少算力 01/28 14:52
85F:→ IBIZA : DS给出的答案是不到其他家的1/10 01/28 14:52
86F:推 Callus : 人才就跟复活邪神闪灯炮一样 太随机了 01/28 14:54
87F:推 cerwvk : 5090还不是堆算力,但不香? 01/28 15:00
88F:推 bagaalo : 你抨击?你建议NVDa省思?语毕...哄堂大笑 01/28 15:50
89F:→ huabandd : 当初我就觉得应该有云端算力这条路,辉达建造且出 01/28 19:17
90F:→ huabandd : 租算力,而且未来量子电脑也该这麽干 01/28 19:17
91F:→ bndan : 现在末端的商业模式 都是终端机配中央主机 和以前 01/28 20:14
92F:→ bndan : 不同的是 中央主机 实际上尤多台伺服器采分散式组 01/28 20:14
93F:→ bndan : 成 == 这应该10多年前计概就有「预言」(就是展望 01/28 20:14
94F:→ bndan : 啦)就算出社会後不读书 除非你已经50以上 不然..真 01/28 20:14
95F:→ bndan : 的只能问 读书有罪吗 =-= 01/28 20:14
96F:→ bndan : 简单讲 套上夯的名词就是 移动设备+云啦 所以高量运 01/28 20:22
97F:→ bndan : 算推广到末端从来都不是问题 问题只有你运算上的内 01/28 20:22
98F:→ bndan : 容 使用者买不买单 再说白点 问题在内容提供者..不 01/28 20:22
99F:→ bndan : 管是所谓的AR VR 还是Ai 都是这一块才是问题 其他 01/28 20:22
100F:→ bndan : 的都不是..高量运算贵还是便宜 这不重要 因为这跟 01/28 20:22
101F:→ bndan : 网路推广一样..题外话 10多年前 win的远端服务嚐试 01/28 20:22
102F:→ bndan : 过 让人远端使用多媒体内容(终端机只收视讯 全运 01/28 20:22
103F:→ bndan : 算伺服器处理) 结果没起飞的原因就是网路不够粗.. 01/28 20:22
104F:→ bndan : 但现在这只是基本服务 所以费用不是问题 问题是这 01/28 20:22
105F:→ bndan : 方向对不对(就是使用者是否「必备」这服务..) 01/28 20:22