作者zxwxz (zxwxz)
看板Stock
标题Re: [请益] AI最花钱的时间已经过了吗?
时间Mon Feb 3 14:50:11 2025
短期目标就是AGI,长期目标就是ASI,其他任何形式的东西都只是花边,所谓的AGI就是你
直接可以用GPU算力去转换你的所有非物理员工,原则上你只需要雇用机房仔排除故障而已
,这当然一开始超级花钱,但随着时间成本会急剧下降,且超越你所能找到的员工能力
DeepSeek 只是一次成本优化的良好范例,并没有创造出新的范式,一个优化引擎可以让你
的车省下95%的油,不代表你可以不用油开车
Scaling Law才是真正的重要的核心,目前的Scaling Law是短期经济帐撞墙,DeepSeek 的
研究表明经济帐撞墙有短期突破,但要知道的,基础模型ModelSize扩大100倍,才大约有2
倍智力回报,推理模型会在相同模型大小上有100倍效益,相当於2倍基础模型放大会有2倍
智力回报
至於说MOE对於未来扩展是不是最优范式还不确定,如果不能简单Scale Up这个基础架构,
那未来扩展还是会受限
但到了AGI时期就不一样了,你可以每次针对不同Scale的Model做一定程度的自动化优化,
包含最底层的PTX重写,到最上层的算法优化,这时局我敢说大企业绝对会往下押注,这与
一般使用者无关,但一定会受惠
目前绝对还远远不到Edge Device的局面,DeepSeek R1完整版要16张H100才摆得下所有参数
,蒸馏完的东西都属玩具而已,而且远端才能透过Time Sharing极大化GPU usage rate,你
Local端的利用率5%都不到,相同价格你云端的能力会至少是2倍以上,更何况未来GPU会越
来越便宜
股价短期一定还是会下杀,晶片关税一定会杀到底,但未来长远绝对是利多,估计要到Open
AI 跟其他AI Lab开始拿AGI做自己的云端ASIC,但短时间很难跟Nvidia正面翻脸,毕竟NV跟
台积电的交情,谈到的晶片产量不可能直接抢单的,亚洲人情世故还是会把这件事情缓一缓
※ 引述 《ImHoluCan (爷)》 之铭言:
: 标题: Re: [请益] AI最花钱的时间已经过了吗?
: 时间: Mon Feb 3 13:59:46 2025
:
: ※ 引述《gerychen》之铭言
: : 就算Deepseek是蒸馏其他AI模型
: : 但就是能够做出效能好成本低的模型
: : 而那几间巨头砸在AI的钱
: : 就是在奠下AI发展的基础
: : 以Deepseek的发展来说
: : 未来是不是任何公司都只需要用相对低的预算
: : 就能再做出一个新的AI模型?
: : 也就是说AI浪潮最花钱的时间已经过了?
: : 那未来还会有像前几年那样的晶片或算力需求吗?
:
:
:
: 客群不ㄧ样,你怎麽把客群混在ㄧ起说?
:
: DeepSeek 客群是免费仔 与 本来不会用AI 的那群人
:
: 巨头的AI 花的巨额费用 是给专业 本来就会花的人
:
:
:
: 1.Apple iPhone 干嘛买新的?
:
: 拿iPhone 8也不需要,
:
: 滑滑网站 拍拍照 看看影片都差不多
:
: 甚至用便宜对岸中阶安卓cp 值爆打
:
: 干嘛用ios 呢?
:
: Apple 应该倒闭才对,鬼才买新iPhone,主流要cp 用中阶安卓就好
:
:
:
: 2.奈飞 干嘛订阅?是白痴嘛?
:
: 网路随变打线上看,各种网站,各种盗版
:
: 爽看到爆cp 爆力高 成本0元
:
: 怎麽还有弱智花钱订阅奈飞?
:
: 奈飞怎麽不倒闭?
:
:
: 3.特斯拉干嘛买?
:
: 中国电车爆打,甚至干嘛买新车,买二手爽用就好
:
: 特斯拉应该马上立刻倒闭才对
:
:
:
: 特斯拉 苹果 奈飞
:
: 都有遇到增缓减速 甚至有很多对手更屌
:
: 但目前不都都头脑壮壮?
:
:
: 苹果 特斯拉 增速放缓+关税
:
: 也都遇过,怎麽还不倒闭?
:
:
:
: 花钱肯定有好处
:
: 而不花钱用免费的 肯定有坏处 就看你用在什麽地方
:
:
:
:
: Nvidia 永远重点是AI 到底有没有赚头?
:
: 才是让巨头要不要大量投资硬体
:
: deepseek 就直白的表示AI真的有赚头
:
: 连本来就不用AI的免费仔都在用
:
:
:
: 笑巨头干嘛花大钱投资硬体
:
: 如同看盗版0元的人笑那些花几百元的人低能
:
:
: ----
: Sent from BePTT on my iPhone 16
:
: --
:
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 112.105.61.157 (台湾)
: ※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738562388.A.ADB.html
: 推 Shiang1225 : 确实 02/03 14:00
: 推 SKzzz : 精辟 02/03 14:01
: 推 Aska0520 : 克群真的不同 02/03 14:01
: 推 kuosos520 : 小声一点,还没买够 02/03 14:01
: 嘘 centaurjr : iphone 8拍照差很多...你可以试试看再回来唬烂 02/03 14:02
: 推 realmd : 但是投资方会更务实 以前溢价都收的盘子买法不在有 02/03 14:02
: 推 wanybear2002: 同意,太多免费仔习惯成自然了 02/03 14:02
: → realmd : nv的毛利可以预期一定会掉 02/03 14:03
: 推 jwiww : 楼下说可以绕过CUDA护城河 02/03 14:06
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 42.73.112.255 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738565413.A.B7C.html
1F:推 ImHoluCan : DeepSeek 完全打开新世界大门02/03 14:57
2F:→ ImHoluCan : 要是增加硬体能更聪明,那肯定有赚头 02/03 14:57
3F:推 hulu63 : 感觉这篇很有见地,虽然看不懂但只能推了 02/03 15:03
※ 编辑: zxwxz (42.73.112.255 台湾), 02/03/2025 15:09:08
4F:→ Homeparty : LLM到不了AGI的 02/03 15:10
5F:推 Mosskappa : 板上恐慌仔只会喊nv 50 tsm100 02/03 15:10
6F:推 maxangel : 运算成本减少只会让更多应用投入 02/03 15:11
7F:推 intointo : 好吧 吃起来有点吃力 02/03 15:17
8F:推 capssan : 我觉得应该说只有LLM达不到AGI 02/03 15:17
9F:推 abcd5566 : 训练归训练。要供几亿人用的推论花的才多 02/03 15:23
10F:→ CCH2022 : 短线客盘中决斗只是过程。 02/03 15:23
11F:→ CCH2022 : 法人机构也是要买卖才有收入。 02/03 15:23
12F:→ CCH2022 : 只要人类经济活动继续,硬体天花板永远会被打破, 02/03 15:23
13F:→ CCH2022 : 我是不可能回去用十几年前的电脑跟手机还有汽车、 02/03 15:23
14F:→ CCH2022 : 家电等应用,如果谁说可以那代表他从此时此刻就不 02/03 15:23
15F:→ CCH2022 : 需要再升级所有硬体的产品。 02/03 15:23
16F:嘘 g1254501 : 听君一席话 如听一席话 02/03 15:27
17F:→ cablate : LLM由於学习底层机制所以他永远到不了AGI,这是学 02/03 15:58
18F:→ cablate : 术界共识了,所以思考链也只是噱头而已,不会真的 02/03 15:58
19F:→ cablate : 有人以为LLM有神经自主思考能力吧? 02/03 15:58
20F:推 duriamon : 人脑参数量70B功耗60W记忆体4GB,好好想想吧!呵呵 02/03 16:02
21F:→ duriamon : ! 02/03 16:02
23F:→ cablate : 拿人脑比?要确欸,机器最大的毛病就是要用10句甚 02/03 16:10
24F:→ cablate : 至100句话解释人类用1句话就能懂的东西 02/03 16:10
25F:推 duriamon : 当然是人脑比呀!死抱那种虚无飘渺算力增加无上限的 02/03 16:13
26F:→ duriamon : 理论是被Altman洗脑的傻子吗?连微软都不买单了,AI 02/03 16:13
27F:→ duriamon : 要用实际面来看去做发展而不是什麽Scaling Law一直 02/03 16:13
28F:→ duriamon : 往上加,我还以为是参加老鼠会呢!笑死! 02/03 16:13
29F:推 duriamon : 实际上AI模型发展的基础目的是达到类似於人类水准就 02/03 16:20
30F:→ duriamon : 可以应用了,AI的优点是可以大量复制、记忆体一定超 02/03 16:20
31F:→ duriamon : 过4GB,热插拔随时上线转换成需要的专家,这样就足 02/03 16:20
32F:→ duriamon : 够装载到AI机器人里面了,该不会有人以为要AGI才能 02/03 16:20
33F:→ duriamon : 自动驾驶吧? 02/03 16:20
34F:→ duriamon : 那我们平常开车通勤的人类是智障吗? 02/03 16:21
35F:推 staytuned74 : agi 搞不好跟之前90年代一样,等得比预期久 02/03 16:34
36F:推 duriamon : deep seek会红就是因为看到了我讲的方向的曙光,要 02/03 16:39
37F:→ duriamon : 不然继续给Altman投钱亏死你,他还整天作弊玩花招, 02/03 16:39
38F:→ duriamon : Altman就是个生意人,当初看到ChatGPT之父Ilya提出S 02/03 16:39
39F:→ duriamon : caling Law理论就拿来整天挂在嘴边,肖想跟摩尔定律 02/03 16:39
40F:→ duriamon : 一样可以用来洗脑人,那个微软就是第一代憨憨,现在 02/03 16:39
41F:→ duriamon : 人家下车了,有人继续接棒,可怜哪!软银,呵呵! 02/03 16:39
42F:→ duriamon : 美国是要搞AGI没错,但是没人说AGI一定会遵循Scalin 02/03 16:44
43F:→ duriamon : g Law,蒸馏就是这个现象的部分答案,因为你以为参 02/03 16:44
44F:→ duriamon : 数量400B以上很好,但是里面有很多垃圾知识。 02/03 16:44
45F:→ duriamon : 模型为了回答问题每次转那个400B参数根本是浪费资源 02/03 16:45
46F:→ duriamon : ,呵呵! 02/03 16:45
47F:推 kotorichan : scaling law 快没训练资料了 02/03 16:56
48F:→ kotorichan : 无限参数 + 无限训练资料 是有可能AGI啦 02/03 16:56
49F:推 duriamon : 现在都想用合成数据去搞,但AI又不是人类,缺乏对现 02/03 17:03
50F:→ duriamon : 实世界的理解,很多合成数据都乱七八糟,要不然就是 02/03 17:04
51F:→ duriamon : AI偷懒说谎随便交差,笑死! 02/03 17:04
52F:推 edward0811 : 看起来蛮没未来的,烧钱烧到破产吧 02/03 17:06
53F:推 duriamon : 其实能不能本地运用目前是卡在老黄,老黄那个极恶商 02/03 17:12
54F:→ duriamon : 业刀法限制了地端运用。 02/03 17:12
55F:→ lavign : scaling law已经平了 02/03 18:33
56F:→ lavign : 离散的资料不能表现连续的真实世界 02/03 18:36
57F:推 sustainer123: AGI短期目标 猛 02/03 19:43
58F:推 toaste791214: 这篇正解! 02/03 20:25
59F:嘘 ksjr : 人情世故 呵呵 02/04 00:06