作者teddy98 (泰迪!走吧!)
看板Stock
标题[心得] MEM资料X6压缩,七巨头硬体资产过剩风险
时间Thu Mar 26 19:37:19 2026
黄仁勳NVIDIA,滥用VRAM 容量来垄断市场。手法恶质、黑心!
他企图让每一张卡的效能刚好精准地卡在某个价位。
如果你想多跑一点 AI 模型或开更高解析度
这张卡的显存就会「刚好」爆掉,逼你必须加钱买更高一阶,
甚至买贵 5 到 10 倍的专业工作站卡。
但是随着记忆体X6压缩技术问世
使得硬体资产重估:七巨头(微软、Meta、亚马逊...)过去两年疯狂囤积 H100。如果压缩技术普及,
原本需要 6 台伺服器的算力,现在 1 台就能达成。
效能倍增:压缩不只省空间,还能减少资料传输量。这意味着目前的 PCIe 频宽或 HBM频宽会显得「变宽了 6 倍」,大大提升运算效率,降低能耗。
MEM 压缩 X6 本质上是一种 「由软体定义的硬体升级」。它会让辉达透过 VRAM 容量建立起来的定价权瞬间化为乌有。
这项技术公开问世之前是否有人涉及内线交易,不得而知。
但辉达公司涉嫌商业垄断的事实明确!!
如果任由辉达利用垄断地位维持高价,让七巨头持续买入「溢价过高」的硬体,最终造成
的资产泡沫会由全球投资人买单。
AI形成的泡沫是时候差不多该破了。
记忆体价格面临全面下修的时间点,应该也不远了。
就如同大家先前预期的,AI需求一定会有市场饱和(价格下修)的时候,
只是时间早晚的问题而已。
大家怎麽看呢?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 123.110.105.47 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1774525044.A.957.html
1F:→ ericf129 : 快空 Zzz 03/26 19:38
怎麽看都是空,跑AI模型的硬体限制变小,GPU规格的需求也一定会变小。
去年到原价屋买GPU时,有看到清华大学的采购单 (RTX 5090)
没记错的话,发票的售价是NT$ 109,990
我纳闷,训练AI有必要用到甚麽高规的显示卡吗?
原因就是出在VRAM 32GB,用高容量VRAM绑卡做销售。
我们绝不能姑息这种恶质的商业手段,零容忍!!
2F:推 GoodmanYY : Deepseek也看过一模一样的论点 送分题 03/26 19:38
3F:推 zackro : 你最厉害 那些大老板都是笨蛋 不懂技术乱投资 03/26 19:40
4F:推 handfoxx : 你都说完了 all in放空 03/26 19:40
5F:推 NoMomoNoLife: 说得对 快空! 03/26 19:40
6F:推 heavensun : 辉达这几天股价很稳啊 03/26 19:41
7F:→ attila125 : 前段压缩,到领号码牌时还不是要解压缩 03/26 19:41
8F:推 ldzaqn : 请问你这个心得怎麽来的 03/26 19:42
9F:推 s58565254 : 好 欧印空 03/26 19:44
※ 编辑: teddy98 (123.110.105.47 台湾), 03/26/2026 19:51:12
10F:嘘 deepdish : 赞 留言 分享 03/26 19:45
11F:推 luche : 研发时间刚好扩厂完毕 03/26 19:45
12F:推 good10740 : 影音 图片 也是压缩概念 轻量化能用就好 03/26 19:46
13F:推 pornpig32 : 杰文斯悖论+算力需求无限大 怎麽输 03/26 19:47
14F:推 shhs1000246 : 好的 你最懂了 03/26 19:47
15F:嘘 nanco5566 : ㄏ 03/26 19:48
16F:推 winner1104 : 如果你认为这些东西你比七巨头的团队都更懂,那你可 03/26 19:49
17F:→ winner1104 : 以放空或是毛遂自荐去跟七巨头要offer,但你有吗? 03/26 19:49
18F:→ rooo2012 : 中国等着接收…且其他国家也想要只是被管制? 03/26 19:50
19F:推 a2080259 : 真的 那些月领几百万的高阶工程师果然都是垃圾 03/26 19:50
20F:推 pognini : 实务作不作得到、系统跑不跑得顺,都有待证明呢 03/26 19:51
21F:嘘 solomonABC : 效能大提升。产出是增值的 03/26 19:51
22F:推 limulus : 快点去空 03/26 19:52
23F:推 tnksda : 要空了吗 03/26 19:52
24F:→ solomonABC : 你一台挖土机效能变6倍。你跟我说会跌价? 03/26 19:52
25F:嘘 sscck5 : 你是拿新闻问完ai来发文吗 03/26 19:53
26F:→ horse2819 : 真的能用再说 而且谷歌你要开源吗 03/26 19:53
27F:嘘 airphone : 就你最聪明 03/26 19:54
28F:→ a71085 : 这新闻用来压价的啦 其实是旧资讯了 03/26 19:55
29F:嘘 dadanyellow : 想论述你放空的观点就不要参杂情绪用词,看着很幼 03/26 19:55
30F:→ dadanyellow : 稚 03/26 19:55
31F:嘘 jessicaabc98: 多久的了,涨跌都要有新闻啦,菜鸡 03/26 19:56
32F:推 drrhythm : 现在这个技术就是开源压缩,然後不用重新训练现有 03/26 19:56
33F:→ drrhythm : 模型 03/26 19:56
34F:→ drrhythm : 有点像是开滤镜 03/26 19:56
35F:嘘 djbell : 你最聪明 科技巨头都白痴 好不好? 03/26 19:57
36F:→ MizPerfect : 解压缩要不要时间 现在对token要求速度有增无减 03/26 19:57
37F:嘘 roseritter : 测试是用拉马,最新的模型上去会如何,两说 03/26 19:57
38F:→ MizPerfect : GOOG 的GEMINI 就是给 钱少事多的人用 03/26 19:58
39F:→ budaixi : ==不是很合理 03/26 20:01
40F:推 lineak : 基本上这论点应该是5-10年後, 或以上才成立 03/26 20:02
41F:嘘 losehope : 最近一直发废文! 03/26 20:02
42F:嘘 sheep2009 : 快空 模型只会越做越大 03/26 20:02
43F:→ bear753951 : 现在AI更好好用了,结果采购的ram会更少? 03/26 20:03
44F:推 stanleyiane : 算力过剩+落地不明 摁~ 03/26 20:04
45F:嘘 falcon11 : 整套流程的一部分提升了6倍就达到agi了? 03/26 20:04
46F:嘘 hellobubble : 没想到科技巨擘在PTT出现了 03/26 20:06
47F:→ zixiang : 也不用这样推空,因为ai需要的可能远远不止,现在 03/26 20:08
48F:→ zixiang : 短空倒是真的 03/26 20:08
49F:→ nash1314 : 快空,你会赢 我站你对面 快把钱拿去 03/26 20:10
50F:嘘 jen1121 : 空了吗 03/26 20:18
51F:嘘 akuser : 储存空间跟计算能力是可以混为一谈的吗?po这内容 03/26 20:20
52F:→ akuser : 的时间 倒不如去跑外送 03/26 20:20
53F:→ owenxeve : 原本6个员工变成1个员工可以做完,但你不会想再多 03/26 20:23
54F:→ owenxeve : 雇5个创造6倍产值吗? 03/26 20:23
55F:推 newvote : 一定是芙莉莲 把七崩贤打趴了..... 03/26 20:34
56F:推 newvote : 打成大空头.....太猛了 03/26 20:35
57F:嘘 linweida : 鲁空的眼睛看出去的世界都是空空的>< 03/26 20:36
58F:嘘 lnonai : 槽点太多 很多认知是错误的 03/26 20:37
59F:嘘 BMHSEA : 你谁 03/26 20:42
60F:→ visadanny : 有些人就是没办法从历史学到教训 要再同一个坑摔n 03/26 20:44
61F:→ visadanny : 次 03/26 20:44
62F:嘘 Carloslin : 台湾懂王 03/26 20:44
63F:推 S2067030 : 你太聪明了吧,快空 03/26 20:48
64F:推 silvertiger : 确实,Michael Burry之前文章已提到垄断 03/26 20:52
65F:推 castby : 恶心,崩烂最好! 03/26 20:55
66F:嘘 strlen : 这不跟去年dickshit之乱一样?你以为算法进步 需求 03/26 21:20
67F:→ strlen : 就会降低是吗? 03/26 21:20
68F:推 WSY000000000: 需求只会更大好吗?长尾效应下,越精确的计算就需 03/26 21:27
69F:→ WSY000000000: 要更强的算力,LOG指数相关下,6倍也不够用啦! 03/26 21:27
70F:推 centiyan : 真的那麽厉害的技术可以马上大省成本发大财 Google 03/26 21:32
71F:→ centiyan : 应该会自己先上线试吧 何必现在公开? 一定是尚未 03/26 21:32
72F:→ centiyan : 成熟所以想集思广益 03/26 21:32
73F:嘘 QmoDog : 又疯了一个 03/26 21:35
74F:→ ZO20 : 你17了 03/26 21:40
75F:→ StarRoad : 为了玩3A大作插满记忆体;不代表多开两个槽後,使 03/26 21:56
76F:→ StarRoad : 用者就会再插满 03/26 21:56
77F:推 xkso : 但七巨头还是跌 995 03/26 22:08
78F:嘘 YCL13 : 请先分清楚记忆体和算力有什麽不同 03/26 22:09
79F:推 neglect : 怎麽不是因为硬体需求降低,在突然多了6倍的硬体上 03/26 22:18
80F:→ neglect : ,反而更快速的发展AI 03/26 22:18
81F:嘘 crazylag : 你都说还没问世 黄仁勳活该欠你技术的? 03/26 22:54
82F:嘘 max5209 : 。 03/26 23:07
83F:推 rafeyu : 买不到便宜记忆体只好出新闻了,如果真的美光半年前 03/26 23:08
84F:→ rafeyu : 就开崩了 03/26 23:08
85F:嘘 chinoyan : 文组 03/26 23:11