作者maplefff (降息の恐怖嘎鳄)
看板Stock
标题Re: [心得] MEM资料X6压缩,七巨头硬体资产过剩风险
时间Thu Mar 26 20:28:48 2026
※ 引述 《teddy98》 之铭言:
: 黄仁勳NVIDIA,滥用VRAM 容量来垄断市场。手法恶质、黑心!
:
: 他企图让每一张卡的效能刚好精准地卡在某个价位。
:
: 如果你想多跑一点 AI 模型或开更高解析度
:
: 这张卡的显存就会「刚好」爆掉,逼你必须加钱买更高一阶,
:
: 甚至买贵 5 到 10 倍的专业工作站卡。
:
:
: 但是随着记忆体X6压缩技术问世
:
: 使得硬体资产重估:七巨头(微软、Meta、亚马逊...)过去两年疯狂囤积 H100。如果压
: 缩技术普及,
: 原本需要 6 台伺服器的算力,现在 1 台就能达成。
:
: 效能倍增:压缩不只省空间,还能减少资料传输量。这意味着目前的 PCIe 频宽或 HBM频
: 宽会显得「变宽了 6 倍」,大大提升运算效率,降低能耗。
:
: MEM 压缩 X6 本质上是一种 「由软体定义的硬体升级」。它会让辉达透过 VRAM 容量建
: 立起来的定价权瞬间化为乌有。
看 AI 发展不能只看现状
LLM 每4-6月就大改版, 眼光得放到两三年後。
记忆体压缩技术带来的并非硬体需求缩减
而是让上下文长度与模型能力直接翻六倍
这种技术突破只会诱发更大量的 AI 采用,
当模型变得更好用、更普及时
DRAM 的总体需求量反而会喷发得更厉害。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.71.213.34 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1774528130.A.B94.html
1F:推 sdbb : 台肯 03/26 20:32
2F:推 bear753951 : 就跟上次的ds一样,好用的ai只会造成更多人用而已 03/26 20:40
3F:推 h0103661 : 可以读跟读的懂是两回事,上下文占用大小变1/10不 03/26 20:40
4F:→ h0103661 : 代表注意力能放大10倍== 03/26 20:40
5F:推 holysong : 日肯,ai爆发记忆体才开始缺货 03/26 20:52
6F:嘘 amingfirst : 一个记忆体 各自表述 大家都很会讲 时间来证明啦 03/26 20:53
7F:→ amingfirst : ㄏ 03/26 20:53
8F:推 heyjude1118 : 看资本支出能不能在新技术冲击前回收 03/26 20:56
9F:→ hutten : 如果这能让AI进步,那AI需求不是饱满而是进入更高速 03/26 21:11
10F:→ hutten : 发展 03/26 21:11
11F:推 jen1121 : 记忆体之於AI应用就像钱一样,有人嫌多? 03/26 21:45
12F:→ StarRoad : 想从60分变90分,砸钱不手软;但现在要再花一倍的 03/26 21:54
13F:→ StarRoad : 钱变95分,可就不一定划算了。所以不是说瓶颈少了 03/26 21:54
14F:→ StarRoad : 就代表更多投入 03/26 21:54
15F:→ abuu0929 : 6倍是跟古老的模型比,实际顶多降低25% 03/26 22:02
16F:推 js850604 : 硬体需求永远不嫌多,向来是硬体限制软体发展 03/26 22:15
17F:推 TRYING : 不要小看人类的欲望 CC 03/26 23:11
18F:→ HiuAnOP : 雀食 03/26 23:23
19F:推 hank78321 : 杰文斯 03/26 23:55
20F:推 okbon : 去杠杆 先砍再说 03/27 00:00
21F:→ bndan : 配件之所以叫配件 就是因为上限被人锁住了 纯加装 03/27 00:23
22F:→ bndan : 有有边际效应 讲难听的 够便宜才能拉高上限 贵就是 03/27 00:23
23F:→ bndan : 只剩「高价值」硬需求而已 03/27 00:23
24F:推 g9911761 : 循环股要循环了吗 03/27 02:29
25F:推 z83420123 : kv cache只占整个记忆体的1-2% 单纯获利了结+杀股 03/27 03:54
26F:→ z83420123 : 价才有机会重新让利润够 03/27 03:54
27F:→ z83420123 : 商业伺服器大概可以占30% 03/27 03:56
28F:推 howdiee : 几年前的60分是威尔史密斯吃面 现在60分是酱板鸭 03/27 09:36
29F:→ howdiee : 懂得都懂 03/27 09:36