作者asin404 (asin404)
看板Stock
标题[新闻] Google压缩技术可省记忆体大小达6X
时间Thu Mar 26 17:38:06 2026
https://money.udn.com/money/story/5599/9403705?from=edn_newest_index
Google发表了一种演算法并宣称这技术能改善 AI 模型的记忆体使用效率
。受此消息影响,记忆体晶片和储存概念股周三全面下挫。
美光股价跌3.4%,盘中一度大跌6.1%,连续五日下跌;Sandisk大跌 3.5%,连续四个交易日
下跌。储存装置制造商希捷(Seagate)和威腾电子(Western Digital)股价周三各跌2.8%
和1.6%。
亚洲记忆体股周四开盘也跟着重挫,三星电子和SK海力士各跌2.8%和3.4%。
Google周二晚上推出了 TurboQuant压缩演算法,并说 TurboQuant不仅提升 AI 模型速度和
效率,也能大幅减少记忆体使用量。
这项演算法针对的是「向量」(vectors),其功能是协助 AI 模型理解并处理从简单到复
杂的资讯。Google 解释说,高维度向量会消耗大量记忆体,进而在「键值快取」(KV cach
e)产生瓶颈;而此快取技术正是让 AI 模型能「记住」已处理过的资料,进而加快回应询
问速度的关键。
虽然高维度向量可透过「向量量化」技术来压缩,但 Google 说,这技术本身也会产生记忆
体问题,因为需要计算和储存额外数据,「这在某种程度上违背了向量量化的初衷。」Goog
le 去年 4 月发表研究论文所提出的 TurboQuant,正是为了解决这个问题。
记忆体和储存装置制造商先前因零组件短缺,能大幅调涨价格。如今,有投资人可能认为 A
I 指标企业未来不再需要这麽多记忆体,削弱美光等供应商强大的定价权。
但也有人认为事情没那麽简单,因为当技术进步降低了资源成本时,反而会因为资源变得更
容易取得,进而推升了需求。
Google 说,其新型压缩演算法能将 AI 模型的键值快取(KV cache)记忆体用量减少至少
六倍,并将速度提升高达八倍,这实质上降低了「推论」(即执行 AI 模型)的成本。有分
析师拿杰文斯悖论(Jevons paradox)解释,这将带动 AI 模型的普及,进而导致对记忆体
更多的需求。
Lynx Equity Strategies发给客户的报告中写道:「Google 所详述的方法,在未来 3 到 5
年内几乎不会减少对记忆体和快闪记忆体的需求,因应供给极度受限,」这个研究机构重
申了对美光 700 美元目标价;美光周二收盘价为 382美元。
===========
难怪这几天
华邦跌破百了还在继续跌
旺宏直接躺平亮灯
群联见不到底的跌了再跌
有潘董买自家股票的加持也没用
南亚科有私募基金的大话题加持
一样红灯直下转绿
难怪厂务设备今天一起狂跌
因为华尔街人认为
只需要1/6记忆体的产线就够用了
不需要扩厂
Memory is over??
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 49.217.58.149 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1774517889.A.1AC.html
1F:→ ericf129 : 贴新闻都不会= =?03/26 17:38
2F:推 cuteSquirrel: 楼下记忆体专家03/26 17:38
3F:推 amhs : 蹦蹦03/26 17:39
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 17:39:43
4F:嘘 ppmaker : 不可能 绝对不可能,如果是真的我要跳了!!!03/26 17:39
5F:→ kinve1014 : 宣称 嗯 压低吃货罗03/26 17:40
6F:→ luche : 记忆体厂商先制裁03/26 17:40
7F:嘘 thetide0512 : 你先OVER03/26 17:41
8F:推 tom77588 : 跟日本的压缩机一样稀少03/26 17:42
9F:推 pigu66 : 莫忘deepseek03/26 17:42
10F:→ tctv2002 : 狗家这麽厉害03/26 17:42
11F:推 LongBigShort: 再囤啊03/26 17:43
12F:推 richardz : 记忆体降下来绝对是消费者利多rrrr,终於可以开始03/26 17:43
13F:→ richardz : 换电脑了吗03/26 17:43
14F:推 lastsodeep : 听说旧的概念吧!而且一周下来goog好惨03/26 17:45
15F:推 stcr3011 : 有大神可解释原理吗 想不透03/26 17:45
16F:推 s074074qq : 投资人的钱包也被压缩了03/26 17:46
17F:→ stcr3011 : 是减少快取的使用量吗03/26 17:46
18F:→ appledick : 这根本就没影响03/26 17:46
19F:推 bobjohns : 那google改卖记忆体岂不赚烂 一条当六条卖 那就全03/26 17:47
20F:→ bobjohns : 市场记忆体全收来 我卖6倍03/26 17:47
21F:→ appledick : 借机出货而已 03/26 17:47
22F:推 baolidab : 我解释一下原理:记忆体厂商吊高价,有人不爽,跟 03/26 17:47
23F:→ baolidab : 你翻桌。03/26 17:47
24F:→ baolidab : 就是这样XD 03/26 17:47
25F:嘘 ice80712 : Google and 记忆体 is over03/26 17:47
26F:→ bobjohns : 那毛利直接突破天际03/26 17:48
27F:推 sdbb : 跟衣物压缩收纳袋一样03/26 17:48
28F:→ HarukaLM : google一起跌...03/26 17:48
29F:推 Gaujing : 总需求会上昇,降低单位成本,释放更大需求,卖压03/26 17:48
30F:推 kuominj : 这两个都一起over03/26 17:48
31F:→ Gaujing : 那是在骗下车03/26 17:48
32F:→ stcr3011 : os主记忆体量不会减少吧 还是我才疏学浅03/26 17:48
33F:推 q8977452 : 说deepseek的 google的理论是前面的耶...03/26 17:48
34F:推 HGT7473 : 研究阶段也能杀03/26 17:48
35F:→ Feting : 跟这没什麽关系,记忆体早几天就开始走弱,单纯要03/26 17:48
36F:→ Feting : 开始套人03/26 17:48
37F:→ sdbb : 空间变大只会塞更多的东西或衣物03/26 17:49
38F:推 horse2819 : 好的 所以你技术开源吗03/26 17:49
39F:推 mp5k6 : 这消息礼拜二就公布了 你也太慢才知道了吧03/26 17:50
41F:→ azure : 线照跑 股照跳 一个循环提早结束回归而已03/26 17:50
42F:→ tw19930419 : 公布几天的事 傻人多03/26 17:50
43F:→ ojh : 估狗自己也崩烂了 03/26 17:50
44F:推 xm3u4vmp6 : 需求会加大 一般人终於买得起 跑得动大模型 03/26 17:51
45F:嘘 max0616 : 新闻没贴全文03/26 17:51
46F:→ asjh612 : google股价也是软软 03/26 17:51
47F:推 ymx3xc : 4G RAM的安卓机 直接变旗舰24GB03/26 17:52
48F:推 zero790425 : 这个技术蛮重要的 尤其现在上下文长度越来越吃记忆03/26 17:53
49F:→ zero790425 : 体03/26 17:53
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 17:53:17
50F:→ herculus6502: gpu cpu 重返农药 03/26 17:53
51F:推 furnaceh : 用魔法优化魔法03/26 17:53
52F:推 Dazzium : 不就deepseek 03/26 17:54
53F:→ qxrvymo : 不给活路 03/26 17:54
54F:推 lobotime : 一堆人的理解能力不在线 03/26 17:55
55F:推 pkh1234 : 时间换空间 算的够快的话就不用那麽多记忆体 03/26 17:55
56F:推 hensel : 降到1/6,不就是要让人薯条加大 context约吃越多吗 03/26 17:55
57F:→ orz811017 : 只会越用越多啦 03/26 17:56
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 17:56:57
58F:推 jay3u7218 : 有这麽神吗??? 03/26 17:57
59F:嘘 YesNoter : ai杀手 03/26 17:57
60F:推 ga3322165 : 能塞越多,只会更贪婪 懂得就懂 03/26 17:58
61F:嘘 wiki67la : 跟deepseek 一样吃货啦,就算压缩,你ai量大,难道 03/26 17:58
62F:→ wiki67la : 就不需要记忆体吗? 03/26 17:58
63F:推 foolwind : 那不就可以卖6倍价格 超爽的 03/26 17:58
64F:→ AustinRivers: winrar比较好用 03/26 17:58
65F:→ hanklee66 : 那google这麽厉害怎麽没涨… 03/26 17:58
66F:→ CYL009 : www 03/26 17:58
67F:推 c928 : 然後变成智障AI 03/26 17:59
68F:→ Waitaha : Google是黑科技大本营03/26 17:59
69F:→ foolwind : 原来的16G当96G在卖 03/26 17:59
70F:→ tello : 记忆卡蛙还有几天可以逃03/26 17:59
71F:推 energy100203: ai需求很难变少捏 03/26 18:00
72F:推 CCLemonn : 可是估狗缓跌中03/26 18:00
73F:推 recruit : GOOG盘前负的 03/26 18:00
74F:推 hanklee66 : 不过按照过去经验 煤炭使用效率大幅提高 结果反而是 03/26 18:01
75F:→ hanklee66 : 更多人能用 煤炭反而越用越多 03/26 18:01
76F:推 joyeszhang : 记忆卡蛙: 03/26 18:01
77F:推 EdenEden : 结果google股价超烂 哈 03/26 18:01
78F:推 heavensun : 演算法没哪麽神, 这几年AI爆发 94靠硬体支援算力 03/26 18:02
79F:→ heavensun : 记忆体趋势不变 大厂都认南亚科的私募惹03/26 18:03
没亮红灯锁死啊
亮红灯一下下就直下转绿了
这麽大的话题都能红灯转绿
所以Memory is over?
80F:嘘 wu90315 : 演算法哪里没有那麽神?演算法是演算法,算力是算力 03/26 18:04
81F:→ wu90315 : ,完全不一样的东西 03/26 18:04
82F:推 Kewseq : 完了 教主的卖逼买mu 反指标吗w 03/26 18:05
83F:推 bobokeke : 记忆体涨价就是通膨啊,哪有东西不用记忆体的03/26 18:05
84F:→ desion30 : 不是本来就有的东西吗 这个改版不是只多压20%? 03/26 18:05
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 18:05:26
85F:推 h0103661 : KV cache 占总体大小10-20%而已,而且早就有相关的 03/26 18:07
86F:→ h0103661 : 压缩技术,这个只是号称损耗比较低 03/26 18:07
87F:嘘 andy79323 : 压缩 kv cache在做上下文优化 03/26 18:07
88F:→ andy79323 : 未来模型只会越大 硬体book能缩 03/26 18:07
89F:推 a11011788 : 能省还不加进去算爆? 03/26 18:07
90F:推 saiya : 其实跟sndk没关系吧 mu , sk , samsung 才有影响03/26 18:07
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 18:08:02
91F:→ tw19930419 : 那google还不喷到外太空 傻子连市场都不信了 03/26 18:08
92F:推 sdbb : @andy79323 推book能,有梗 03/26 18:08
93F:→ lightson : 出货什麽都可以说 03/26 18:09
94F:嘘 yurmom : 笑死 拜托贷款做空记忆体03/26 18:09
95F:推 ntr203 : google第几次了 每次人家炒什麽都要出来砸一下 然03/26 18:09
96F:→ ntr203 : 後自己股价也不会涨03/26 18:09
97F:→ deepdish : yoyodiy表示03/26 18:09
98F:→ gk1329 : 好诶03/26 18:09
99F:→ lightson : deepseek相同故事而已03/26 18:09
100F:推 ntr203 : 上次也弄个什麽tpu 03/26 18:12
101F:推 icelaw : 这只是演算法 理论值 实际上去跑应该会打折不少 03/26 18:13
102F:→ icelaw : 实际上能少个两成就很厉害了 03/26 18:14
104F:推 cerwvk : 不可能无限记忆体使用,这技术很实在. 03/26 18:14
105F:→ icelaw : 但在目前记忆体吃紧的时候,能实际少个两成使用量03/26 18:15
106F:→ icelaw : 就贡献很大了 03/26 18:15
107F:推 TIPPK : ddr5 16g 一条上看一万 03/26 18:15
108F:→ mnmnooo : 嘿嘿,要用全都要跟我谷歌买授权 03/26 18:17
109F:→ homygodpppk : 效能变六倍不是超好 03/26 18:17
110F:推 good10740 : 可以绕过吗 03/26 18:18
111F:推 taylorabc : 你...别再....说了..... 03/26 18:18
112F:→ ravelson : 昨天晚上就有新闻在这板上,再来一次喔。03/26 18:18
113F:推 EdenEden : 每次看谁好都要去搞 结果自己也不好 03/26 18:19
114F:→ jackz : 早就该压缩了 03/26 18:20
115F:推 SQOneal : 好厉害 我要欧印Goog了 03/26 18:21
116F:推 ilovebig99 : 压缩再解压缩不知道有没有资讯遗失,而影响推论品质03/26 18:21
117F:→ ilovebig99 : ?03/26 18:21
118F:嘘 WWIII : 崩。。。。。03/26 18:22
119F:推 yjjia : 狗哥资料中心需要很多硬体,记忆体贵33,打下去节03/26 18:22
120F:→ yjjia : 省成本03/26 18:22
121F:推 peace305 : 快跌多一点 真的03/26 18:22
122F:推 Swave : ZIP压缩发明後硬碟需求有崩吗? 没有嘛! 03/26 18:23
123F:推 dovepacket : 压缩到仅3位元? 分类成8种就能处理? 。以为是八 03/26 18:23
124F:→ dovepacket : 卦阵哦 03/26 18:23
125F:嘘 strlen : 压了还是缺啊 03/26 18:23
126F:→ jackz : 效率化本来就是AI发展必定会有的阿 03/26 18:23
127F:→ Swave : 反而人类会用压缩後的技术、节省的空间,做更多事 03/26 18:23
128F:推 bcismylove : 七伤拳的意思 大家一起跌 03/26 18:24
129F:嘘 speed364 : 你上ptt双核心就够了,为什麽要用10几核?03/26 18:24
130F:推 cool10528 : 所以google股价要飞天了吧? 有吗03/26 18:24
131F:推 George1118 : 记忆体娃集体壮胆03/26 18:25
132F:嘘 reall860523 : 开发新技术然後把记忆体股价带下去就算了,自己股03/26 18:25
133F:→ reall860523 : 价也没涨,神人公司03/26 18:25
134F:推 white1861 : 但Google股价没涨?03/26 18:27
135F:推 secrectlife : 日本的压缩机? 03/26 18:28
136F:推 Usmall857 : 上涨靠钱堆下跌靠风吹,完美诠释XDD 03/26 18:28
137F:推 qwe78971 : Ai要取代工程师 我看还久的 连这种基本问题都没办 03/26 18:29
138F:→ qwe78971 : 法 还是要靠人 AI泡沫太明显 03/26 18:29
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 18:29:41
139F:→ j112233446 : 减少6倍就等於可以多塞6倍的context 啊 03/26 18:29
140F:推 misthide : 当前AI瓶颈就是记忆体产能 当然要想办法绕过去啊 03/26 18:29
141F:→ misthide : 总不能一直被记忆体大厂掐着脖子吧 03/26 18:30
※ 编辑: asin404 (49.217.58.149 台湾), 03/26/2026 18:31:01
142F:→ owenxeve : 单一记忆体效率变高但用一样的量不是整体效率更好 03/26 18:31
143F:→ owenxeve : ? 03/26 18:31
144F:→ changkuany : 谷狗是先杀低等欧洲的判决吧 03/26 18:32
145F:推 apolloapollo: 卡哇 over 03/26 18:36
146F:推 tanby : 只有影响推理部分而已 03/26 18:36
147F:推 applejone : 记忆体不嫌少的拉 尤其是高速的 03/26 18:37
148F:推 capcombio : 便宜的记忆体买的到了吗? 03/26 18:39
149F:推 karta018 : 才6倍,就算600倍记忆体产能还是远远不够 03/26 18:43
150F:推 sinsia : 一起来压低股价吃货吗 03/26 18:44
151F:→ inzaghi0221 : goog出来砸烂然後默默吃低价 03/26 18:46
152F:嘘 jmcgow11 : 好了啦 google自己都没有涨了 03/26 18:46
153F:推 littlelaba : 不可能 绝对不可能 03/26 18:47
154F:推 littleoldman: 我怎麽感觉记忆体会更缺~~ 03/26 18:48
155F:推 frank94 : 这本来就一直在卷的东西,就像过去的半导体,但需 03/26 18:48
156F:→ frank94 : 求的增长还是超过卷的速度 03/26 18:48
157F:→ attila125 : 这个演算法是免费的吗? 03/26 18:50
158F:推 tnksda : 为跌找理由XD 03/26 18:51
160F:→ nisi0773 : google自己都没涨了 03/26 18:51
161F:推 shhs1000246 : 需求快速往地端推而已啦 越搞越缺记忆体 03/26 18:51
162F:推 stcr3011 : Goog资料中心庞大 一点优化都是量级 03/26 18:51
164F:推 bypetty : 三个月後再说没办法就笑死 03/26 18:52
165F:→ a9564208 : 看起来是可以改抢DDR4, DDR5 03/26 18:53
166F:推 schumi7401 : 一篇论文没经过实体验证让记忆体市值掉了几百亿美 03/26 18:53
167F:推 mercedeces : 压缩会降速耶,如果本来就压缩,这可能就是一种新演算 03/26 18:56
168F:→ mercedeces : 法,但这跟消费电子应该没关系 03/26 18:56
169F:→ a9564208 : 之前狗家才说要改玩dram rack,搭配这个能成功那HB 03/26 18:56
170F:→ a9564208 : M要下去吗 03/26 18:56
171F:推 chachabo : 狗狗自己都GG了 03/26 18:56
172F:推 sustainer123: 这甚至是一年前的论文== 03/26 18:58
173F:→ greedypeople: 我也觉得不一定记忆体就会利空 新技术会带来更多 03/26 19:03
174F:→ greedypeople: 应用场景跟商业机会 03/26 19:03
175F:→ Giovann : Google这项压缩技术的论文 2025 4月已经公诸於世, 03/26 19:07
176F:→ Giovann : 这次只是在 Google Research blog 简单的介绍效果。 03/26 19:07
177F:推 stlinman : 美剧《矽谷群瞎传》(Silicon Valley)早就拍过了! 03/26 19:08
178F:推 gotofumihisa: 本来就在炒作 缺不缺都嘛说说的 连缺多少要干嘛都讲 03/26 19:08
179F:→ Giovann : 而且此类压缩技术研究一直都不断的被发表。 03/26 19:08
180F:→ gotofumihisa: 不出来 03/26 19:08
181F:→ stlinman : 革命性的数据压缩算法啊! 03/26 19:08
182F:推 bring777 : 需求量减少5/6,约减少83%,黑科技 03/26 19:08
183F:推 sheep2009 : 老黄刀法来了 03/26 19:09
184F:嘘 luweber88 : 听说是个对HBM有用 消费级的主机用不到也跑不起来? 03/26 19:11
185F:推 davislin : oMLX三天前0.2.20还没有,早上更新的0.2.21就加上 03/26 19:11
186F:→ davislin : 了,看上图kv memory是省75%~80%,是比理论值1/6 03/26 19:11
187F:→ davislin : 差一点,但也很惊人了 03/26 19:11
188F:嘘 redsaizu : 用一个软体模拟就说好厉害?请用一万台AI伺服器测 03/26 19:12
189F:→ redsaizu : 试後再说吧 03/26 19:12
190F:→ KY1998 : 你想多了,长上下文的任务只会多不会少 03/26 19:14
191F:→ selvester : 你先示范2G跑win11 03/26 19:14
192F:推 xluds24805 : 记忆体本来就能用压缩,真要压缩绝对不只六倍 03/26 19:14
193F:→ KY1998 : 这是因为人类处理慢慢转变为AI处理 03/26 19:15
194F:推 perlone : 记忆体over 03/26 19:15
195F:推 sheep2009 : 记忆体真over 有够耗电 03/26 19:20
196F:→ tshu : 从dos到win11,你觉得记忆体用量是?以後到处是ai 03/26 19:24
197F:→ tshu : 与机器人,记忆体用量是? 03/26 19:24
198F:→ tshu : 发明zip,rar,h.264 h.265之後,储存用量有降低吗 03/26 19:26
199F:嘘 NTUT56 : 蛤,压缩演算法不就那几个,还可以玩出新花样? 全 03/26 19:27
200F:→ NTUT56 : 都霍夫曼变一变而已不是 03/26 19:27
201F:推 lpb : 记忆体要跌回来了吗?我有机会换新电脑了! 03/26 19:31
202F:嘘 neowfish : 你是不是LAG两天了 03/26 19:31
203F:推 ship1228 : 记忆体 is over ,google没在开玩笑 03/26 19:33
204F:推 je789520 : 那也只有谷歌一家能用吧 又不会拿出来分享 03/26 19:36
205F:推 ai112039 : 少做一些狐狸 酱板鸭 记忆体就会轻松点 03/26 19:36
206F:推 A80211ab : 实在太赞了 软体终究是解方 03/26 19:43
207F:嘘 chinoyan : kv cache 能少,模型又不能少,一群不懂原理的过度反 03/26 19:43
208F:→ chinoyan : 应 03/26 19:43
209F:推 domodesty : 为什麽google 股价也还在跌??? 不懂 03/26 19:44
210F:推 ravelson : 遥想之前说美光没在辉达HBM4供应商的新闻造成大跌 03/26 19:45
211F:→ AbianMa19 : 真的还假的 03/26 19:45
212F:→ ravelson : 只能说,要让跌就多出新闻,散户自然就相信了。 03/26 19:45
213F:推 joy2105feh : 连自家股价都压缩了 03/26 19:46
214F:→ AbianMa19 : 少一狐狸 酱板鸭 岛屿天光应该就会降价 03/26 19:46
215F:→ ravelson : 这种招数百试不爽呢。 03/26 19:46
216F:推 bambooxp : 先把chrome记忆体压缩吧 03/26 19:46
217F:→ ppbro : Google 真的跟鬼一样 03/26 19:48
218F:推 drrhythm : 这样对边缘计算是利多吧,而且压缩技术会公开 03/26 19:51
219F:→ AAIOU : 去年四月发表到现在,记忆体有比较不缺吗 03/26 19:54
220F:→ dadanyellow : 记忆体风光过了,若真因此股价开始大幅回调,也不 03/26 19:57
221F:→ dadanyellow : 用太难过,大多数人心里都明白这是迟早的 03/26 19:57
222F:→ jalai : 记忆体变便宜 当然需要用更多 短空长多 03/26 19:59
223F:推 romusutoru : 3-5年…… 03/26 20:01
224F:→ MizPerfect : 这是给 GOOG 那群阿三costdown用的 03/26 20:02
225F:→ MizPerfect : 你能忍受 问个GEMINI一句话 结果五分钟回答你吗? 03/26 20:03
226F:推 s8900117 : 糕点到了 03/26 20:11
227F:→ cct1121 : 有趣了 03/26 20:19
228F:推 g9122xj : 这是经济学里的技术进步,不是供给需求的问题,是AI 03/26 20:22
229F:→ g9122xj : 更多元应用的技术,只要他不是取代记忆体,我相信这 03/26 20:22
230F:→ g9122xj : 只会加速AI应用的爆发,记忆体再跌我就去捡一些 03/26 20:22
231F:→ eemail : 人家说减少使用,结果有人讲难道不用,零分 03/26 20:23
232F:推 wsa28 : Google真是AI巨头里面最强的 03/26 20:25
233F:推 ksjr : Google又又又又又又又要设计新tpu了吗 03/26 20:26
234F:推 saiya : 载入模型的记忆体还是没变,这个技术主要是在压缩上 03/26 20:30
235F:→ saiya : 下文的,也就是可以再塞更多上下文进去,跟省记忆体 03/26 20:30
236F:→ saiya : 没关系,需要128g才能载入的模型还是需要128g 03/26 20:30
237F:→ pkmu8426 : 那记忆体还不快降价 死撑着干嘛 03/26 20:43
238F:推 WusoAiwen : 99美债 03/26 20:45
239F:推 icome : 不要怕 股价除以6而已 03/26 20:45
240F:推 fanix21 : Ai token目前软体正在进行优化,减少所需context to 03/26 20:46
241F:→ fanix21 : ken的数量 03/26 20:46
242F:推 ravelson : 各位可以拿这篇新闻去店家杀价买便宜记忆体 03/26 20:58
243F:推 Merlini : 放空轰炸记忆体喔 送分题来了你各位 03/26 20:59
244F:→ realbout : 那表示现在记忆体供过於求了 再等等就会降价了 科科 03/26 21:04
245F:推 takuya1 : 明天旺宏再跌停我就买一张 03/26 21:04
246F:→ wondtty : 笑死,那google 空间怎麽不继续免费呢? 03/26 21:13
247F:→ jack1042 : 去年的东西拿到现在当下跌的理由太慢反应了吧 03/26 21:22
248F:推 lovelight : 我还是不敢放空 03/26 21:54
249F:推 jasperhai : 华硕刚用藉口涨价,谷歌就拆台XD 03/26 22:00
250F:→ OxFFFFFFFF : 每一家都有花钱订阅 gemini用起来是最慢的 03/26 22:07
251F:→ a85201207 : 有利空 才能做多 03/26 22:13
252F:推 trasia : 谁? 03/26 22:31
253F:推 tikowm : 利空出尽 喷 03/26 22:32
254F:推 koushimei : 爽啊 看韩商发这种财就不正常 03/26 22:42
255F:嘘 ohyouwin : 自己也跌20趴了,这麽怎估狗怎不涨 03/26 22:52
256F:→ kusotoripeko: 我们的记忆体变成雪山狐狸、星际道士之类的创作 03/26 23:14
257F:→ kusotoripeko: 还有咕咕嘎嘎 03/26 23:15
258F:推 netsphere : NV也有可压缩KV cache的技术叫KVTC,而且看起来可 03/26 23:17
259F:→ netsphere : 以跟TurboQuant结合使用 03/26 23:17
260F:推 puni52041 : 那谷歌可以把记忆体卖给别家公司 发大财 03/26 23:17
261F:推 gest7240 : 很强阿 但你怎麽一直跌 03/26 23:27
262F:推 kopohung : 记忆体已死 03/26 23:41
263F:→ avmm9898 : 笑死 03/26 23:57
264F:推 icantsay : 套十年 03/27 00:00
265F:推 isaccrick : 压缩六倍 那就可以塞六倍资料进去算 03/27 00:15
266F:推 harry458031 : 别骗了 吃货 03/27 02:49
267F:推 l14567p : 估狗快跌下来给我加码 03/27 03:02