作者jacknavarra (阿姆罗)
看板Stock
标题[新闻] 辉达垄断地位将打破 ? 「地表最强」AI模
时间Fri Mar 14 15:37:22 2025
自由财经
辉达垄断地位将打破 ? 「地表最强」AI模型只用「1个」H100、效能就超越DeepSeek、
Meta
https://ec.ltn.com.tw/article/breakingnews/4979570
2025/03/14 11:04
高佳菁/核稿编辑
〔财经频道/综合报导〕各家科技大厂陆续推出自家的AI大模型,但近期最受市场注目的
,就是Google的Gemma 3,推出不久後就获得「地表最强AI模型」的称号,当中的关键就
是,这款AI模型单可单晶片运作,只需「1个」H100晶片。这意味着,Google未来只需订
购辉达少量的高阶晶片,就能展现开发AI模型的成本效益。
分析师指出,Google推出的新AI模型,只需用1个H100就可运行,该模型的表现还超过了
DeepSeek的R1(34个H100)和Meta的Llama 3(16个)。
此数据对辉达来说,未来市场用户无需购买大量其GPU晶片,即可部署先进的AI应用程式
未来高阶晶片出货量,恐将影响辉达的高阶晶片出货量。此外,Google TPU等替代硬体平
台积极发展,加上类似Gemma 3等优化模型将陆续出现,未来辉达在AI训练和推理方面的
优势约80%的市占垄断地位,恐被逐步打破。
据报导,Google的新AI模型对辉达在AI硬体市场主导地位的挑战,主要来自於Google正在
积极建构开放、多元的人工智慧生态系统,以支持学术研究并推动商业应用创新,并透过
可在多种硬体平台上高效能运行的模型,计划减少对辉达高阶GPU的依赖。
Google声称,Gemma 3 是「全球最强的单加速器模型」,经过针对辉达GPU和专用AI硬体
的优化,无需大量部署GPU就能运行先进的AI应用。值得注意的是,该模型的表现超过了
DeepSeek的R1(34个H100)和Meta的Llama 3(16个),凸显了Google的成本效益。。
另外,Gemma 3 特别引人注目的原因,除了「效率」,另一大功能「多功能性」也与其他
大模型不同。外媒指出,Gemma 3 可以无缝处理文字、图像甚至短影片,这种多模式能力
为从视觉问答到基於图像生成故事等各种应用打开了大门。
===
天下苦黄已久
纷纷推出可能摆脱辉达的策略
但终究还是要用辉达的晶片
除非有人能用别家晶片做出更好的AI设备
不然依然是要交钱给辉达阿
依旧看好
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 60.250.144.251 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1741937844.A.660.html
1F:推 fbiciamib123: 笑能过剩 完了 03/14 15:38
2F:推 chigo520 : 那需要台积电麽? 03/14 15:38
3F:→ mystage : 北七,训练跟运作本来就不一样 03/14 15:38
4F:推 thetide0512 : 这才是真的利空阿 03/14 15:38
5F:→ mystage : 记者会不会是文组的啊?这麽外行 03/14 15:39
6F:推 a0808996 : 笑死 就说硬体过剩了 过年还被一堆人呛xd 03/14 15:39
7F:→ Transposon : 晶片还是GG产,但客户各自交单议价,量不多就可以加 03/14 15:40
8F:→ Transposon : 价,喷 03/14 15:40
9F:推 icrose : 这样搞GOOGLE自己的股票也得掉下来 03/14 15:40
10F:推 lianli1024 : 所以谷歌有本事现在砍单吗? 03/14 15:40
11F:嘘 BlueBird5566: 效能超过deepseek好像没有很难 03/14 15:40
12F:推 quann : 好啊 那就降资本支出阿 03/14 15:40
13F:推 karta018 : 铲子还是要买,只是学会念的应用技就不用买那麽多了 03/14 15:40
14F:推 caity : 怎麽硬体需求越来越少,怕爆 03/14 15:41
15F:推 SuGK : 周末鬼故事开始了吗 03/14 15:41
16F:推 uv5566 : 丸子 03/14 15:41
17F:嘘 jeff0025 : 辉达是卖硬体耶 03/14 15:41
18F:推 VVizZ : 硬体需求少 那硬体推上去不会更强吗 03/14 15:42
19F:推 a0808996 : 矽谷都是精英软体工程师 靠硬体撑运算 能听吗 03/14 15:42
20F:→ caity : Google 搞软体又不搞硬体,为啥他要下去? 03/14 15:42
21F:嘘 sky777 : 推理本来就不需要什麽太高阶的卡 训练才需要 03/14 15:42
22F:推 tomdavis : 周末鬼故事来拉 搭配鸿海开营收 周一跌停能买吗? 03/14 15:42
23F:推 gn7722 : 越来越会掰 03/14 15:43
24F:推 tony15899 : 丸了 需求剩几百分之一 GG100收 03/14 15:43
25F:推 Toge : 用来用去还是 Grok 3 好用,又快又精准回答 03/14 15:43
26F:→ caity : 经济效应吧像是堆到多少再往上叠硬体效果增加变小 03/14 15:44
27F:推 mlda888 : 丸子 03/14 15:44
28F:推 deann : 谷哥更强 03/14 15:44
29F:→ idernest : 5090 50收 03/14 15:44
30F:推 a0808996 : 继续堆硬体 保证未来都收不回来 03/14 15:45
31F:嘘 stanleyplus : 下去吧 03/14 15:45
32F:→ Toge : 但还是期待有一天能在手机上离线运作 03/14 15:46
33F:推 centuryboy : 蒸馏再蒸馏 浓缩再浓缩 03/14 15:46
34F:推 jason0925 : 硬体AI 死去 edgeAI 蓬勃发展 03/14 15:46
35F:推 wemee : ok 明天辉达熔断 03/14 15:46
36F:推 jumilin927 : 变gg200了 03/14 15:46
37F:推 PureAnSimple: 蒸的丸子 块陶啊啊啊啊啊啊 陶之前别忘了空达 03/14 15:46
38F:→ PureAnSimple: 达 03/14 15:46
39F:推 AGODC : 就是准不准跟费用中间,去搞个平衡点 03/14 15:47
40F:→ bojan0701 : 硬体堆上去应更强,可是带来的效益? 03/14 15:47
41F:→ jinhouse123 : 阉割 再 阉割 03/14 15:48
42F:推 strlen : 一键出清 反手作空 AI泡沫 势在必行 03/14 15:49
43F:推 amazingwow : 原来只需要一个就可以了 03/14 15:49
44F:→ bojan0701 : 要再飙 必须有更多应用普及... 03/14 15:49
45F:→ FatFatQQ : 准备砍单 03/14 15:50
46F:→ bonaqabo : 我蒸馏你蒸馏我的蒸馏 03/14 15:50
47F:推 a0808996 : 中国靠更低的成本运行ai 你还在堆硬体 03/14 15:50
48F:推 s881720 : 老黄乖乖回去卖显卡吧 03/14 15:50
49F:推 pziix : 题材臭酸了 可以再端新颖的东西出来吗 03/14 15:50
50F:推 strong66 : 无需购买大量GPU晶片 就是最大利空 03/14 15:51
51F:推 Brioni : NV: 你不要再说了 03/14 15:51
52F:→ s860703 : 台股没破22000都是假议题 03/14 15:51
53F:→ a9564208 : 所以接下来是ASIC的回合? 03/14 15:51
54F:推 GivemeApen : 还不是要用asic gg根本没差 03/14 15:52
55F:→ summer08818 : NV: 你要采购少一点 那我每颗报价高一点不就好了 03/14 15:52
56F:嘘 yabaidesu : 每个都说自己最强 到底谁最强 03/14 15:52
57F:推 QooSnow : (请问)(如果你)(吃一个便当)(就8分饱,)( 03/14 15:52
58F:→ QooSnow : 你会)(同时买)(1万个)(便当吗?) 03/14 15:52
59F:→ jinhouse123 : AGI 有没有机会早点问世啊。 03/14 15:52
60F:推 qrose666 : 这会是Asic 利多吗? 03/14 15:52
61F:推 ssarc : 针对辉达优化? 03/14 15:52
62F:推 demon159000 : 啊所以玩家的显卡要大量生产了没? 03/14 15:52
63F:推 anyu0805 : 照这个道理苹果股价应该趴在地上了~ 03/14 15:52
64F:推 nasarood : 效能2.5倍价格两倍你还是得买。单价更便宜。 03/14 15:52
65F:推 ezreal1315 : 回调什麽鬼故事都有 03/14 15:52
66F:→ summer08818 : ASIC 问题在於你自己造车造轮子 会不会比较便宜阿XD 03/14 15:53
67F:嘘 ImHoluCan : 这昨天的新闻喔 03/14 15:53
69F:推 qwe78971 : 单晶片运作 一堆菜鸡扯训练要几个几个 到底懂不懂 03/14 15:54
70F:→ qwe78971 : 真得笑死 一群小丑 03/14 15:54
71F:→ jinhouse123 : 等RobotTaxi和家用Robot问世,再跟我说进到AI时代 03/14 15:54
72F:→ ImHoluCan : 还有腾讯昨天说买了多少Nvidia gpu 怎不说呢 03/14 15:54
73F:推 Brioni : ASIC没软体更新速度那麽快,但是NV卡今年这批出完後 03/14 15:55
74F:→ Brioni : 续拉货力道有待考验 03/14 15:55
75F:推 c928 : 大家一起来唬烂 03/14 15:56
76F:推 HiuAnOP : 1个H100是Ai那10个H100是不是就变爱因斯坦了! 03/14 15:56
77F:推 Lowpapa : 好了啦 03/14 15:58
78F:→ ohya111326 : 同一套剧本要用几次 有种不要买GPU 03/14 15:59
79F:→ rbelldandy : 不重要,能赚钱就好不可有人NV套在140以上吧 03/14 15:59
80F:推 PureAnSimple: 10个H100是AAAAAAAAAAi 03/14 15:59
81F:推 lpmybig : 老黄 单雕 03/14 16:00
83F:推 MrStone : 算力需求低为什麽以前写不出来AI 03/14 16:03
84F:推 kotorichan : AI都白菜价了 没差啦 03/14 16:03
85F:推 zerro7 : AI鬼故事平均一个月会出现一个 03/14 16:04
86F:推 Haerin520 : 完惹 操灰搭140还有救吗 03/14 16:04
87F:推 ganbee : 谁拢都可以,只要免钱我就用。 03/14 16:05
88F:推 jimmy12332 : 任何人都能去hugging face下载一个LLM来玩 03/14 16:06
89F:推 ymlin0331 : 呵呵 03/14 16:06
90F:推 flylife0527 : 少量晶片 美GG崩 03/14 16:07
91F:→ rbelldandy : 技术本来就会越来越进步,ai更是不是吗 03/14 16:09
92F:推 ccdrv : 到周末 鬼故事特别多 03/14 16:09
93F:推 syoritoo : 还在讲算力过剩的 不是坏就是骗了 03/14 16:11
94F:嘘 sean667cd : 算力跟记者智商一样 ,永远不嫌多 03/14 16:11
95F:→ tmdl : 笑死 03/14 16:11
96F:→ tmdl : 不是说人工智能会以几倍速成长 03/14 16:12
97F:推 noahlin : 有没有新梗啊 整天炒作这个不无聊吗 03/14 16:13
98F:→ noahlin : 难道GG一直扩厂是脑袋有问题吗 03/14 16:13
99F:推 zerro7 : AI没到顶之前哪来的算力过剩问题 难理解 03/14 16:13
100F:→ noahlin : 消费性趴在地上 GG扩厂只能是为了其他用途 03/14 16:14
101F:推 airawesu : AI聊天室在解决长期记忆健忘问题前 算力都是假议题 03/14 16:15
102F:推 a0808996 : 股价看的是复合成长 复合成长慢了 不就完了 03/14 16:16
103F:→ a0808996 : 需求+100% 明年变10% 03/14 16:17
104F:→ transfight : QQ完啦!!overbooking!! 03/14 16:17
105F:推 mutohchi : 笑鼠 03/14 16:17
106F:推 QooSnow : (直接)(看股价,)(就知道)(答案了!) 03/14 16:17
107F:推 carlos159357: 辉达是买铲子的,跟软体啥关系啦,你只能说铲子不用 03/14 16:17
108F:→ carlos159357: 买这麽多这麽好了 03/14 16:17
109F:→ transfight : QQ块陶啊啊啊啊啊啊啊啊啊啊啊啊啊! 03/14 16:17
110F:推 noahlin : GG都说CAGR未来五年20% 这还有被消费性拖累 纯ai一 03/14 16:17
111F:→ noahlin : 定超过这比例 至於这够不够高就看人了 人家扩厂几百 03/14 16:17
112F:→ noahlin : 亿镁不能乱投资的 03/14 16:17
113F:推 leefengynh : GG只要有人下定单 就会扩厂了 但订单可以撤掉XDDDDD 03/14 16:18
114F:→ a0808996 : GG有单 不代表NV有单阿 03/14 16:18
115F:→ a0808996 : 越来越多巨头 都要自制晶片了 03/14 16:18
116F:→ noahlin : 在打信用卡客服还要等真人到天荒地老的时候 ai饱和 03/14 16:19
117F:→ sdbb : 辉达要搞辉达宇宙 03/14 16:19
118F:→ noahlin : 还非常远 这是很基础也相对容易做的需求 03/14 16:19
119F:→ a0808996 : 大家都不想被 老黄绑架了 03/14 16:19
120F:→ leefengynh : 1个H100=1个毛利小五郎 10个H100也不会变柯南 03/14 16:19
121F:→ leefengynh : 因为AI会不会变聪明的关键 还是在演算法 03/14 16:20
122F:→ leefengynh : 错误的脑回路 不会因为回路运转比较快 就变正确 03/14 16:20
123F:→ a0808996 : 你算数学请再多人算 还是比不上一个创新的公式 03/14 16:21
124F:→ leefengynh : 1个h100=1个毛利小五郎 03/14 16:22
125F:→ leefengynh : 在同样演算法下 03/14 16:22
126F:推 josephpu : 其实ds问世後,那几间巨头对asic是有点放缓的 03/14 16:22
127F:→ leefengynh : 10个H100 就是 毛利小五郎用10倍的速度思考出一样错 03/14 16:23
128F:→ leefengynh : 误的推理 03/14 16:23
129F:→ leefengynh : 速度变快 但结果一样错 03/14 16:24
130F:→ leefengynh : 原本30秒可以得到错误的推理结果 现在3秒得到错误结 03/14 16:25
131F:→ leefengynh : 果 03/14 16:25
132F:推 freezee : 呵呵 运作 03/14 16:26
133F:推 panda816 : 吹过头了吧 03/14 16:28
134F:嘘 jerrychuang : 推理用4090也可以跑啊 03/14 16:28
135F:→ shorty5566 : 看这篇一堆文组N酸在大放厥词就觉得有趣 03/14 16:29
136F:推 leefengynh : 就已经说了 AI需求能不能上去 本质是AI好不好用 03/14 16:30
137F:→ leefengynh : AI够不够聪明决定了AI好不好用 03/14 16:30
138F:→ leefengynh : AI如果一直不好用 无法让大多数人产生依赖性使用 03/14 16:30
139F:推 saya2185 : 搞错了吧 应该是买越多赚越多才对 03/14 16:30
140F:→ leefengynh : 你卖铲子的需求能多大 XDDDD 03/14 16:31
141F:→ leefengynh : AI语言模型的订阅人口 连智慧手机使用人口的0.01%都 03/14 16:31
142F:→ leefengynh : 都不到 根本没多大市场 因为就是对多数人来讲不好用 03/14 16:32
143F:嘘 antiUSA : 效能过剩都是骗你各位韭菜啦 机器人是能帮你开车打 03/14 16:34
144F:→ antiUSA : 手枪了没? 03/14 16:34
145F:→ syk1104 : 今晚又要跌了吗?跌一根大的,接起来 03/14 16:34
146F:推 symeng : 提问:多数人不订阅AI,有没有可能是免费的AI已经足 03/14 16:34
147F:→ symeng : 够供其使用? 03/14 16:34
148F:推 leefengynh : 免费的都不好用 谁会愿意订阅XD 03/14 16:35
149F:推 ISNAKEI : 软体跟硬体有啥关系 03/14 16:36
150F:推 eric356 : 运行还是要一堆晶片 03/14 16:37
151F:推 symeng : 不好用的原因是准确度不够或机密资料不方便使用於各 03/14 16:37
152F:→ symeng : 家AI? 03/14 16:37
153F:→ leefengynh : 叫AI帮忙分析一家公司的多空消息 里面列出一堆资讯 03/14 16:37
154F:→ leefengynh : 自己还要去google确认他有没有讲错 其实难用得要死 03/14 16:37
155F:→ tctv2002 : 代表目前算力需求已满足大部分的人了 03/14 16:37
156F:→ leefengynh : 聊天打屁还行 要问专业或正经的事情一点都不可靠 03/14 16:38
157F:→ Arashi0731 : 你还是得用他们家的铲子,越多人进入AI对辉达越有利 03/14 16:38
158F:→ Arashi0731 : 好吗 03/14 16:38
159F:→ symeng : 感谢L大回答 03/14 16:38
160F:→ leefengynh : 你还要重复确认有没有错误 03/14 16:38
161F:→ leefengynh : 唯一有突破的大概就是翻译能力变很强而已 03/14 16:39
162F:→ kissboy1065 : 拜托今天骗杀100 NV让我捡 03/14 16:39
163F:→ leefengynh : yt上面的影音翻译 快用AI就对了 还在用传统弱智翻译 03/14 16:40
164F:→ leefengynh : 这样子可以看更多不同语言的影片 德语法语的YTber 03/14 16:40
165F:嘘 ntuee1803 : 又在写废文 03/14 16:41
166F:→ fan415 : 不会啊 如果ai有极限 到达极限只需要少量晶片 那根 03/14 16:41
167F:→ fan415 : 本销量就会大减 03/14 16:41
168F:→ nono5938 : 喷 03/14 16:41
169F:→ godchoice : 不错,但硬体强才能吃庞大市场 03/14 16:42
170F:推 eddy13 : 训练困难,但使用简单,是比较合适的发展方向,这 03/14 16:43
171F:→ eddy13 : 样愿意用的厂商才会多 03/14 16:43
172F:推 TWkobe5566 : 研发不用买卡吗 RD早就抢资源抢疯了 03/14 16:44
173F:嘘 funguy0202 : 谷歌都跌倒吐奶了 03/14 16:45
174F:嘘 cityhunter04: 还不是要晶片?有种设计都不用用的啊! 03/14 16:47
175F:→ shellback : 更聪明 应用更多 客户增加还是要多硬体来维持服务 03/14 16:48
176F:推 yulun1984 : 笑死 03/14 16:53
177F:→ c24253994 : 丸子 03/14 16:54
178F:→ tinybunny : 笑能过剩辣就创造需求鸭 03/14 16:55
179F:→ stkoso : 有一万张嘴要喂就得买一万个便当阿 03/14 16:56
180F:→ stkoso : 你只有一张嘴要喂应该先找找自己的问题 03/14 16:57
181F:→ catfixdog : 是非难断 惟有股价会反映最真实的情况 03/14 16:57
182F:推 xkso : 99 goog 已躺平 03/14 16:59
183F:嘘 a1252352 : 这麽划算班班有晶片啦 03/14 16:59
184F:→ Shermie : 笑死H100谁做的 03/14 16:59
185F:→ xkso : 等到不是用辉达的晶片再说 03/14 17:00
186F:推 yoyo1994yoyo: 这麽有信心估狗肯定都退货了吧嘻嘻 03/14 17:00
187F:推 jumpballfan : 哇 公公利空 03/14 17:01
188F:推 haworz : 不用H100,我们专用ASIC演算法屌打NV,然後量太少 03/14 17:02
189F:→ haworz : 下单成本更高。 03/14 17:02
190F:推 minaei : 这模型的参数量不大吧 03/14 17:12
191F:推 takeda3234 : 当然要蒸馏浓缩越来越小 03/14 17:20
192F:→ Yogin : 如果是这样,说真的科技也不用再进步了,就用黑金刚 03/14 17:24
193F:推 QooSnow : (废话一堆!)(看股价,)(最直接!) 03/14 17:24
194F:推 CCPenis : 硬体需求降低 崩崩 03/14 17:29
195F:→ moom50302 : 这个再傻傻被骗出去就自爱了…… 03/14 17:29
196F:推 hpk89 : 逻辑有问题,模型效率变高当然是用一样的硬体追求 03/14 17:35
197F:→ hpk89 : 更强大的Ai, 硬体需求怎麽会变少? 目前Ai只能说勉 03/14 17:35
198F:→ hpk89 : 强堪用,离好用甚至够用都还很远 03/14 17:35
199F:→ leviathen : 训练用多少出来讲讲 03/14 17:48
200F:推 saixpzooo : 看看那些买辉达的韭菜 03/14 17:52
201F:推 kkchen : 这样是不是可以节省大量的电力? 03/14 17:57
202F:推 c00jsw00 : 这个效能不好 qwq32b可能都比他好 03/14 18:00
203F:→ kimula01 : 最强没用啊 最後还是会回到军备竞赛比算力 03/14 18:09
204F:推 kkevinhess1t: 我怎麽看来看去是,训练完後还要买一颗离线运作 03/14 18:12
205F:→ ToastBen : 浓缩再浓缩 提炼再提炼 wwwwwwwwww 03/14 18:18
206F:推 aweara : 好猛喔 看好辉达继续往上 03/14 18:24
207F:→ aewul : 以後成熟制程就可以应付了 03/14 18:25
208F:嘘 visadanny : google什麽时候研发ggpu了 第一次听说软体打破硬体 03/14 18:31
209F:→ visadanny : 商垄断地位 03/14 18:31
210F:推 Lhmstu : 问号,不用训练吗 03/14 18:32
211F:推 ivanos : 台积 下看80 03/14 18:42
212F:推 PTTMAXQQ : 这世界ai的训练还需要持续 03/14 18:43
213F:→ PTTMAXQQ : 但问题已经没有新资料喂给AI 03/14 18:43
214F:→ PTTMAXQQ : 只能靠AI自行延伸运算推算 03/14 18:43
215F:→ PTTMAXQQ : 未来就看哪个AI能推算发明出改变世界格局的东西 03/14 18:43
216F:→ PTTMAXQQ : 不然在这之前运作真的不需要这麽多晶片 03/14 18:43
217F:嘘 newlie : GG比较惨吧 美积电本来毛利就会下降 然後量又降更惨 03/14 18:50
218F:→ la8day : 要确呢 我到现在还是觉得Gemini北七北七 03/14 18:57
219F:推 losage : 不是不需要,是目前的模型都太智障了。根本没有杀 03/14 19:00
220F:→ losage : 手级的模型啊 03/14 19:00
221F:→ losage : 我光是叫ds 或gpt 整理一周行情,都可以给我乱引用 03/14 19:00
222F:→ losage : 资料 03/14 19:00
223F:推 q09701023 : 效能过剩,那就是模型可以进步的空间还很大 03/14 19:14
224F:嘘 NEWinx : 用辉达晶片打破辉达垄断?这记者是不是逻辑有问题? 03/14 19:15
225F:→ xiaoyao : 记者好好笑 还是靠辉达晶片啊 03/14 19:17
226F:→ DrTech : 很多人不知道H100多少钱耶… 5万元吗? 03/14 19:20
227F:推 jboys75 : 不懂 用5090 就可以跑很顺了啊 要H100跑干嘛? 03/14 19:20
228F:→ DrTech : 光是一张H100成本就超高好吗 03/14 19:21
229F:推 joke3547 : 有开源吗? 03/14 19:23
230F:推 Dean997 : 老黄快飞来台湾救救台湾股民 03/14 19:28
231F:→ kinda : google ai studio试了一下gemma3 27b,又慢又烂 03/14 19:29
232F:→ kinda : gemini 2.0 还比较好用 03/14 19:29
233F:嘘 sustto : 喔是喔 用nv晶片大败nv晶片 文组就这逻辑 好惹啦 03/14 19:38
234F:嘘 naushtogo : 最好世界加强 03/14 20:00
235F:推 huntergirl14: 水喔,效能过剩,崩三年 03/14 20:39
236F:嘘 cityport : 印度人又在吹了,等着看裤子被冲到哪去 03/14 20:47
237F:嘘 ggyaining : 干这逻辑有问题 03/14 21:33
238F:推 japan428 : Google手机晶片的例子犹在,真有人信这篇吗 03/14 21:57
239F:嘘 hyperyoujo : 我先不论这篇新闻真假、也不论板友看不看好未来堆 03/14 22:26
240F:→ hyperyoujo : 硬体的效益,我只问一个基本逻辑问题:要打破一间 03/14 22:26
241F:→ hyperyoujo : 公司的垄断地位,需要的是很多间公司都能做出H100 03/14 22:26
242F:→ hyperyoujo : 、还是我只要用更少的H100就能达到一样的事情? 03/14 22:26
243F:→ hyperyoujo : 如果有科技人认真讨论这篇文组白痴写的新闻的,我 03/14 22:26
244F:→ hyperyoujo : 真的觉得很悲哀,很明显作者就搞不清楚什麽叫做「 03/14 22:26
245F:→ hyperyoujo : 垄断」 03/14 22:27
246F:推 LieTo : 可能要再多学一点...推理 跟 训练 不同... 03/14 23:11
247F:推 jerry20151 : 文组新闻 03/14 23:26
248F:嘘 idlewolf : 除非能少到让他产能过剩 不然还不是要用老黄 垄断没 03/14 23:37
249F:→ idlewolf : 打破阿 连定义都搞不清楚就在发稿 水准可悲 03/14 23:38
250F:嘘 a731977 : 这模型真的不怎样- - 03/15 01:41
251F:推 xm3u4vmp6 : 傻了吗 在开发出上帝等级全知大脑前 算力永远不够 03/15 06:49
252F:推 junior020486: 这种垃圾新闻看看就好了,一堆白痴当真 03/15 10:02
253F:→ junior020486: 你以为辉达跟台积电是白痴喔 03/15 10:02
254F:推 jei01 : 随着AI模型的进步,能做的事越来越多,什麽是过剩 03/15 12:34
255F:→ jei01 : ? 03/15 12:34