作者squelch (小迷糊)
看板Stock
标题Re: R: [请益] 为什麽中国越来越强?
时间Sat Feb 1 10:50:33 2025
※ 引述《afflic (afflic)》之铭言:
: 给一些觉得中国很烂的人看看市场现在在担心些什麽
: 舰长J快讯 重要的突破要多写一次
: 2025/1/31
: 总之,这几天是一次很烧脑的过年假期,感觉比平常还要认真研读资料,甚至大年初一晚
: 上还有大陆券商办专家论坛..... 这个市场实在太卷。
: 当然,花了这些精神做功课,就是要研究一下开年後的投资动作,究竟是新春大特卖赶快
: 捡便宜、还是苗头不太对脚底要抹油?很遗憾的,这几天研究下来,个人目前对硬体的看
: 法越来越偏向後者,但相关的AI应用却可能加速发展。
: DS的论文重点以及它在演算法上的突破,网路上已经有很多人分享,我就不再赘述;直接
: 讲几个观察到的重点吧~
: 1. 还记得Apple为了推销Apple Intelligence,将iPhone 全面升级到8GB以上吗?这仅仅
: 是为了跑一个3B 参数的小模型而已。 现在,有人成功用一张 Nvidia RTX 6000 (48GB V
: RAM) 就可以跑动 DS 671bn 参数的大模型,而且这个模型还开源可以直接下载。
: 这代表什麽意思?以後企业或个人要布建AI,可能买一台具有高阶显卡的电脑就做的到。
: 不用每个月花200USD订阅OpenAI、不用CSP租赁昂贵的AI server & 网路..... 在地端
布
: 署AI 变得简单&便宜许多。这两天已经有看到朋友的公司开始研究把AI模型的布建转
为
: 在地端执行的可能性。
: 2 各大厂纷纷投入:短短几天,可以看到微软、AWS、NVIDIA 都开始提供DS R1 模型的服
: 务。由於对硬体的要求的确不高,百万token 输出的价格只要2.19美元(作为对比: Ope
: nAI的输出价格爲60美元/百万Token),价差接近30倍。
: NVIDIA 官方也有描述:在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理
: 速度可达3,872 Token/秒。仅需一个系统就可以完整运作DS R1 大模型。就算企业依然需
: 要利用云端来布建AI,需要的系统&价格也比之前简化许多。
: 3 NV关键优势不再? 这两年来,我们持续提到NV产品在大模型与高运算力方面的优势,
: 包括记忆体的使用、NVlink多卡串联、Scale-up/out 的领先等等;在探讨下一代Rubin或
: 更後面的产品,讨论的是一个机柜做到NVL 144/288 、如何处理这麽大功耗的产品、系统
: 架构该如何演进等等;重点不仅仅是“教主产品做的比别人好”,而是“不用教主的产品
: 就根本无法训练&使用这些大的模型”。
: 忽然间,这个必要性被打了一个大问号。
: 进而延伸的问题:HBM、CoWoS等等原本为了在空间体积功耗等等限制下塞进最多算力的技
: 术,是不是仍然必要?还是有许多便宜的替代品可以用?
: BTW,很多人喜欢把政治问题扯进来。对我来说,探讨DS本身到底用了多少卡有意义吗?
: 没有,重点是现在实际布署R1的硬体需求就是极低;其次,它有没有抄OpenAI? 应该有吧
: ~ 不过OpenAI 的 GPTBoT 在网路上不顾版权的到处乱抓资料也不是一两天的事情了~
: 抓完还不开源勒。对投资而言,整个市场结构的变化,比这些枝微末节的小事重要多了。
: 投资总有风险,本人过去绩效不做未来获利之保证。最近诈骗猖獗,本人不收会员、不
用
: 追踪、不骗流量、不需粉丝、更不必按赞分享开启小铃铛。快讯仅供好友交流之用,如果
: 你与我看法不同,你肯定是对的千万不要被我影响。
要分两个部份来说
一个是
训练出模型
一个是
使用模型
1.训练出模型这件事,
模型资料库的资料量可以预期的,
所消耗的算力也可以预期。
所以你买过多的算力是成本浪费,
产品成本上升,竞争力下降。
不是算力越多越好,这都是要花钱的。
自然会影响到GPU的销量,
竞争者也会趁机想办法拉近跟Nvidia 之间的距离
2.模型运作
实际上就只看卡的平行处理空间大小,
这个通常跟GPU上RAM成正比关系。
也不一定要Nvidia 的卡,
只要有配套的驱动程式你用ASIC做的也行。
大部分使用场景跟
GPU平行运算速度没有很强烈的挂勾。
所以可以用在嵌入式装置上面,
那硬体选择就多了很多了。
Nvidia是靠高阶硬体赚钱,低阶的他没有竞争力。
所以他赚不到这一块。
简单来说,
当你无法一家独大,就需要面对竞争,
这时你的获利空间就会被压缩,
这是必然的结果。
-----
Sent from MeowPtt on my V2319
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 49.216.190.93 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738378235.A.5D5.html
1F:→ SRNOB : 超爽的 每周50次哪够用 还没有中间级距 CloseAi 02/01 11:11
2F:→ jerrylin : 训练出的模型能不能用才重要 02/01 11:36
3F:→ jerrylin : chatGPT刚推出没多久就被玩坏了 02/01 11:37
4F:推 jerrylin : 要到够好 有人愿意付费使用 这才会算成功 02/01 11:40
5F:→ jerrylin : 不然只是垃圾制造机 02/01 11:40
6F:→ jerrylin : 现在中国丢开源软体出来的意思很简单 02/01 11:41
7F:→ jerrylin : 希望免费版本有人帮他们做修改 02/01 11:41
8F:→ jerrylin : 跟以前的安卓还有unix系统一样 02/01 11:41
9F:推 godog : 天才AI大臣会修改吗? 02/01 11:42
10F:→ j0588 : 美国媒体报导openai正在思考将chatgpt改成开源模式 02/01 11:55
11F:→ j0588 : ,好戏真的一出接一出欸 02/01 11:55
12F:推 CaTkinGG : 开源让全世界帮他改良 实现软体民主化 02/01 11:57
13F:推 newgo1776 : Linux开源了几十年你还不是用windows? 02/01 12:07
14F:→ squelch : 我上班环境都Linux喔 02/01 12:09
15F:→ squelch : 伺服器是FreeBSD 02/01 12:09
16F:推 newgo1776 : 嗯,所以呢?Linux使用人口占Windows几% 02/01 12:12
17F:→ newgo1776 : 就算是当年当到要死的Win95大家还是宁愿重开机,不 02/01 12:15
18F:→ newgo1776 : 是重灌Linux 02/01 12:15
19F:→ CCH2022 : 应该说希望开源大家集思广益激荡出不同火花,这是 02/01 12:18
20F:→ CCH2022 : 钻研技术热衷者的初衷。但拿到商业上来说每个人又 02/01 12:18
21F:→ CCH2022 : 是不同想法。可以垄断拿来赚钱的东西一定是越少人 02/01 12:18
22F:→ CCH2022 : 有赚越多。 02/01 12:18
23F:→ CCH2022 : 现在就像是当初安卓一样各家都有各自OS平台,低阶 02/01 12:18
24F:→ CCH2022 : 手机可以用,高阶手机可以用,普及率高,硬体就是 02/01 12:18
25F:→ CCH2022 : 扩大需求。 02/01 12:18
26F:推 k1k1832002 : 现在还有LPU之类的专门做推论不做训练 02/01 12:36
27F:→ Mytsb2421 : 高阶算力需求降低,企业需求大爆发,爽到其他周边 02/01 12:37
28F:→ Mytsb2421 : 设备厂商。市场不再是NVDA、GG&海力士独享了。 02/01 12:37
29F:推 duriamon : 嘴linux的是不知道伺服器、崁入式系统、手机全部都 02/01 12:41
30F:→ duriamon : 是linux吗?无知的人真的是...笑死! 02/01 12:41
31F:嘘 cityhunter04: Open有免费的好嘛…还在200块? 02/01 13:53
32F:推 newgo1776 : 呵呵,全部都Linux的言论都出来,等下大概连Windows 02/01 14:00
33F:→ newgo1776 : 内部都是Linux的言论也会出来了 02/01 14:00
34F:嘘 PureAnSimple: 空了吗?卖了吗?没单在那边讲一堆 还判断错误真好 02/01 14:29
35F:→ PureAnSimple: 笑 02/01 14:29