作者dansy (Eye Taiwan)
看板Stock
标题Re: [新闻] DeepSeek颠覆AI产业模式!曝中国2大发展
时间Sun Feb 2 22:35:43 2025
※ 引述《KIMBEOM (HYYY)》之铭言:
: 原文标题:DeepSeek颠覆AI产业模式!曝中国2大发展方向 ASIC成关键
: 原文连结:https://reurl.cc/qn2x9n
: 发布时间:2025/02/02 12:40
: 记者署名:壹苹新闻网 / 吕承哲
: 原文内容:
: 【记者吕承哲/台北报导】中国AI新创公司DeepSeek近期在科技界掀起热议,根据调研机
: 构TrendForce集邦科技的最新研究,DeepSeek近期接连发表DeepSeek-V3、DeepSeek-R1等
: AI模型,将影响终端客户对AI基础设施的投资决策。未来,业者可能更注重软体运算模型
: 的效率,以减少对GPU等昂贵硬体的依赖。同时,云端服务供应商(CSP)可能扩大使用自
: 家ASIC(特殊应用积体电路)基础设施,以降低建置成本。这使得2025年後,市场对GPU
: AI晶片及相关半导体的需求可能产生变化。
: 心得/评论:
: 看来ASIC就是未来趋势 IC设计准备喷喷
: 明天加码世芯 创意 M31
LLM经过这三年发展已展现其潜力,但也陷入(公开)知识枯竭造成的瓶颈
网路爬虫能抓的都已训练完
AI模型如还需增加功力,只能望向各家机构(公司)的商业秘密
比如DS团队使用低阶语言PTX来增加GPU计算效率
此部分的知识储备,据说来自母公司幻化量方过往最佳化量化交易模型的经验
拿 Python/C/组语/机器语言 来比喻就更明了
过往程式语言往高阶发展,是因为有着训练人才普及的需求
毕竟组语难学,机器语言就别提了
所以在一个python程式满天飞的时代,能用C重写效率优势就惊人,更不用说使用组语
GPU这块也是,现在很少有CUDA的使用者会去写PTX
所以关於"PTX最佳化"公开的知识并不多
但很可能DS团队已经成功将幻化量方PTX经验转换为大模型
然後用在设计下一代大模型的架构上
简单说就是掌握独家的低阶语言知识,教给AI,然後再"手动迭代"
不断产生更高效率的低阶AI码农
当然OpenAI内部也有可能拥有类似知识,但效率较低
所以基本可以推论,未来谁越能掌握压榨硬体的知识,就能持续拉开效率差距
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.41.64.92 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738506945.A.C3E.html
1F:推 arthur52 : 可以避开使用CUDA,NV就不再独大 02/02 22:39
2F:推 Rattlesnake : 快买a股 02/02 22:44
3F:推 bj45566 : 现今的 compiler 最佳化技术太强大,在很多系统上写 02/02 22:44
4F:→ bj45566 : C 语言执行效率未必会输给写组合语言 02/02 22:44
简单程式可能效率相当,但稍微复杂点,人力就很难分析验证整个流程
加上组语/机器语言可以控制更底层的元件,特定情况下会存在更高效率方法
5F:推 jacknavarra : 推 02/02 22:44
6F:推 psee : PTX是CUDA到机械码之间的中介码 不可能绕开 02/02 22:45
7F:→ goodjop : 真的快笑死 都是NV的东西 要怎麽避? PTT水准的是... 02/02 22:47
8F:推 hpk89 : 存疑,低阶语言很有效率没错,但系统大到一定程度 02/02 22:47
9F:→ hpk89 : 後很难维护/除错,你用机器语言写的出windows 11? 02/02 22:47
10F:→ hpk89 : 我个人觉得不可能,ds若真的效率比其他model好, 02/02 22:47
11F:→ hpk89 : 应该是算法有进化,不会是用低阶语言写导致的 02/02 22:47
拿Windows来比太夸张,或许再过30年有机会吧
事实上现有LLM的架构很单纯,一张图就能表示清楚
只是运算的数量级巨大无比,所以特别适合追求极端的最佳化
12F:推 duriamon : 架构才是重点 02/02 22:49
13F:推 haunt11 : 专业推 02/02 22:49
※ 编辑: dansy (114.41.64.92 台湾), 02/02/2025 22:59:53
14F:推 AudiA4Avant : 我记得是用ptx绕过nvlink的限制,但换不同型号就要 02/02 22:52
15F:→ AudiA4Avant : 重写 02/02 22:52
16F:推 jiansu : 最佳化不是全部底层优化 是瓶颈用底层加速 会用pt 02/02 22:52
17F:→ jiansu : x 表示掌握底层 换别的硬体架构也只是需要时间而已 02/02 22:52
18F:→ jiansu : cuda ptx不是重点了 是他有离开nv生态圈的能力 另 02/02 22:52
19F:→ jiansu : 外不要只关注DeepSeek 模型OpenAI 新模型出来了 用 02/02 22:52
20F:→ jiansu : 户使用成本也变低了 整个ai用户成本降价时代来临 02/02 22:52
21F:推 AdamHuangNew: 不懂装懂 02/02 22:53
22F:推 jacknavarra : 并不是说DS已完全脱离CUDA 但有机会突破护城河 02/02 22:53
23F:→ jacknavarra : 他开源给大家摸索, 未来会怎麽发展起来都不好说 02/02 22:54
24F:→ goodjop : 等有办法不用NV的产品 做出一样的东西再说 02/02 22:55
25F:推 bj45566 : (纯讨论程式语言)回楼上:其实在桌电、笔电这种或以 02/02 22:57
26F:→ bj45566 : 上复杂的环境,人们投入很多精力在改良 C/C++ compi 02/02 22:57
27F:→ bj45566 : ler,所以用 C/C++ 就很够了(Windows 11 是用 C++ 02/02 22:57
28F:→ bj45566 : 写的, Linux 是用 C 写的) -- 最多就是在少数特定 02/02 22:57
29F:→ bj45566 : 地方夹进一段组合语言 02/02 22:57
30F:→ kensmile : 使用中阶GPU,就能产出高效 02/02 22:58
31F:→ kensmile : 这点就是优势 02/02 22:58
32F:→ goodjop : 我知道你的意思 连AMD都没办法克服效能衰退问题 02/02 22:59
33F:→ goodjop : 中国能? AMD还有微软出钱出人 02/02 23:00
34F:推 bj45566 : 有人应该蛮误解原 po 的意思 wwww 02/02 23:01
35F:→ goodjop : 用NV低阶程式语言做出 较不稳定的ANI要怎麽绕过NV? 02/02 23:04
36F:→ goodjop : 你解释看看 我哪里误解? 02/02 23:04
37F:→ kensmile : 架构的极致优化和算力需求的精简,就是Ai的精髓 02/02 23:04
38F:→ kensmile : DS做到了 02/02 23:04
39F:→ kensmile : 让业界广泛使用 02/02 23:06
40F:→ b9513227 : 门外汉以为写程式是电影敲键盘乱按喔 02/02 23:06
41F:→ kensmile : 事实上也是争相采用 02/02 23:06
42F:推 bj45566 : AMD 在做的事和 DS 在做的事情又不一样 =.= 02/02 23:07
43F:→ kensmile : 台湾软体界的看法,褒贬不一,但台湾自己搞不出来 02/02 23:07
44F:→ goodjop : 我只是举例AMD+微软都无法取代NV的意思 02/02 23:09
45F:→ goodjop : 除非 AMD+微软做出自己的平台 02/02 23:10
46F:→ kensmile : openAi准确率也不是100%,DS准确率较低,只要继续优 02/02 23:11
47F:→ kensmile : 化 02/02 23:11
48F:推 bj45566 : 微软在做的事和 DS 在做的事又不一样 =.= 02/02 23:12
49F:→ kensmile : 拉高准确率,小而美就是市场主流 02/02 23:12
50F:→ bj45566 : 微软自己没什麽在搞 LLM 02/02 23:13
51F:→ goodjop : 你自己去找资料吧 02/02 23:15
52F:推 bj45566 : 微软主要合作的 LLM 公司都是用 NV 的硬体架构,含 02/02 23:16
53F:→ bj45566 : NVLink 和 NV 认证的 HBM 02/02 23:16
54F:→ bj45566 : 微软和 NV 根本不是竞争对手的关系 02/02 23:16
55F:推 neo5277 : 楼上正解 微软大概只能算算力掮客 02/02 23:21
56F:→ bnn : PTX优化是其中一项 但DS还做了其他事情 两件以上 02/02 23:22
57F:推 Virness : 一楼完全误解 PTX只是自己写cuda 02/02 23:23
58F:推 slothman : 不是都是NV架构吗 要拿什麽绕 你当撑竿跳喔 02/02 23:48
59F:→ followwar : 傻眼..PTX是NV跨架构的胶水语言哪有啥绕过NV== 02/02 23:53
60F:推 ilovebig99 : 难怪open AI会说自己站错边,开源真的很猛 02/03 00:31
61F:推 Brioni : 不是绕过,而是研究NV架构比其他家透彻 02/03 01:11
62F:→ Brioni : 从开发框架到主要架构都有一定掌握 02/03 01:12
63F:推 ndilavril : 现在怕的是万一用低阶GPU就可以达到OPEN AI 02/03 03:04
64F:→ ndilavril : 高阶显卡会有卖不掉的疑虑 02/03 03:04
65F:嘘 bhmagic : 叠带 习大大你字打错了 02/03 06:06
66F:嘘 mdkn35 : 迭代吧? 楼上是习大大的秘书? 02/03 07:43
67F:推 guanting886 : 这个就跟某些厂商拼时间魔改java把某些拿掉执行速 02/03 08:27
68F:→ guanting886 : 度一样 但後面新的语言足以做到ex: Rust 公司团队 02/03 08:27
69F:→ guanting886 : 就重新改写切过去了 不可能再折磨自己用魔改版本维 02/03 08:27
70F:→ guanting886 : 护系统 02/03 08:27
71F:→ guanting886 : 用PTX写这些东西 不要CUDA自己干涉 由自己决定所有 02/03 08:29
72F:→ guanting886 : 事 这个要考虑团队经营跟当时时空的环境有什麽条件 02/03 08:29
73F:→ guanting886 : 你往更低阶的写所有条件会更难维护或非常考验的开 02/03 08:31
74F:→ guanting886 : 发团队的经验 但真的会变得更窄 02/03 08:31
75F:→ guanting886 : 团队成员拿翘你就知道问题会变成什麽样 02/03 08:31
76F:→ guanting886 : 我相信r1能如此成 PTX不会是最大功劳 02/03 08:33