作者LDPC (Channel Coding)
看板Stock
标题Re: [新闻] OpenAI执行长:DeepSeek令人惊艳 但关键
时间Tue Jan 28 15:24:11 2025
就是算力才是绝对 (新闻用运算这词可能不太好懂)
https://x.com/karpathy/status/1883941452738355376
吃瓜可以看下面翻译
https://x.com/op7418/status/1884065603184681162
无穷算力->无穷智能 这就是OpenAI和Andrej Karpathy, Jim Fan甚至认为
高算力模型可以训练更强大模型 不要忽视scale
像之前有人在怀疑v3有用到gpt合成数据 Andrej论点是 你要合成高品质数据 也是要算力
这又跟老黄提到高品质render ->算力
好了QQ 不要再跌了 我已经在看youtube学习如何炸薯条了
※ 引述《rayisgreat (在过往中无尽徘徊)》之铭言:
: 原文标题:
: OpenAI执行长:DeepSeek令人惊艳 但关键在运算
: 原文连结:
: https://www.cna.com.tw/news/aopl/202501280099.aspx
: 发布时间:
: 中央社 2025/1/28 13:29(1/28 13:48 更新)
: 记者署名:
: 曾依璇/李佩珊
: 原文内容:
: (中央社旧金山27日综合外电报导)人工智慧(AI)公司OpenAI执行长阿特曼今天说,中
: 国新创公司「深度求索」(DeepSeek)的R1模型「令人印象深刻」,但OpenAI认为更强大
: 的运算能力是OpenAI成功的关键。
: 路透社报导,成本低廉的中国AI模型DeepSeek上月开始吸引全球目光,当时这家公司在论
: 文中表示,使用较低性能的辉达(Nvidia)H800晶片训练其DeepSeek-V3模型,只花费不
: 到600万美元。
: 根据DeepSeek官方微信帐号贴文,上周推出的DeepSeek-R1模型比OpenAI的o1模型便宜20
: 倍到50倍,依任务内容而有不同。
: 阿特曼(Sam Altman)在社群平台X写道:「DeepSeek的R1模型令人印象深刻,尤其是以
: 这个价格所能实现(的结果)。」
: 他还说:「但我们主要是很高兴能继续执行我们的研究蓝图,并认为要成功完成任务,现
: 在比以往都更重要的是更多运算。」(译者:曾依璇/核稿:李佩珊)1140128
: 心得/评论:
: https://imgur.com/iSz2Nr0
: OpenAI 执行长 Sam Altman
: 今日也对近来兴起的中国 DeepSeek 发表了回应
: 台股美股会继续往下or往上回弹?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 76.21.72.78 (美国)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738049054.A.EBC.html
1F:推 nanako81240 : 铲子很重要阿 但人家用汤匙挖得跟你铲子一样多 01/28 15:25
=_= 你没搞懂 没那些gpt4o存在(用高算力产生) 你v3训练用的数据集可能都产不出
※ 编辑: LDPC (76.21.72.78 美国), 01/28/2025 15:25:31
※ 编辑: LDPC (76.21.72.78 美国), 01/28/2025 15:26:24
2F:→ nanako81240 : 美国被发现只会拼命买铲子 01/28 15:26
3F:→ losage : 问题是汤匙也是老黄造的,这场暴跌他最冤好吗 01/28 15:27
4F:推 jise51103 : 蒜粒是啥 01/28 15:27
5F:推 metallolly : 我已经在研究职训局水电班怎麽报名了 01/28 15:29
6F:→ NCKUFatPork : 基本上就是没人挖石油 你要怎麽精炼加工 01/28 15:29
7F:推 colapola : 老黄真的跌的莫名其妙 01/28 15:29
8F:→ NCKUFatPork : Deepseek只是精练而已 底层还是大模型还是尻别人的 01/28 15:29
9F:推 s213092921 : 你有算力,我有蒜粒 01/28 15:30
10F:→ opticalman : 中国学chatgpt成就DS,DS被分析完,还不是要靠算力 01/28 15:30
11F:→ opticalman : 成就另一个里程盃......总结:AI 更进化需演算法+ 01/28 15:30
12F:→ opticalman : 算力 01/28 15:30
13F:推 create8 : 干,我要去少林寺学料理了 01/28 15:31
14F:推 x2159679 : deepseek的底层大模型好像还是用openai的...... 01/28 15:31
15F:推 opticalman : 对阿,就演算法抄来,然后再进化 01/28 15:32
16F:推 gk1329 : 自然界可以参考鸭 01/28 15:33
17F:→ poru : NV都开释了!只是市场还在恐慌 01/28 15:33
18F:→ gk1329 : 人脑不是自然界最大的 但算法是最好的 01/28 15:33
19F:→ gk1329 : 现代人类脑容量还比古代少的多 01/28 15:34
21F:推 super0949 : 确实 好的铲子才能铲出好的薯条 01/28 15:34
22F:→ gk1329 : 光推算力 大概就跟一个国家人口一直增加 难道就会进 01/28 15:35
23F:→ gk1329 : 步吗 01/28 15:35
25F:→ Hina : 老黄暴跌冤 ?? 因为事实就证明不需要这麽高阶的 01/28 15:36
26F:推 anachronism : 算力是後天努力 01/28 15:37
27F:→ anachronism : 模型是先天基因 01/28 15:37
28F:→ Hina : 你现在问老美几大AI 看还会想买高阶的吗 01/28 15:37
29F:→ Hina : 生意人最重要的一件事 成本 这是永远不变的 01/28 15:37
30F:→ Hina : 花越少的钱 赚越多的钱 这就是生意人 01/28 15:38
31F:推 ejnfu : 你等之後财报周看软体巨头有没有下调资源支出就知道 01/28 15:38
32F:→ ejnfu : 了 01/28 15:38
33F:推 x2159679 : AI模型现在根本还没到赚钱阶段吧 01/28 15:38
34F:→ x2159679 : AI会被吹那麽大是因为还做一个梦,这个梦还没实现 01/28 15:39
35F:推 tom77588 : 工欲善其事 必先利其器,硬体还是最重要 01/28 15:39
36F:→ x2159679 : AI现在这些东西都只是在做梦过程中的副产物而已 01/28 15:40
37F:→ x2159679 : 倒不如说如果美国真的更重视和中国的军备竞赛反而会 01/28 15:41
38F:→ x2159679 : 投入更多资源 01/28 15:41
39F:→ LouisWOLF : 把年菜退一退,吃泡面了 01/28 15:43
40F:→ s860703 : 晚上就涨回去了 01/28 15:46
41F:→ deathoflove : 会啊 当然继续买高阶 抄不出来是人的问题 01/28 15:46
42F:推 strlen : 这边大概多数人没做过生意吧?我做一个产品花了一年 01/28 15:51
43F:推 HenryLin123 : 铲子就是挖薯条啊 01/28 15:51
44F:→ strlen : 时间一百万成本 然後制造一个1000元 推出後被对手拿 01/28 15:52
45F:→ strlen : 去研究改造他只花一个月十万元 做一个只要100元 01/28 15:52
46F:→ strlen : 拓荒者当然花比较多钱不是吗?DS公布的600万训练成 01/28 15:52
47F:→ strlen : 本也是单独算V3 r1没公布 前期研发试误跟设备成本 01/28 15:53
48F:→ strlen : 也完全没公布 大家可以思考一下 这些通通都也是可以 01/28 15:53
49F:→ strlen : 公布的 为什麽DS只选择公布V3训练成本 01/28 15:54
50F:→ strlen : 如果真的要证明我可以降本增效 应该是全都公布吧? 01/28 15:54
51F:→ strlen : 然後呢 中国政府还加码一兆元投资AI 为何要加码? 01/28 15:55
52F:推 ohlong : 有人分析r1 是post training 这样就合理了 基础结 01/28 15:55
53F:→ ohlong : 构一样之下pre training 算力一样得消耗那麽多 讲 01/28 15:55
54F:→ ohlong : 白就浓缩鸡汤块卖你比较便宜不是正常的事 01/28 15:55
55F:→ strlen : 照很多人说算力过剩 现在不是应该减码吗.....? 01/28 15:55
56F:推 ohlong : 看到现在觉得根本不足以影响长期需求 反而是要看川 01/28 16:01
57F:→ ohlong : 普那个疯子到底要搞啥毛 01/28 16:01
58F:推 walelile : NV B系列重点也摆在推论上,宣传比上代快15x 01/28 16:01
59F:推 LADKUO56 : Deepseek八成是抄的吧 怎麽看就华西街要出货 01/28 16:02
60F:推 NexusPrime : 如果DS是拿现有的模型再加以改进训练,那低成本是 01/28 16:03
61F:→ NexusPrime : 合理的,跟从无到有完全不能比 01/28 16:03
62F:推 amazingwow : 铲子还是需要 越堆越多就对了 01/28 16:05
63F:→ finhisky : 机构出货会搭配新闻 一边崩一边出吗? 01/28 16:08
64F:推 JaccWu : 搞不好也在跌阿川想要加关税的事啊 01/28 16:11
65F:→ JaccWu : 加关税成本or税金增加 晶片价格上升 但毛利没增加 01/28 16:12
66F:推 deathoflove : 大国博弈、巨头间的赛局拿来跟巷口小吃摊类比 ㄏ 01/28 16:19
67F:推 a187 : 会翻汉堡了吗 01/28 16:19
68F:推 walelile : 人类炸的薯条有比机器好吃吗? 成本有比机器便宜吗? 01/28 16:23
69F:推 AirLee : 那很好啊不用花钱买nv的卡 01/28 16:26
70F:推 a0808996 : OpenAI只想卖鼎泰丰 但是ds只是卖幸福餐盒 01/28 16:27
71F:→ a0808996 : 但是普罗大众 都偏向买幸福餐盒 只能说客群不同ㄅ 01/28 16:28
72F:→ a0808996 : 我觉得在探讨的是变现率 幸福餐盒能获利 01/28 16:29
73F:→ a0808996 : 但是鼎泰丰 要赔钱经营 01/28 16:29
74F:→ walelile : OpenAI问题是o1订价太高,4o mini比DS V3 API便宜 01/28 16:30
75F:→ walelile : o1定价高一方面可以减少挤压到人类的工作 01/28 16:32
76F:推 a0808996 : ds能靠免费 提高普及率 再出一个高阶版的给人订阅 01/28 16:33
77F:→ walelile : 以DS免费放model+低价,中国会有一票人干不过AI 01/28 16:33
78F:→ walelile : 低阶码农估计能砍一半以上,翻译砍一半,美工砍一半 01/28 16:34
79F:推 a0808996 : 成本够便宜出一个免费的 让你看广告也能获利 01/28 16:35
80F:→ a0808996 : 其他人还要打吗 01/28 16:35
81F:→ walelile : 他都免费放出来了,别人可以直接拿来用 01/28 16:37
82F:→ walelile : OpenAI今天遇到的问题,就是明天DS的问题 01/28 16:37
83F:→ walelile : 中国还要处理接下来更严重的失业问题 01/28 16:37
84F:→ walelile : 今天DS省下前段model的成本,别人省整个model的成本 01/28 16:39
85F:→ walelile : 一样开API, 别人可以在杀50%价格 01/28 16:40
86F:推 a0808996 : 开源的好处就是大家 一起优化阿 01/28 16:40
87F:→ a0808996 : 不能说 没受益阿 01/28 16:40
88F:→ walelile : 我是不信有那麽多厂商要找人优化 01/28 16:41
89F:→ walelile : 光是他现在放出来的版本就够强了, 买卡内卷一定发生 01/28 16:41
90F:→ IBIZA : 训练数据集不是用其他AI产生 01/28 16:44
91F:推 a0808996 : 你这样说 那ds干嘛要开源 真的佛心来做功德的吗 01/28 16:46
92F:→ IBIZA : 训练数据集主要是来自各种爬虫专案, 还有各种专业 01/28 16:46
93F:推 grayeric : 薯条都没了 日子怎过 01/28 16:47
94F:→ a0808996 : 就是有好处 才会开源 01/28 16:47
95F:→ IBIZA : 或非专业的电子书库、百科全书 01/28 16:47
96F:→ IBIZA : 之前V2版时公布的数据集概略资料是说60%程式码10%数 01/28 16:49
97F:→ IBIZA : 学30%自然语言文本 01/28 16:49
98F:→ IBIZA : 程式码的部分来自GitHub跟The Stack Flow 01/28 16:49
99F:→ IBIZA : 程式码的部分来自GitHub跟The Stack Overflow 01/28 16:50
100F:推 KISS1979 : 台湾又嬴麻了 01/28 16:50
101F:→ invidia : 先准备纸箱去公园占位ㄅ 01/28 16:57
102F:推 qweaaazzz : 推推推 01/28 16:59
103F:→ qweaaazzz : 今天寒流来 公园好冷 01/28 16:59
105F:推 cablate : 呆湾傻蛙还在臭人家只会卖铲子,你知道多少应用因 01/28 18:07
106F:→ cablate : 为这些铲子被开发出来改善生活吗== 这就是AI的未来 01/28 18:07
107F:→ cablate : ,未来就是完全取代所有电子数据层面的应用,谁没 01/28 18:07
108F:→ cablate : 有AI就输 01/28 18:07
109F:推 cablate : ds才不是免费餐盒,他只是口粮饼乾,现在大厂免费 01/28 18:09
110F:→ cablate : 开放的模型才是免费餐盒的等级,ds成也成本,最终 01/28 18:09
111F:→ cablate : 很高机率也是败在成本(算力) 01/28 18:09
112F:推 cablate : 算力过剩问题只是在於目前疯狂堆叠算力看起来没有 01/28 18:13
113F:→ cablate : 那麽划世代的亮眼成绩,对很多人来说4o甚至4omini 01/28 18:13
114F:→ cablate : 就足以解决生活或工作上多数问题,而各个专业领域 01/28 18:13
115F:→ cablate : 也有各种开源/便宜模型可以使用,相较之下狂堆算力 01/28 18:13
116F:→ cablate : 的o1或o3并没有真正做到像gpt3与4的那种剧烈差异。 01/28 18:13
117F:→ cablate : 顺带一提,开源本来就是这个圈子的文化,开源是有 01/28 18:14
118F:→ cablate : 很多好处的,ds的问题很明显,他们需要尽快竖立一 01/28 18:14
119F:→ cablate : 个有影响力的IP,开源就是一个很好的方式。 01/28 18:14
120F:推 sean667cd : 推 LD大,昨天疯狂捡钻石! JoJo的不灭钻石! 01/28 18:23
121F:→ sean667cd : 喔拉喔拉喔拉喔拉喔拉喔拉! 01/28 18:23
122F:→ huabandd : 算力永远不会嫌多啦 01/28 19:38
123F:→ huabandd : 你可以用不到,但厂商不能给不起 01/28 19:39
124F:推 stosto : 你用nn不去堆node最好模型够强…. 01/28 20:32
125F:推 horb : 本来就不嫌多了。现在Ai连比大小都不一定每次都对了 01/29 21:14