作者Lushen (pttlushen)
看板Stock
标题Re: [新闻] OpenAI:已掌握DeepSeek盗用模型证据
时间Thu Jan 30 08:59:21 2025
OpenAPI 的 Chief Research Officer (首席研究员)
Mark Chen 2025/01/29 凌晨发了一波推文评价 Deepseek R1 的论文
https://i.imgur.com/A73X07x.png
https://i.imgur.com/rjDczVH.png
恭喜 DeepSeek 产出了一个 o1 级别的推理模型!他们的研究论文显示,他们独立发现了
一些我们在通往 o1 道路上所找到的核心理念。
不过,我认为外界的反应有些过度,特别是在成本相关的叙事上。拥有两种范式(预训练
和推理)的一个重要影响是,我们可以在两个轴向上最佳化能力,而不是只有一个,这将
带来更低的成本。
但这也意味着我们有两个可以扩展的轴向,而我们计划在这两个方向上都积极投入算力!
随着蒸馏(distillation)技术的成熟,我们也看到降低成本和提升能力这两者之间的关
系越来越解耦。能够以更低的成本提供服务(尤其是在较高延迟的情况下),并不代表能
够产生更强的能力。
我们将持续改进模型的低成本部署能力,但我们仍对研究路线保持乐观,并将专注於执行
计划。我们很兴奋能在本季度及今年内推出更优秀的模型!
Congrats to DeepSeek on producing an o1-level reasoning model! Their research
paper demonstrates that they’ve independently found some of the core ideas
that we did on our way to o1.
However, I think the external response has been somewhat overblown,
especially in narratives around cost. One implication of having two paradigms
(pre-training and reasoning) is that we can optimize for a capability over
two axes instead of one, which leads to lower costs.
But it also means we have two axes along which we can scale, and we intend to
push compute aggressively into both!
As research in distillation matures, we're also seeing that pushing on cost
and pushing on capabilities are increasingly decoupled. The ability to serve
at lower cost (especially at higher latency) doesn't imply the ability to
produce better capabilities.
We will continue to improve our ability to serve models at lower cost, but we
remain optimistic in our research roadmap, and will remain focused in
executing on it. We're excited to ship better models to you this quarter and
over the year!
-----
2025/01/28
CEO Sam Altman 也发了一些推文
deepseek's r1 is an impressive model, particularly around what they're able
to deliver for the price.
we will obviously deliver much better models and also it's legit invigorating
to have a new competitor! we will pull up some releases.
but mostly we are excited to continue to execute on our research roadmap and
believe more compute is more important now than ever before to succeed at our
mission.
the world is going to want to use a LOT of ai, and really be quite amazed by
the next gen models coming.
look forward to bringing you all AGI and beyond.
DeepSeek 的 R1 是一款令人印象深刻的模型,特别是在这个价格范围内所能提供的性能
。我们当然会推出更强大的模型,而且有新的竞争对手确实让人振奋!我们会发布一些新版
本。
但最重要的是,我们对继续推进研究路线图感到兴奋,并且相信现在比以往任何时候都更
需要强大的算力来实现我们的使命。
全球对 AI 的需求将会大幅增加,未来一代的模型将让人惊艳不已。
期待为大家带来 AGI,甚至更远大的突破。
-
下面的梗图很好笑
https://i.imgur.com/rjVPsjX.png
※ 引述《andy3021515 ()》之铭言:
: 中央社
: OpenAI:已掌握DeepSeek盗用模型证据
: 2025/1/29 20:59(1/29 21:17 更新)
: https://www.cna.com.tw/news/aopl/202501290140.aspx
: (中央社伦敦29日综合外电报导)中国新创公司「深度求索」(DeepSeek)引发的疑虑日
: 增。OpenAI今天表示已掌握证据,显示DeepSeek盗用其模型进行开发;业界也指DeepSeek
: 握有大量辉达H100高阶晶片,形同直接挑战美国出口管制规定。
: 中国的DeepSeek因标榜低成本也能训练出强大人工智慧(AI)模型,颠覆AI训练不能没有
: 精密昂贵晶片的刻板印象,引发市场强烈震荡。
: 不过,总部设在美国旧金山(San Francisco)的OpenAI公司向英国「金融时报」(
: Financial Times)证实,已掌握疑似DeepSeek利用「蒸馏」(distillation)技术的证
: 据。OpenAI是聊天机器人ChatGPT的开发商。
: 蒸馏技术可让开发者利用更大、更强的模型输出成果,在较小模型获得更出色的表现,并
: 让他们在特定任务上以更低廉的成本得到类似结果。
: 尽管蒸馏是AI业界常见做法,但DeepSeek若利用蒸馏技术来打造自家模型,并与OpenAI竞
: 争,将违反OpenAI服务条款,因此产生疑虑。
: OpenAI婉拒进一步说明或提供证据细节。根据该公司的服务条款,用户不得「复制」任何
: OpenAI的服务,或是「利用输出结果,来开发与OpenAI竞争的模型」。
: 彭博(Bloomberg News)28日引述知情人士说法报导,微软(Microsoft)和OpenAI正在
: 调查一群与DeepSeek有关联的人是否以未经授权的方式,不当取得OpenAI技术输出的资讯
: 。
: 报导指,微软维安研究员2024年秋天观察到有人利用OpenAI应用程式介面(API)输出大
: 笔数据,他们认为这些人可能与DeepSeek有关。
: 美国总统川普政府的AI专家塞克斯(David Sacks)也在福斯新闻(Fox News)访谈中提
: 及蒸馏技术,并称有「大量证据」显示DeepSeek是仰赖OpenAI模型输出,以协助开发自家
: 技术,但他也没有进一步提出证据。
: 另一方面,美国Scale AI执行长汪滔(Alexandr Wang)日前表示,DeepSeek应握有多达5
: 万颗辉达(Nvidia)H100晶片,以开发现有模型。美国亿万富豪马斯克(Elon Musk)也
: 在社群平台X回应相关推文,并加上「显而易见」的评论,似乎同意这项说法。
: 由於H100晶片被禁止向中国出口,这形同直接挑战美国出口管制政策。有分析直指,
: DeepSeek绕道囤积大量晶片以规避美国管制,因此其真实开发成本恐怕远高於宣称的558
: 万美元(约新台币1.83亿元),未来也势必将引发美方加强管制。(译者:杨昭彦/核稿
: :施施)1140129
: 心得/评论:
: 彭博又是哪里来的野鸡杂志,我们Deepseek 最强啦
: nvidia 股价溜滑梯到底了吗
: 如果这是真的
: 那代表这几天的新闻不过就是中国的大外宣
: 跟韩国的室温超导体,中国的云巴智轨一样
: 喊得很大声,做出来的不过就那样
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.229.38.139 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738198763.A.61A.html
1F:→ rebel : 结论差不多 DS提供了一个降低成本的做法 openai将 01/30 09:02
2F:→ rebel : 会应用这做法让自己的模型更强 成本更低 01/30 09:02
3F:推 s10112 : 米国的抄不算抄 01/30 09:04
4F:→ ggian123 : Openai真的输不起了 01/30 09:06
5F:推 tsubasawolfy: GPT的mini系列可以更省吧 01/30 09:06
6F:推 KrisNYC : openAI在做的是在前面开路 试验不一定能成功的事物 01/30 09:07
7F:→ KrisNYC : DS做的事是已经知道可以成功 但他更便宜高效 01/30 09:08
以前没想过先进商用AI成本可以这麽低
你看一大票AI新创甚至Cloudflare、Perplexity都开始陆续引入
价格战开始
8F:推 pingjung : 我们可以更省!?这是好还是坏啊… 01/30 09:09
9F:→ KrisNYC : 本来这两件事难度与投入 光试错成本就天差地别 01/30 09:09
10F:→ zzahoward : DeepSeek做的其实是大规模商业化的关键 01/30 09:09
11F:→ KrisNYC : 开源了阿 以後o1可以套类似r1的模组免费给大家用 01/30 09:09
12F:→ KrisNYC : 省成本阿 01/30 09:09
13F:→ KrisNYC : 但你要最强的那些 还是得前面堆屍阿 01/30 09:10
14F:→ zzahoward : 我不会评价孰高孰低 就跟SpaceX可以彻底商业化太空 01/30 09:10
15F:→ zzahoward : 部属一样 01/30 09:10
16F:推 Axwell : 所以真的就是:喔喔感谢DS提供一个更有效率的方法 01/30 09:11
17F:→ Axwell : 你可以滚了 01/30 09:11
没有什麽可以滚这种事
Deepseek 现在已经全线开花
如果按照 ChatGPT 公布的现在仍然持续亏损
这波又要跟 Deepseek 下去玩价格战的话
对 OpenAI 一定更伤
Perplexity
https://i.imgur.com/rDAhYVD.png
Cloudflare
https://i.imgur.com/0pbumC2.png
Poe
https://i.imgur.com/2rEIVOQ.png
Monica
https://i.imgur.com/OEYrDqz.png
Felo
https://i.imgur.com/ytQDXEt.png
Sider
https://i.imgur.com/ytQDXEt.png
Groq
https://i.imgur.com/sRE59mc.png
18F:→ KrisNYC : 我是觉得这麽简单 会不会跑出一堆阿猫阿狗套皮 01/30 09:11
19F:→ KrisNYC : 最早不试也满地套皮在那收订阅费 还红过几个 01/30 09:12
20F:→ KrisNYC : 什麽90年代毕业照生成器之类的 01/30 09:12
21F:→ zzahoward : 就是打开潘朵拉的盒子阿 AI服务突然门槛变低很多了 01/30 09:12
22F:→ zzahoward : 专业小规模语言团队bussiness model会快速成长 01/30 09:13
23F:→ zzahoward : 但小规模语言终究还是专业领域 所以门槛还是在那边 01/30 09:14
24F:→ zzahoward : 我就举例了 你用4O会给你整段程式码 但R1只会给你数 01/30 09:14
25F:→ zzahoward : 行要修改的部分 01/30 09:14
26F:推 A10 : DS在做的 降低成本 给AI大厂一个新方向 01/30 09:14
27F:推 gbman : 答案抄起来CC 01/30 09:15
28F:→ A10 : 对消费者来说 都是有利的 有些人眼里只有政治 01/30 09:15
下面有一个一般user的推文
One lesson to take from this: a model that is 90% as good as o1 but with no
usage limits is an OOM more useful in a knowledge worker’s daily life than
an o1 with ~10 queries a day.
In the 3 days of testing R1, I have probably sent 10x as many queries as I
have to o1 in the past three months combined — despite being a ChatGPT Plus
subscriber.
A great model that I can work and iterate together with — without concern of
getting cut off after a handful of messages — is so much better than a
slightly better model that I can speak to for 5 minutes a day.
从这件事学到的一点是:一个效能达到 o1 90% 的模型,但没有使用限制,对知识工作者
的日常生活来说,比起每天只能发送约 10 次查询的 o1,有数量级更高的实用性。
在测试 R1 的三天内,我发送的查询数量可能是过去三个月内对 o1 查询总数的 10 倍—
—尽管我是 ChatGPT Plus 订阅者。
一个可以无限制地与我一起工作、反覆试验的优秀模型,远比一个稍微强一些但每天只能
使用 5 分钟的模型要好得多。
29F:推 gn02118620 : 我们早就研究出来了 但是我们没有发布而已 01/30 09:15
前 Meta SWE 在底下酸他
Thanks for wasting everyone’s fucking time protecting proprietary training
techniques that will eventually come out anyway.
ClosedAI.
感谢你浪费大家的时间来保护那些最终还是会泄露的专有训练技术。
封闭AI。
30F:推 Axwell : 是说最後一段不是Sam的推文吗 01/30 09:15
我有备注不过不太明显
上色了
31F:→ zzahoward : 不是AI大厂一个方向 而是开创一个新的产业: 小模型 01/30 09:15
32F:→ gn02118620 : 所以请大家支持openai 01/30 09:16
33F:→ gn02118620 : 结论 01/30 09:16
34F:推 lusifa2007 : 他的意思是借用deepseek的优异之处配上它们自身优 01/30 09:17
35F:→ lusifa2007 : 异的算力储备 会产生更美好的成果 迈向AGI? 本梦 01/30 09:17
36F:→ lusifa2007 : 比又来了 01/30 09:17
37F:→ zzahoward : 其实很多人也都在讨论4O本身也是RL 他们没公布而已 01/30 09:17
38F:→ gn02118620 : 前面讲蒸馏 也很明显 01/30 09:18
39F:推 gbman : DS就是佛开源大家一起卷CC 01/30 09:18
40F:→ lusifa2007 : 这本来就是好事 目前很多大公司都禁止员工把资料喂 01/30 09:19
41F:→ lusifa2007 : 给AI 现在可以低成本建置各公司建置自家AI的意愿提 01/30 09:19
42F:→ lusifa2007 : 升 硬体需求应该会越来越多 01/30 09:19
43F:推 stocktonty : 惨了 豪绅们的钱还没刮完 就要开始降价了 01/30 09:19
44F:推 poeoe : 能降硬体成本就是好事 有人带头在想办法算法降成本 01/30 09:20
45F:→ poeoe : 其他人跟上就好 01/30 09:20
46F:→ stocktonty : 一开始说没要盈利 要开始圈钱了却杀出个程咬金 01/30 09:21
47F:→ AirPenguin : 他讲的就这几天一堆人讲过的 就中小企业自用CP值高 01/30 09:22
48F:→ zzahoward : 大语言存在性还是必要阿 01/30 09:23
49F:→ zzahoward : 一般人还是大模型好用 专业人士用小模型 01/30 09:24
50F:→ zzahoward : 大模型* 01/30 09:24
51F:推 KrisNYC : R1就真的把他的推导过程全部写给你看阿 01/30 09:25
52F:推 sdbb : 现在的大模型等於以後的小模型 01/30 09:25
53F:→ zzahoward : 大模型太杂了 边际成本太高 所以才有小模型的需求 01/30 09:27
54F:→ MyPetTankDie: 效率化是好事 01/30 09:27
55F:→ AirPenguin : 讲真原本高不可攀的AI中小能插一脚反而会带动硬体吧 01/30 09:27
56F:推 redbeanbread: 急了 01/30 09:28
57F:推 straggler7 : 更低的成本 更高的售价 01/30 09:29
58F:→ meatbear : NVDA : 躺着中枪 华西街:不是,我早想砍你很久了 01/30 09:30
59F:推 k1k1832002 : 要看就是了,感觉有点像当初的挖矿潮,H100不是人 01/30 09:31
60F:→ k1k1832002 : 人都能买但是5090可以考虑,只是5090销量能否补上 01/30 09:31
61F:→ k1k1832002 : 要观察,也有可能乾脆利用既有的云平台 01/30 09:31
62F:推 lusifa2007 : 应该像是公司会建置自家NAS一样 自家资料拿来喂自 01/30 09:33
63F:→ lusifa2007 : 家AI才放心 01/30 09:33
※ 编辑: Lushen (36.229.38.139 台湾), 01/30/2025 09:34:59
64F:→ zzahoward : 带动硬体我不敢说 因为租赁平台不跑大模型情况下算 01/30 09:38
65F:→ zzahoward : 力应该足够给数千倍的小模型跑 01/30 09:38
66F:推 lusifa2007 : 租赁平台当然有市场 如果需求变多 租赁平台也要扩 01/30 09:40
67F:→ lusifa2007 : 张硬体采购 不过有技术保密需要的公司应该还是会建 01/30 09:40
68F:→ lusifa2007 : 置自家的AI 吧 01/30 09:40
69F:推 s881720 : 就OpenAI贵大家不爽 一天限额使用是手游呢== 01/30 09:41
70F:推 redbeanbread: 5090不够卖吧 01/30 09:41
71F:推 Siika : closedAI就真的卖太贵了 大家一起卷对user很好啊 01/30 09:42
72F:推 Aliensoul : 翻译:请大家继续每个月花200美金支持我们喔! 01/30 09:44
73F:→ dongdong0405: OpenAI里也有中国人 中又赢 01/30 09:47
74F:→ Rattlesnake : 除非封闭式ai有更特别之处 类似频果vs 安卓 不然 01/30 09:48
75F:→ Rattlesnake : openai无法长久 01/30 09:48
76F:推 stocktonty : 重点在 还需不需要跟着一起抢购最贵的最新款的 01/30 09:48
77F:推 mamorui : 还不是要用OpenAI, 流量大户可以加价给他买 01/30 09:49
78F:推 stocktonty : 塞港缺柜报复性消费人人抢 一柜10000镁也得吞 01/30 09:54
79F:→ stocktonty : 不塞了有柜了 反而大家开始等等看会不会更便宜 01/30 09:54
80F:推 herculus6502: 首先,你要酿得出酒来 01/30 09:54
81F:→ stocktonty : 所以才会饥饿行销搞限量维持供不应求才能维持高毛利 01/30 09:55
82F:推 XFarter : 其实 Gemini 2.0 flash thinking 目前也是无价搜寻 01/30 09:55
83F:→ XFarter : 、更大量 Token 以及有相对接近 o1 的能力,但 DS 01/30 09:55
84F:→ XFarter : 的开源、自由部署以及新的思路三点齐下才是让整个网 01/30 09:55
85F:→ XFarter : 路流量爆炸的原因 01/30 09:55
86F:→ XFarter : 甚至如果你只是为了 LLM 的功能,一般使用者现在已 01/30 09:55
87F:→ XFarter : 经可以一毛不花的使用近 o1 水准的模型了 01/30 09:55
88F:推 c928 : 自己人,蒸馏没事儿 01/30 09:57
89F:推 ots625 : 以後就是客制化,跟选电脑配备,软体也有分等 01/30 09:58
90F:→ stocktonty : 两年前是哀凤时刻的话 现在就是小米时刻?xd 01/30 10:01
91F:→ tctv2002 : 当成IOS跟安卓就好惹 01/30 10:09
92F:→ IBIZA : 现在任何人都能在自己电脑装一个啊 01/30 10:12
93F:→ IBIZA : 我电脑跑不动R1,但我也装了一个蒸馏版 01/30 10:13
94F:推 ImHoluCan : 好的Nvidia 40见 01/30 10:13
95F:推 spa41260 : 开源本来就是让人拿来用的啊,只要不要用完以後反 01/30 10:16
96F:→ spa41260 : 控对方抄袭就好 01/30 10:16
97F:推 clecer : 本地监制R1硬体需求超低,gg准备崩盘了 01/30 10:26
98F:→ clecer : 本地建置 01/30 10:26
99F:推 laputaca : 帅 01/30 10:29
100F:推 zbo5566 : 黑起来 01/30 10:32
101F:推 Bmtswiiii : 美国人的抄能算抄吗 01/30 10:41
102F:推 joke3547 : meta那个有够酸,笑死 01/30 10:42
103F:推 lovefriend : 看看前几篇吵成这样 想说哇小岛有这麽多AI专业人士 01/30 10:46
104F:→ lovefriend : 那应该可以成为AI大国唷!! 哈哈 殊不知一堆键盘手啦 01/30 10:46
105F:推 agoodjob : 这人也是中国人,该不会资料就他给的吧 01/30 10:49
106F:推 kuso198610 : perplexity好像付费板材可以用R1...=.= 01/30 11:24
107F:推 Axwell : 免费版不能挑模型啊 01/30 11:25
108F:推 ZMTL : Mark Chen是台湾人... 母亲是清大教授 01/30 11:38
109F:→ linzero : 之前有人就在猜这些大厂已经在用自家大型模型来训练 01/30 12:00
110F:→ linzero : 小型模型来直接应用获利 01/30 12:01
111F:推 ImMACACO : 限额使用真的是硬伤 01/30 12:05
112F:推 Brioni : 可以确定当高订商品的市场策略被破坏了,白菜价预备 01/30 12:18
113F:→ Brioni : ~ 01/30 12:18
114F:→ ealleneee91 : 苹果有什麽特别之处 01/30 12:27
115F:推 Lenney33 : 真香.jpg 01/30 12:34
116F:推 mopa : 大概就是训练门槛变低,遍地开花,但还是需要硬体提 01/30 12:36
117F:→ mopa : 供算力,需求不会减少,但会分散。 01/30 12:36
118F:→ Brioni : 硬体仍有需求,但就不是非得短时间追求最顶的效能 01/30 12:46
119F:推 clecer : 就不需要那麽多先进制程,用三星intel也可以,gg领 01/30 13:23
120F:→ clecer : 先地位直接被软体演算法打折 01/30 13:23
121F:→ faultless : 有竞争才有进步,对ai开发才好 01/30 13:40
122F:→ LightWorker : OpenAI 的首席研究员也是中国人? 01/30 13:41
123F:推 hcwang1126 : OpenAI 不怕烧钱 01/30 18:12
124F:推 umum29 : 那个英文留言真的说到我心坎 对使用者 好用就王道 01/31 01:25
125F:→ umum29 : 一堆美国大厂都支援deepseek 你还在吵无法查64? 01/31 01:27