作者iaminnocent (人生无常)
看板Stock
标题Re: [新闻] Meta陷入恐慌?内部爆料:在疯狂分析复制DeepSeek,高
时间Sun Jan 26 10:24:00 2025
刚刚看FB,发现有个中国的作家对於Deepseek的作文水平感到惊讶,用了相同问题,以王家
卫的电影风格去撰写标题为人生何处不相逢的散文,来分别问CHATGPT-O1跟Deepseek-R1
ChatGPT-O1:
https://i.imgur.com/T2jN9hZ.jpeg
Deepseek-R1:
https://i.imgur.com/IitIbR0.jpeg
我是觉得Deepseek的回答好像有点纯堆砌王家卫的电影名台词的感觉,通篇王家卫感,但是
不知道在说甚麽
ChatGPT 在最後有点出散文标题,内容也比较有切合标题
这应该可以当作两者的能力小比拼吧?
--------
补:
我也有用4O用相同问题问过,我觉得写得比O1跟R1还好
https://i.imgur.com/7DN4Dz9.jpeg
这满神奇的,O1应该是ChatGPT 最强的模型,但是写散文我觉得没有4O写得好
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 125.228.63.38 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1737858242.A.BEE.html
1F:推 s213092921 : 重点是Deepseek背後的成本只有ChatGPT的20分之1 01/26 10:34
2F:→ iaminnocent : 确实,训练成本这件事情蛮令人讶异的,OpenAi也宣 01/26 10:41
3F:→ iaminnocent : 布O3-mini将免费了 01/26 10:41
4F:→ TaiwanUp : 如果不知道是台词 R1有故事感但无逻辑 结尾有蛇年感01/26 10:44
5F:推 breathair : 只代表对於演算法大科技也要花大钱挖人 01/26 10:45
6F:→ breathair : 来搞了,算力的投资不会减少,不然等你 01/26 10:45
7F:→ breathair : 演算法追上,算力又落後了怎办?01/26 10:45
8F:推 strlen : r1实际用远不如抬面上的啦 只有评测吓人 无庸质疑01/26 10:55
9F:→ TaiwanUp : O1比较像没有人生经验学生写 可以再tune一段小故事01/26 10:55
10F:→ strlen : 但deepseek重点在它开源 还公开论文 好耶 作功德 谁01/26 10:55
11F:→ strlen : 不爱?载回来用免钱 改免钱的 中国人要作功德当然好01/26 10:56
12F:→ TaiwanUp : R1就每段都小故事 恐怕就是直接从剧本拼凑出来的01/26 10:56
13F:推 mamorui : pretrain的成本占总成本7-9成,R1是只管posttrain01/26 10:58
14F:→ mamorui : ,R1高成本会吓死人。 01/26 10:58
15F:推 mamorui : 然後是DeepSeek-V3宣称557万,但strawberry几个r也01/26 11:03
16F:→ mamorui : 会错的跟其他一模一样, 如果pretrain全部自己的资01/26 11:03
17F:→ mamorui : 料怎麽会错01/26 11:03
19F:推 mamorui : 简单说,成本漂亮那就不要有那麽多别的模型的影子01/26 11:07
20F:→ mamorui : 。01/26 11:07
21F:→ iaminnocent : 其实楼上有点出问题,pretrain的预标数据集才是最01/26 11:08
22F:→ iaminnocent : 贵的,这些可能都是美国公司花大钱去做的01/26 11:08
23F:→ iaminnocent : pretrain资料集需要人工介入标记,这个东西贵松松 01/26 11:08
24F:推 mamorui : 我没有说不能吹能力,但成本就夸张了,我想看的是D 01/26 11:11
25F:→ mamorui : eepSeek从pretrain就是土法炼钢,那才叫真的没花这 01/26 11:11
26F:→ mamorui : 麽多成本。01/26 11:11
27F:推 mamorui : 我没看那麽多文章,如果有人找到paper解释DeepSeek 01/26 11:16
28F:→ mamorui : v3为什麽strawberry的r几个错的跟其他模型一模一 01/26 11:16
29F:→ mamorui : 样是理所当然,而且预训练是很纯的资料(这家公司01/26 11:16
30F:→ mamorui : 自己收集的资料、没有借助其他LLM产生好资料 =》01/26 11:16
31F:→ mamorui : 准备好资料是预训练之常识)01/26 11:16
32F:推 y800122155 : 从Transformer到GPT到ChatGPT等LLM,不都是一直堆叠01/26 11:16
33F:→ y800122155 : 在前人的成果? 现在DS发表用RL训练不就只是换一种叠01/26 11:16
34F:→ y800122155 : 法? 自己要发布论文发布技术本来就是愿意给别人用让01/26 11:16
35F:→ y800122155 : 产业一起推进,在那边吵什麽别人在哪个阶段没花到钱01/26 11:16
36F:→ y800122155 : 不公平有啥意义? 01/26 11:16
37F:→ mamorui : 做到上述两项,那我就真的给这家鼓掌01/26 11:16
38F:推 woker : 中国出产品走向是中低成本市场。没有一定要当顶尖01/26 11:17
39F:→ woker : 但cp值可能不错01/26 11:17
40F:→ icexice : deepseek的回答真的好王家卫XD01/26 11:17
41F:→ TaiwanUp : V3的排名还是差4o(11月版)较远 跟4o(五月版)较近01/26 11:19
42F:推 mamorui : 没说他们没花钱,重点前人pretrain花多少,嘲笑前01/26 11:19
43F:→ mamorui : 人砸大钱,DeepSeek应该pretrain的资料总该是全部01/26 11:19
44F:→ mamorui : 都自己的、没有用其他LLM生成的,有人要背书吗?01/26 11:19
45F:→ TaiwanUp : 中低成本4o再开放一点权限给免费版就有了 01/26 11:20
46F:→ mamorui : 有人要帮DeepSeek背书pretrain的资料准备吗 01/26 11:20
47F:推 y800122155 : 所以是DS的工程师还是老板自己出来"嘲笑"吗? 现实就 01/26 11:24
48F:→ y800122155 : 是如果别人能重现 DS R1,在算力巨大差异下可以直接01/26 11:24
49F:→ y800122155 : 加码做到 R10、R100、R1000,到时DS花的500万也是一 01/26 11:24
50F:→ y800122155 : 样丢到水里 01/26 11:24
51F:推 mamorui : 我们看的是总成本,只要找到证明背书pretrain,虽01/26 11:24
52F:→ mamorui : 然正确率差一点,这成本就真的是今年最神的,很简01/26 11:24
53F:→ mamorui : 单。01/26 11:24
55F:→ strlen : 站在前人肩膀上发展 但也开源没有藏 所以很棒 称赞01/26 11:25
56F:→ strlen : 成本怎麽样无所谓啦 他都要作功德了 一块成本都是赚01/26 11:25
57F:→ strlen : 阿祖就是号召大家AI都来作功德 变成今天这样很合理01/26 11:26
58F:推 mamorui : 是啊 我对於佛心没意见 XD 01/26 11:26
59F:→ TaiwanUp : DS的预训练要用上微信用户聊天讯息 可能会比较霸气01/26 11:26
60F:→ strlen : 谁不晓得中国最厉害的就是魔改别人的东西?01/26 11:26
61F:→ strlen : 但deepseek算有良心了公开魔改方法 过去一堆垃圾 偷01/26 11:27
62F:→ mamorui : 学术界是齐心讨论,可没酸前人01/26 11:27
63F:→ strlen : 人家的 营利就算了 还反告别人 嘻嘻01/26 11:27
64F:→ mamorui : 我都直接拿strawberry看是不是资料同源 XDDD01/26 11:28
65F:→ strlen : 老实讲 你有GPU有伺服 抓r1下来自己调一调开API 它01/26 11:28
66F:→ strlen : 也不能拿你怎样 这样还不好?01/26 11:28
67F:→ jatj : 好啦 1/20 1/20 阿就比较烂啊 阿就买不到算力啊 01/26 11:29
68F:推 mamorui : API就可以串接了 继续拿资料才是目的 01/26 11:29
69F:推 mamorui : 开源的原因很好懂 我之前整合资料库 免费的最popul 01/26 11:31
70F:→ mamorui : ar的Postgres会支援 其他免费的就再说01/26 11:31
71F:→ mamorui : 所以知道为什麽要开源码 市占是真的很重要 01/26 11:32
72F:→ mamorui : 因为公司可以决定支援的顺序 01/26 11:32
73F:推 wangm4a1 : 站在巨人肩膀上 科技正常现象01/26 11:33
74F:推 Enzofulgura : 看完觉得Deepseek比较懂得王家卫XD01/26 11:39
75F:→ iaminnocent : 但是文章内容跟标题完全没关系XDD01/26 11:42
76F:→ s860703 : 讲这麽多 美股续涨01/26 11:49
77F:推 tradeent : DeepSeek写得比较好01/26 11:50
79F:推 Liberl : 股癌的台股美股电报群已经有很多大神分析过了01/26 11:53
80F:→ Liberl : 去那边看就好了 01/26 11:54
81F:→ Liberl : 或是Miula的脸书也有讨论01/26 11:54
82F:推 toulio81 : 中国公司很多的低成本都是假象,要不就是用品质实01/26 11:54
83F:→ toulio81 : 际上无法稳定达标的产品充数,要不就是政府补贴导01/26 11:54
84F:→ toulio81 : 致的低成本,欧美无法学後者,而前者更是一条死路01/26 11:54
85F:推 tradeent : 请问楼上怎麽加电报群01/26 11:55
86F:→ iaminnocent : tradent大,因为我是限定用O1跟R1这两个来进行,如01/26 11:56
87F:→ iaminnocent : 果用4O跟V3,也会有不一样结果,这蛮特别的,我也01/26 11:56
88F:→ iaminnocent : 觉得4O写的比O1好01/26 11:56
89F:→ iaminnocent : 以下是4O写的,我反而觉得写得比O1还好01/26 11:59
91F:→ iaminnocent : 最後那句「真好,人生何处不相逢」有震惊到我,这01/26 11:59
92F:→ iaminnocent : 个还是在O1之前我先用4O写的01/26 11:59
93F:→ iaminnocent : 但因为我想说要比较两个最强的,就以O1比R1,但是01/26 12:00
94F:→ iaminnocent : 我觉得写散文反而4O好於O101/26 12:00
95F:推 mamorui : o1是推理型,以r1为例,我问r1不清楚的先问v3、再01/26 12:01
96F:→ mamorui : 启动r1,r1就突然知道了01/26 12:01
※ 编辑: iaminnocent (125.228.63.38 台湾), 01/26/2025 12:02:48
97F:→ iaminnocent : 得到结论,王家卫的文字用理论是不行的XD要用感情 01/26 12:04
98F:推 mamorui : 如果是AGI,就不会有能力差异,表现如何是稳定的, 01/26 12:05
99F:→ mamorui : 虽然还没有AGI。 现在看到LLM会出并存的系列,就当 01/26 12:05
100F:→ mamorui : 做游戏角色各种族差异,要想好先用谁再用谁,AI的 01/26 12:05
101F:→ mamorui : 思考跟记忆是仿人脑(非电脑),所以可以交错问。 01/26 12:05
102F:推 mamorui : 像r1就是一定要推理,关掉才能切到V3 01/26 12:06
103F:推 maxc55555 : 怎麽办,我只觉得是王家卫写的好不好的差别,而且 01/26 13:04
104F:→ maxc55555 : 散文本来就很吃共鸣XD 01/26 13:04
105F:推 ntr203 : 之前看过中国豆包跟gpt辩论,再来比一次阿 01/26 13:06
106F:推 pcjimmy : 写文章的话,4O的能力好很多 01/26 13:09
107F:推 PoloHuang : 这边高手好多 01/26 13:39
108F:推 SuperBig78 : 可以多生成几篇试试吗?感觉每次生成的结果应该会有 01/26 13:46
109F:→ SuperBig78 : 程度上的差异,但deep seek成本相对chatGPT系列真的 01/26 13:46
110F:→ SuperBig78 : 满低的@@ 01/26 13:46
112F:推 tcypost : 这边对作家最有用的是R1,对学生有用的是4O 01/26 14:14
113F:→ tcypost : O1只是通顺,没有特色 01/26 14:15
114F:推 utn875 : 再次证明站在巨人肩膀是最划算策略 01/26 14:17
115F:推 chaohsiung : 做功德的话 api的token应该要免费才是 01/26 14:18
116F:推 chaohsiung : O1 4O 严谨程度设定应该不一样 01/26 14:20
117F:→ iaminnocent : 对作家最有用的不是R1吧,他就只是把王家卫的台词 01/26 14:21
118F:→ iaminnocent : 搬过来,作家这样写会被告抄袭吧 01/26 14:21
119F:推 mrmowmow : 你用九把刀的品味去评监4o比较好的吗? 01/26 14:34
120F:推 smallph01 : 我是比较喜欢01的版本 每一句都让我想多停留几秒去 01/26 14:44
121F:→ smallph01 : 思考它的意涵意境 也让我又一次惊讶Chatgpt 的能力 01/26 14:44
122F:→ iaminnocent : 4O有呈现回忆细节感,相比起O1来说我觉得较容易阅 01/26 14:50
123F:→ iaminnocent : 读阿 01/26 14:50
124F:→ newwu : 很明显R1写得最烂 01/26 15:46
125F:推 poeoe : 很明显DeepSeek写的最有感 01/26 16:29
126F:推 DarkerDuck : 数学、程式、科学那种需要推理的才会用到o1 01/26 18:11
127F:推 mamorui : 没有按Deep think其实是走V3, 按了才是R1(或者R1- 01/26 18:11
128F:→ mamorui : preview ? ) ˊ_>ˋ 01/26 18:11
129F:→ DarkerDuck : 你散文用o1写反而让CoT毁了原本流畅的写作脉络 01/26 18:12
130F:→ DarkerDuck : 4o才是符合写作直觉的产生方式 01/26 18:12
131F:→ DarkerDuck : OpenAI又不是傻了,o1最强为什麽还要留个4o 01/26 18:13
132F:→ DarkerDuck : 我自己再问那些篇直觉的问题也是只问4o 01/26 18:13
133F:→ DarkerDuck : 用o1还占我使用的额度 01/26 18:14
134F:推 mamorui : 楼上那些诗句看起来没有走推理系,有的话问题下方 01/26 18:14
135F:→ mamorui : 会看到跑一堆逻辑推理 01/26 18:14
136F:→ DarkerDuck : 而且有些问题需要网路最新资料,也只能用4o网路搜寻 01/26 18:14
137F:推 mamorui : DeepSeek明显被gpt资料模板牵着走,连search的那条 01/26 18:17
138F:→ mamorui : entry也长一样 01/26 18:17
139F:推 mamorui : DeepSeek却无法整合V3跟Search,真的超奇怪的,理 01/26 18:20
140F:→ mamorui : 论上Search的资料跟GPT无关,他们可以轻松突破才对 01/26 18:20
141F:→ mamorui : 。 01/26 18:20
142F:推 tsubasawolfy: 你去看o1出来时跟4o的对比 会发现作文那边没增强 01/26 18:20
143F:→ tsubasawolfy: 因为o1就是逻辑能力 01/26 18:20
144F:推 tcypost : 作家用R1改写後会最有特色,其他没有改写空间 01/26 18:24
145F:→ tcypost : R1少了很多逻辑上的连接词,但是这对作家又不难 01/26 18:25
146F:→ tcypost : R1引导的是一些无法使用大胆文字的作家做出改变 01/26 18:27
147F:推 mamorui : 其实这题很怪,我自己测试r1也出现午夜三点十七分 01/26 18:53
148F:→ mamorui : ,我用o1开头也不会这样 XD 01/26 18:53
150F:推 dragonjj : 有03了喔 01/26 19:28
151F:推 ariadne : 有人问Deepseek大跃进 给出答案後过两秒撤回答案 01/26 19:49
152F:→ ariadne : 改回答这个违法不能问 这样你觉得可以? 01/26 19:49
153F:→ iaminnocent : 我们使用AI的目的是要测他够不够聪明,能否被人类 01/26 20:10
154F:→ iaminnocent : 接受,这三篇拿去秘密给国文老师修改R1那篇一定第 01/26 20:11
155F:→ iaminnocent : 一个被打不及格阿,因为根本文不对题 01/26 20:11
156F:推 guanting886 : 你是永远没办法看到GPT模型会有文笔或真的理解你的 01/26 23:03
157F:→ guanting886 : 问题 01/26 23:03
158F:→ guanting886 : 因为从底层他就不是那样子运作的 再怎麽调整都只是 01/26 23:04
159F:→ guanting886 : 学人讲话 01/26 23:04
160F:→ guanting886 : 举例来说:你去跟他询问某一个字的甲骨文源头 金文 01/26 23:06
161F:→ guanting886 : 发展 为什麽要用这个 包含里面字为什麽摆下面他也 01/26 23:06
162F:→ guanting886 : 不会知道 但他会想办法掰给你 01/26 23:06
163F:→ guanting886 : 明明就写反了他还是一本正经的跟你胡说八道 01/26 23:06
164F:→ guanting886 : 他不是不差 他只能这样 如果要给他一个程度的话 01/26 23:07
165F:→ guanting886 : 他就像Yahoo知识+上的那些「专家」国小、国中生看 01/26 23:08
166F:→ guanting886 : 到就很热情的帮你Google出答案 只求最佳解答 而且 01/26 23:08
167F:→ guanting886 : 就算他真的不知道也要凑答案掰给你看 01/26 23:08
168F:→ guanting886 : 但GPT模型有个好处 就是你想问很冷门的东西他也能 01/26 23:09
169F:→ guanting886 : 回你一二句 01/26 23:09
170F:推 guanting886 : 以前用OpenAI去生图 就叫他不要再给我里面的某一个 01/26 23:15
171F:→ guanting886 : 物件了 他还是硬要给我 01/26 23:15
172F:→ guanting886 : 为什麽 阿就这些东西都从扩散模型生出来的他怎麽会 01/26 23:16
173F:→ guanting886 : 做减法 01/26 23:16
174F:推 stlinman : 认真说一下绘图AI是发散->收敛,负向提示词或二次抹 01/27 03:02
175F:→ stlinman : 除还是能做减法。 但LLM就真的是在算计机率。 01/27 03:03
176F:→ a9564208 : 所以哪个比较像王家卫? 01/27 11:07
177F:→ iaminnocent : 以问题的内容来说,我希望生成一篇有王家卫风格的 01/27 11:28
178F:→ iaminnocent : 标题为人生何处不相逢的散文,R1当然最像王家卫风 01/27 11:28
179F:→ iaminnocent : 格,但是内容狗屁不通阿,就是照搬动王家卫的电影 01/27 11:28
180F:→ iaminnocent : 台词,你是希望AI生成屎味的巧克力还是巧克力味的 01/27 11:28
181F:→ iaminnocent : 屎,这不是很明白吗? 01/27 11:28
182F:推 geige : Deepseek可能是学中文的比较懂亚洲的东西 01/27 17:25
183F:推 lemondrink : deepseek版才是王家卫 01/28 14:43