作者iaminnocent (人生无常)
看板Stock
标题Re: [新闻] Meta陷入恐慌?内部爆料:在疯狂分析复制DeepSeek,高
时间Sat Feb 1 21:12:37 2025
OpenAI又推出了最新的O3-mini跟O3-mini-high可以使用,原本的这个问题我又来问了一遍
,想说也贴上来给大家品监一下O3-mini 究竟有没有比Deepseek-R1强
ChatGPT-O3-mini
https://i.imgur.com/QSFVbo4.jpeg
https://i.imgur.com/2sQSf9v.jpeg
----------
ChatGPT-O3-MINI-high
https://i.imgur.com/WDnonEh.jpeg
https://i.imgur.com/YdfQ4Zg.jpeg
----------
至於究竟是哪个写得好,我觉得就留给看客吧,毕竟有人觉得R1好,有人觉得O1好,新的也
加进来比一比
※ 引述 《iaminnocent (人生无常)》 之铭言:
:
: 刚刚看FB,发现有个中国的作家对於Deepseek的作文水平感到惊讶,用了相同问题,以王
家
: 卫的电影风格去撰写标题为人生何处不相逢的散文,来分别问CHATGPT-O1跟Deepseek-R1
: ChatGPT-O1:
: https://i.imgur.com/T2jN9hZ.jpeg
:
: Deepseek-R1:
: https://i.imgur.com/IitIbR0.jpeg
:
:
: 我是觉得Deepseek的回答好像有点纯堆砌王家卫的电影名台词的感觉,通篇王家卫感,但
是
: 不知道在说甚麽
: ChatGPT 在最後有点出散文标题,内容也比较有切合标题
:
: 这应该可以当作两者的能力小比拼吧?
: --------
: 补:
: 我也有用4O用相同问题问过,我觉得写得比O1跟R1还好
: https://i.imgur.com/7DN4Dz9.jpeg
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 125.228.63.38 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738415559.A.062.html
1F:推 tsubasawolfy: 但这几个都是强在推理模型吧 02/01 21:13
2F:推 realmd : 反正现在这些大头不能慢慢挤牙膏割韭菜就是爽 02/01 21:22
3F:→ JoeyChen : 我还是觉得o1写的风格比较像 02/01 21:22
4F:→ iaminnocent : O3-mini 是取代原本的4O,他适合大部分问题,O3-mi 02/01 21:27
5F:→ iaminnocent : ni-high 才是专注逻辑推理 02/01 21:27
6F:嘘 vindiesl2000: 垃圾再怎麽改还是垃圾吧 02/01 21:35
7F:→ Rattlesnake : 明明meta llama就开源的是要恐慌个小 02/01 21:35
8F:推 tsubasawolfy: 没有吧 我看OPENAI网页 O3mini还是写给STEM用 02/01 21:36
9F:→ tsubasawolfy: 作文翻译这些在O1推出时跟4o的对比是没啥差 02/01 21:37
10F:推 Brioni : 如果又过了一年进步幅度不大,可能估值下修 02/01 21:43
11F:推 tsubasawolfy: 不过价格是便宜很多 他们应该下了很多功夫 02/01 21:44
13F:→ jo4 : 反正最後就是比资料的品质 吃到垃圾吐出来还是垃圾 02/01 22:53