Stock 板


LINE

原文标题: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras 原文连结: https://www.cerebras.ai/blog/openai-codexspark 发布时间: 2026-02-12 记者署名: James Wang 原文内容: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b y Cerebras, is available in research preview. This marks the first release in ou r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti me software development where responsiveness matters as much as intelligence. Po wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli ng near-instant feedback in live coding environments. 今日,我们正式发布由 Cerebras 技术驱动的 OpenAI 全新模型 GPT-5.3-Codex-Spark,并 开放研究预览。这是 OpenAI 与 Cerebras 合作的首个里程碑。Codex-Spark 专为对响应速 度要求极高的即时软体开发而设计。凭藉 Cerebras 晶圆级引擎(Wafer-Scale Engine)的 强大效能,其执行速度突破每秒 1,000 个标记(tokens/s),为即时程式开发环境提供近 乎瞬时的回馈。 Agentic coding has fundamentally changed software development. For the first tim e, machines can autonomously work for hours or days without human supervision. B ut this mode of interaction can also leave developers feeling out of the loop wi th long wait times and less opportunity to direct the work. As software developm ent is iterative, developers need to inject taste, direction, and sensibility al ong the way. Codex-Spark is designed for this kind of real-time, iterative work. It is fast, responsive, and steerable, putting the developer back in the driver ’s seat. Codex-Spark is a smaller version of Codex optimized for fast inference. On agent ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0, it produces more capable responses than GPT-5.1-Codex-mini while completing tas ks in a fraction of the time. Codex-Spark excels at making precise edits, revising plans, and answering contex tual questions about your codebase. It’s a fast way to visualize new layouts, r efine styling, and test new interface changes. 「代理型编码」(Agentic coding)已从根本上改变了软体开发,使机器能独立运作数小时 甚至数日。然而,这种模式也可能让开发者因漫长的等待而产生疏离感,减少了引导工作的 机会。由於软体开发本质上是反覆迭代的过程,开发者需要随时注入审美、方向感与判断力 。Codex-Spark 正是为此类即时、互动式工作而生;它反应迅速且易於引导,让开发者重新 掌握主导权。 Codex-Spark 是针对快速推论(Inference)优化的 Codex 精简版本。在 SWE-Bench Pro 与 Terminal-Bench 2.0 等代理型软体工程基准测试中,它的表现优於 GPT-5.1-Codex-min i,且完成任务的时间仅需後者的一小部分。 Codex-Spark 擅长进行精确编辑、修订计画,以及回答关於程式码库的脉络问题。对於视觉 化新布局、精炼样式及测试介面更动,它提供了一种极速的实现方式。 "Cerebras has been a great engineering partner, and we’re excited about adding fast inference as a new platform capability. Bringing wafer-scale compute into p roduction gives us a new way to keep Codex responsive for latency-sensitive work , and we’re excited to learn from developer feedback on how to compose our comp ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria l Compute at OpenAI. OpenAI 工业运算负责人 Sachin Katti 表示:「Cerebras 是杰出的工程合作夥伴,我们很 高兴将『快速推论』纳入平台能力。将晶圆级运算导入生产环境,为维持 Codex 在延迟敏 感型任务中的响应速度提供了全新途径。我们期待透过开发者的回馈,学习如何将这些运算 能力整合进流畅的工作流中。」 Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade r goal is to accelerate a wide spectrum of AI workloads across both real-time an d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg est on-chip memory of any AI processor, enabling high-speed inference at thousan ds of tokens per second per user. The architecture scales out to thousands of sy stems, extending fast memory capacity into the multi-terabyte domain to support trillion-parameter models for both training and inference. We expect to bring th is ultra-fast inference capability to the largest frontier models in 2026. Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th e Codex app, CLI, and VS Code extension, with API access rolling out to select d esign partners. Try Codex-Spark rolling out today. Codex-Spark 仅是 Cerebras 硬体潜力的初步展现。我们的长远目标是加速涵盖即时与异步 (Asynchronous)情境的全方位 AI 工作负载。我们专为 AI 打造的晶圆级引擎拥有业界最 大的片上记忆体(On-chip memory),可支援每位使用者每秒数千个标记的极速推论。该架 构可扩展至数千台系统,将高速记忆体容量提升至多 TB 等级,足以支援兆级参数模型的训 练与推论。我们预计在 2026 年将此极速推论能力导入最强大的前沿模型中。 Codex-Spark 研究预览版即日起向 ChatGPT Pro 用户推送,支援 Codex App、CLI 及 VS C ode 扩充功能;API 存取权限则将逐步开放给特定设计合作夥伴。欢迎今日立即体验 Codex -Spark。 心得/评论: 上个月我有发了两家合作的消息, 今天正式推出第一个合作产品,推理速度破千的GPT-5! 给大家一个比例尺:平常用的GPT-5速度不到一百。 Cerebras的台积电5奈米晶圆引擎WSE-3是世界唯一的晶圆运算, 由於能直接载入整个AI模型到运算单元上, 速度是GPU的数十倍, 这是Cerebras成立以来第一个企业级应用, 或将冲击整个GPU市场。 --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 42.79.16.163 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1770952439.A.F56.html
1F:推 L1ON : 台积电喷 02/13 11:16
2F:推 ccdrv : 都不用gpu NV要凉了 02/13 11:16
3F:推 mopa : 还是要台积电... 02/13 11:17
4F:推 maimss : 会不会有人不玩了?…. 02/13 11:18
5F:推 joygo : 关键字 台积电 02/13 11:18
6F:推 woko : 这超大威化饼真的能吃啊...?太厉害了 02/13 11:19
7F:→ b9513227 : 又是台积电 02/13 11:19
8F:→ Brioni : GG喷 NV哭 02/13 11:20
9F:推 MoneyDay5566: 没人在乎 02/13 11:20
10F:推 Marginal : GPU需求下修? GPU市场要被冲击了? 02/13 11:20
11F:→ Brioni : 黄爸直接砸钱买下来掐死你 02/13 11:21
12F:推 DonDonFans : NV 88 02/13 11:22
13F:推 tomdavis : 能训练再来说取代gpu 都几年了还在乱下标 不专业 02/13 11:23
14F:→ ZO20 : 还是要台积 结案 02/13 11:24
15F:推 Gipmydanger : 推论跟训练本来寻求就不一样 02/13 11:24
16F:推 kload : 老黄:我不投资你就扯我後腿? 02/13 11:24
17F:→ tomdavis : 跟去年说Deepseek 会终结运算需求一样的知识水准 02/13 11:24
18F:推 onekoni : 台积电 02/13 11:28
19F:→ onekoni : xddd 啥都要扯到台积电 2330真的无脑多 02/13 11:28
20F:→ pttstock : GPU is over! 02/13 11:28
21F:推 Lhmstu : 没人在乎 02/13 11:28
22F:推 howdiee : 又又又又又要被取代了 02/13 11:29
23F:→ sonatafm2 : 看成曲速引擎 想说有曲速AI引擎都出来了还不飞天 02/13 11:29
24F:推 deann : 谁代工? 02/13 11:30
25F:推 qweertyui891: 谁用铲子 铲子是什麽形状 不重要 02/13 11:31
26F:推 nightop : 黄老爷要哭了 02/13 11:33
27F:推 s56565566123: 台积电又喷 02/13 11:33
28F:推 cwolf : 满库存的GPU没电力用?投放广告? 02/13 11:33
29F:推 josephpu : 乱下标才有高能儿看啊 嘻嘻 02/13 11:35
30F:→ searchroy : 管你多快,没电都算库存 02/13 11:36
31F:→ josephpu : cpu药丸惹 gpu药丸惹 tpu药丸惹 02/13 11:36
32F:推 gladopo : 超巨大那个吗? 成本很高的说 02/13 11:36
33F:推 scum5566 : 算这麽快 CPO该喷了吧 02/13 11:38
34F:推 apolloapollo: 蛋雕 02/13 11:40
35F:推 goodevening : 难怪老黄说1000亿投资没有确定 果然被骨仔 02/13 11:41
36F:推 s881720 : OAI还有钱喔 嘻嘻 02/13 11:41
37F:推 house911 : 台鸡鸡受惠 ? 封装测试也会受惠 ? 02/13 11:41
38F:推 abc0922001 : 又是台积电代工,卖铲子怎麽输阿 02/13 11:42
39F:推 Like5566Like: NV掰 02/13 11:42
40F:→ tmdl : 美股不欢迎太快的 02/13 11:45
41F:推 grtfor : AI大厂都想要逃离NV 02/13 11:47
42F:推 roseritter : 一次整片的 成本和产量..... 02/13 11:48
43F:推 yutaka28 : 其实真的要整片的话,我一直不懂真正独家在哪里? 02/13 11:48
44F:→ yutaka28 : 最困难的技术不是其实是台积吗 02/13 11:48
45F:→ yutaka28 : 设计部分困难的点在哪?其他公司无法设计吗? 02/13 11:49
46F:→ yutaka28 : 不是其实都是依赖台积的良率? 02/13 11:49
47F:→ furbyyeh : NV is over 02/13 11:51
48F:嘘 strlen : 老黄这辈子就这样惹 02/13 11:52
49F:推 MorikonHase : 铲子 02/13 11:52
50F:→ gladopo : 整片最难的部份台积包了,有凯子付钱能做就做 02/13 11:52
51F:推 roseritter : 之前很少人 敢搞这种专武等级的产品 02/13 11:53
52F:推 keven92110 : 听不懂 晶圆级引擎是什麽意思 02/13 11:56
53F:推 PA5566 : 直接用晶圆跑啊 真的假的 02/13 11:56
54F:推 kunyi : 三星五奈米也抢不到? 02/13 11:57
55F:→ a79111010 : 就说了会走BTC的路 显卡之後就是专用矿机的概念 02/13 11:58
56F:→ a79111010 : 显卡终究只是过度的产品 需求上来就需要专门的 02/13 11:59
57F:推 haworz : 这篇需要翻译翻译,晶圆引擎是啥?用整片晶圆把GPT 02/13 11:59
58F:→ haworz : 硬体化吗? 02/13 11:59
59F:推 gladopo : 察Cerebras就有相关说明了 02/13 12:02
60F:→ gladopo : 之前的关键字是 44GB on-chip SRAM 02/13 12:03
61F:推 roseritter : https://www.cerebras.ai/chip 02/13 12:03
62F:嘘 s1001326 : 99老黄 快死了 02/13 12:03
63F:推 roseritter : 他就WSE-3超小核 布满整块 02/13 12:06
64F:推 FirePopcorn : 台积电喷喷喷喷喷 02/13 12:07
65F:推 fakelie : 那就是鸡鸡5nm + 更多记忆卡蛙 02/13 12:08
66F:→ ohya111326 : 好了啦 奥特曼 没人相信你 02/13 12:08
67F:推 jympin : GPU IS OVER? 02/13 12:08
68F:推 mopa : 以後做出来的晶片不会是圆形吧 跟晶圆一样大 完全不 02/13 12:08
69F:→ mopa : 浪费 02/13 12:08
70F:推 allenmusic : gpu太贵了 02/13 12:08
71F:→ gladopo : 这东东真的红的话就肯定是gg的单,没法跑 02/13 12:08
72F:→ JoeyChen : 直接载入整个AI模型 所以关键是记忆体? 02/13 12:09
73F:→ roseritter : 人家直接用SRAM 粗本的 02/13 12:09
74F:→ pinkg023 : NV要几根 02/13 12:09
75F:→ roseritter : 我是觉得产能很受限啦 除非你早早下很大单等着 02/13 12:10
76F:→ stanleyplus : TSM 322仙人指路 02/13 12:11
77F:推 qazw5520 : 老黄掰掰 02/13 12:12
78F:→ JoeyChen : 问一下 那gpu可以也套用这种晶圆级记忆体模式吗 反 02/13 12:12
79F:→ JoeyChen : 正记忆体越多越快越好 02/13 12:12
80F:推 beavertail97: NV之前不是收购GROQ? 看何时把LPU整合入GPU 02/13 12:12
81F:→ changmary : 台G利空 高价GPU换低价RISC 02/13 12:12
82F:推 lusifa2007 : 台积但不是2奈米 要出大事了 02/13 12:13
83F:推 fakelie : 三星5nm良率有没有上来?有ㄉ话GG就GG懒 02/13 12:13
84F:推 ganninian : 辉达要蛋雕了吗 02/13 12:14
85F:嘘 cpz : 回答快但答案垃圾有什麽用 02/13 12:14
86F:推 motan : 蛤?所以只是记忆体反应速度?sram 不是本来就反应 02/13 12:14
87F:→ motan : 快吗 02/13 12:14
88F:推 turnkolan : 关键字:台积 02/13 12:15
89F:推 poeoe : 这怎麽可能对NV有啥重大影响啦…… 02/13 12:15
90F:推 roseritter : 架构不一样 H100 die size 814 WSE-3 46225 02/13 12:15
91F:推 onekoni : 出什麽大事 旧产能再利用xddd 省capex 喷烂 02/13 12:15
92F:推 fakelie : WSE-3ㄉ话 5nm就够ㄌ 02/13 12:15
93F:→ onekoni : 五奈米厂折旧早摊完了 纯纯的利润像大海一样啊 02/13 12:16
94F:推 vc39 : 全世界股民都要买台积电了 02/13 12:16
95F:→ fakelie : 三星5nm良率有上来ㄉ话 吃得到 02/13 12:16
96F:推 tsubasawolfy: 这跟GOOGLE那个TPU同概念? 不过做铲子的铁都2330的 02/13 12:16
97F:→ roseritter : GPU 小片 配合HBM去做 这个就是一体机 02/13 12:16
98F:推 lusifa2007 : 辉达哭哭 台积二奈米可能要少订单还不出大事哦 有 02/13 12:17
99F:→ lusifa2007 : 脑吗? 02/13 12:17
100F:→ roseritter : 100x-defect-tolerance-how-cerebras-solved-the-yi 02/13 12:17
101F:→ roseritter : eld-problem 良率够高 坏点爆掉的小核够少 02/13 12:18
102F:推 nrrakaur : 产能都被NV包了,这晶片找谁做? 02/13 12:18
103F:推 a23268744 : GG还有产能吗 02/13 12:19
104F:→ roseritter : 理论上就能做 该文写得很浅白 02/13 12:19
105F:推 vc39 : 不管几奈米厂商都会想办法让自己的产品可以用台积 02/13 12:19
106F:→ vc39 : 电做的晶片,All in 2330跟TSM就对了。 02/13 12:19
107F:→ JoeyChen : 全部做在一片上理论上更快吧? 02/13 12:19
108F:推 gladopo : 下5nm又不走先进封装还好啦,只是听说这东东很难做 02/13 12:20
109F:推 lusifa2007 : 5奈米三星已经可以低价抢单了 02/13 12:20
110F:→ roseritter : SM的核心 和WSE-3核心大小不一样 同样的坏点率 02/13 12:20
111F:推 fakelie : 看来就是计算晶片生产门槛降低 记忆体需求增加 02/13 12:20
112F:→ roseritter : 你得到整体可用面积不同 02/13 12:21
113F:推 furnaceh : 这种晶片怎麽可能说做就做得出来 02/13 12:25
114F:推 good10740 : 整片晶圆发热量,也挺惊人 02/13 12:26
115F:推 roseritter : 封装也是个问题 也太大 02/13 12:27
116F:→ la8day : 这家真的有人用喔 厉害了 02/13 12:28
117F:推 gladopo : 老黄买下来就又少个对手了 02/13 12:29
118F:推 cylu7878 : 台积又要喷 出关目标价2330 02/13 12:29
119F:推 tsubasawolfy: 要gpt用平铺直叙的方式解说。回答因为现行LLM运算是 02/13 12:32
120F:→ tsubasawolfy: 在多张gpu跟gpu之间一直把资料搬来搬去。这种直接大 02/13 12:32
121F:→ tsubasawolfy: 晶圆可以省去搬运时间。坏点问题就在硬体层面绕过去 02/13 12:32
122F:→ tsubasawolfy: 不要用。 02/13 12:32
123F:推 HiuAnOP : 黄药丸! 02/13 12:35
124F:推 moto000 : 抄goog? 02/13 12:39
125F:推 tsubasawolfy: 顺便问了发热量。回答说跟gpu是高频小面积需要强散 02/13 12:44
126F:→ tsubasawolfy: 热,它是低频跟大面积,後面直接做液冷微流道带走热 02/13 12:44
127F:→ tsubasawolfy: 。在LLM上每token产生的焦耳数更低。 02/13 12:44
128F:推 RaiGend0519 : NV凉了 02/13 12:44
129F:→ RaiGend0519 : 5奈米对台积电没有太大优势,看量了 02/13 12:45
130F:→ RaiGend0519 : 这条路走得通,对岸也看到光XD 02/13 12:46
131F:推 pinkg023 : 5奈米应该只是现阶段吧,军备竞赛没理由不往更高密 02/13 12:46
132F:→ pinkg023 : 度推 02/13 12:46
133F:推 roseritter : 中芯去做 应该会哭出来 02/13 12:46
134F:→ wolver : pass, 文组可能比较喜欢 02/13 12:47
135F:推 devidevi : 需要啥硬体,大家应该比较关心这个 02/13 12:50
136F:→ JoeyChen : 用2奈米做会n次方快吗 02/13 12:54
137F:推 sonyvaio : Open AI 就是差评 02/13 12:55
138F:推 iwcuforever : 好险还有台积,但我的alphabet是不是下去了 02/13 13:03
139F:推 wolver : 孙正义那300亿看来撑不到2027了 02/13 13:07
140F:推 tsubasawolfy: 硬体回答说只有GG 三星 INTEL有能力。但只有GG有跟 02/13 13:08
141F:→ tsubasawolfy: 它们完成前面两代的经验。所以还是GG的天下 02/13 13:08
142F:推 roseritter : 看产量吧,量少只能当专武用 02/13 13:15
143F:推 mdkn35 : 甲骨文:干 要呷骨了 02/13 13:16
144F:→ h1y2c3y2h1 : 从烧钱跑道换到另一个烧钱跑道 02/13 13:19
145F:→ redbeanbread: 老黄6090卖五万我就原谅你 02/13 13:21
146F:推 madeinheaven: 取代不了 因为这个超级贵 02/13 13:23
147F:→ redbeanbread: 太太太 咦 五奈米 02/13 13:23
148F:推 AbianMa19 : 反正继续喷 02/13 13:26
149F:推 fay001 : openai就是不长进,gemini 聪明又博学 02/13 13:29
150F:推 holdmyass : 2330:你们打完叫我 02/13 13:30
151F:→ JoeyChen : 问啥大家不看好这架构 不是很符合AI发展的需求吗 02/13 13:31
152F:→ JoeyChen : 良率问题可能也被GG解决了 02/13 13:31
153F:推 madeinheaven: 因为很贵 02/13 13:35
154F:推 v21638245 : 整天叫,去空nv阿 02/13 13:38
155F:→ leeroy277 : 先抢的到产能再说 02/13 13:41
156F:推 onekoni : 2奈米辉达不用亚麻要抢喔 你敢退单吗 02/13 13:55
157F:→ onekoni : 想太多 现在2奈米厂商排队抢 辉达宁可捏着也不愿意 02/13 13:56
158F:→ onekoni : 退单 02/13 13:56
159F:推 onekoni : 亚麻T4晶片现在挤不进去单 你敢退亚麻直接塞进来 02/13 13:57
160F:推 jackgn : 先不论成品,这个问题是本来整片晶圆就算良率低还是 02/13 14:02
161F:→ jackgn : 可以做,那这个一整片的,良率需要多少? 02/13 14:02
162F:→ saiboos : 药丸 02/13 14:06
163F:推 redbeanbread: 电力is over 02/13 14:24
164F:推 oyaji5566 : 看来今天晚上又要七崩贤 02/13 15:07
165F:推 gn00273680 : 好好用的模型,可惜还不能识别图片 02/13 15:30
166F:嘘 griffon569 : 这篇文章是要炒TSMC的股票吗?本文根本没提到TSMC 02/13 15:50
167F:→ griffon569 : Cerebras的WSE-3提到TSMC的新闻都去年的事了 02/13 15:51
168F:→ griffon569 : 除非看到WSE-3因为市场需求需要增加晶圆订货量 02/13 15:52
169F:→ griffon569 : 不然这新闻跟TSMC根本没啥关联... 02/13 15:53
170F:推 viorc : 老黄上次来台湾提前暗示了? 02/13 16:05
171F:推 orze04 : 你们要怎麽用铲子我不管 02/13 16:15
172F:推 ncucosine : 台积电又赢 02/13 17:16
173F:→ tabrisPTT : 继续吹牛,看何时被看破手脚 02/13 18:19
174F:推 away1000 : 显卡可以降价了吗 02/13 19:19
175F:推 h311013 : 训练需要GPU 推理TPU的效率比较好…GG 赢 02/13 23:57
176F:嘘 river98 : 这很难啦,封装、冷却系统怎麽接? 02/14 08:12
177F:推 kingofsdtw : 所以成本更高? 02/14 13:38







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:Soft_Job站内搜寻

TOP