作者waitrop (嘴砲無雙)
看板Stock
標題Re: [新聞] 告別GPU OpenAI推出極速晶圓引擎模型
時間Fri Feb 13 14:41:06 2026
※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言:
:
: 原文標題:
: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras
:
: 原文連結:
: https://www.cerebras.ai/blog/openai-codexspark
:
: 發布時間:
: 2026-02-12
:
: 記者署名:
: James Wang
:
: 原文內容:
: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
: y Cerebras, is available in research preview. This marks the first release in ou
: r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
: me software development where responsiveness matters as much as intelligence. Po
: wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
: ng near-instant feedback in live coding environments.
: 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
: 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
: 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
: 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
: 乎瞬時的回饋。
: Agentic coding has fundamentally changed software development. For the first tim
: e, machines can autonomously work for hours or days without human supervision. B
: ut this mode of interaction can also leave developers feeling out of the loop wi
: th long wait times and less opportunity to direct the work. As software developm
: ent is iterative, developers need to inject taste, direction, and sensibility al
: ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
: It is fast, responsive, and steerable, putting the developer back in the driver
: ’s seat.
: Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
: ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
: it produces more capable responses than GPT-5.1-Codex-mini while completing tas
: ks in a fraction of the time.
: Codex-Spark excels at making precise edits, revising plans, and answering contex
: tual questions about your codebase. It’s a fast way to visualize new layouts, r
: efine styling, and test new interface changes.
: 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
: 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
: 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
: 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
: 掌握主導權。
: Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
: 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
: i,且完成任務的時間僅需後者的一小部分。
: Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
: 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
: "Cerebras has been a great engineering partner, and we’re excited about adding
: fast inference as a new platform capability. Bringing wafer-scale compute into p
: roduction gives us a new way to keep Codex responsive for latency-sensitive work
: , and we’re excited to learn from developer feedback on how to compose our comp
: ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
: l Compute at OpenAI.
: OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
: 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
: 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
: 能力整合進流暢的工作流中。」
: Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
: r goal is to accelerate a wide spectrum of AI workloads across both real-time an
: d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
: est on-chip memory of any AI processor, enabling high-speed inference at thousan
: ds of tokens per second per user. The architecture scales out to thousands of sy
: stems, extending fast memory capacity into the multi-terabyte domain to support
: trillion-parameter models for both training and inference. We expect to bring th
: is ultra-fast inference capability to the largest frontier models in 2026.
: Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
: e Codex app, CLI, and VS Code extension, with API access rolling out to select d
: esign partners. Try Codex-Spark rolling out today.
: Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
: (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
: 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
: 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
: 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
: Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
: ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
: -Spark。
:
:
: 心得/評論:
:
: 上個月我有發了兩家合作的消息,
: 今天正式推出第一個合作產品,推理速度破千的GPT-5!
: 給大家一個比例尺:平常用的GPT-5速度不到一百。
:
: Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
: 由於能直接載入整個AI模型到運算單元上,
: 速度是GPU的數十倍,
: 這是Cerebras成立以來第一個企業級應用,
: 或將衝擊整個GPU市場。
:
:
我之前有分析過,
https://webptt.com/m.aspx?n=bbs/Stock/M.1769589988.A.C87.html
Cerebras是用大力出奇蹟的方式,
晶片大小是其他GPU/TPU的百倍大小,
一片晶圓wafer 切出一顆,
這會導致良率極低
基本上,
Cerebras有兩個問題: 1. 良率, 2. 相容性(CUDA)
以OpenAI的軟體能力,
相信可以繞過CUDA 的相容性問題,
也就是說,
相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上運行,
所以對OpenAI+Cerebras而言,
最大的問題就是良率,
以Cerebras的良率跟體量,
不太可能可以吃下所有 ChatGPT Pro 用戶,
1%? 10%? 20%?
不確定能吃下多少的用戶量,
但是對NVDA 影響不大,
2nd solution 的AMD Intel可能就會受到影響
另外,
對於板上的大神與專家們的指教,
我回應幾句話,
我只是用國小數學以及大一基本課本的內容做解釋,
淺顯易懂, 不去賣弄專業,
主要目的是讓大家知道真相,
然後很多大神跟專家對我的提出的觀點,
有很多的指教以及抓錯,
其實,
我也不是笨蛋,
我當然知道我說法的問題,
只是主打一個淺顯易懂, 大方向正確,
這樣說吧!
要是良率可以用之前推文裡說的各種方式解決提高良率,
那為何Intel 三星還在為良率的問題被台積電打趴,
各種提高良率的方式,
都只是小部分的改進,
大方向跟大數字是不會差太多的,
的確,
Cerebras 的良率可能不會到1%那麼慘,
但是絕對絕對是極低良率 極低產量,
要是Cerebras產量夠大,
怎麼沒有大量部署到各大CSP廠,
撇開CUDA相容問題,
就是產量不夠,
而且這麼大的晶片一定是特殊機器特殊規格
然後,
因為Cerebras的良率問題,
所以Cerebras只能選擇台積電,
一樣用國小數學算一算就知道,
Cerebras面積這個大,
吃代工廠良率就更重
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1770964868.A.BB6.html
1F:→ komeko : 寫那麼多小作文結果微軟還是沒反彈 02/13 14:44
???
我沒有買微軟, 我也沒有推微軟
※ 編輯: waitrop (76.103.225.6 美國), 02/13/2026 14:46:07
2F:推 lawy : 感謝W大持續分享,把複雜的事說的業外也看得懂 02/13 14:47
3F:推 madeinheaven: 最主要的問題是SRAM很貴 02/13 14:48
4F:推 madeinheaven: 會做成那麼大也是因為SRAM的關係 02/13 14:51
5F:→ chewthelife8: 1樓三小啦……. 02/13 14:51
6F:推 strlen : 老黃還是破不了200 02/13 14:52
7F:推 abc0922001 : 不管到時候用誰的GPU,或者用不用GPU,都是GG代工 02/13 14:54
8F:推 kira925 : 對AMD/Intel的"晶片"影響可能還沒那麼大 02/13 14:59
9F:→ kira925 : 這有一定程度是打廣告 02/13 14:59
10F:推 ztsc0304356 : 感謝W大的分享和用心解說 02/13 15:02
11F:推 madbele : qqq最近好慘,請問大神對qqq盤那麼久還沒發動有什 02/13 15:05
12F:→ madbele : 麼看法嗎QQ 02/13 15:05
13F:推 Coolno9 : 支持w大的方式 投資向來不保證懂最細最新的人贏 02/13 15:08
14F:推 fakelie : wait來啦 02/13 15:14
15F:推 wahaha99 : 這個大晶圓的不良是內部處理吧? 02/13 15:26
16F:→ wahaha99 : 把不良、故障的單元隔離掉就好 02/13 15:26
17F:→ wahaha99 : 良率應該是90%以上 只要達到出貨標準就可以出貨 02/13 15:26
18F:推 searchroy : Only GG 02/13 15:33
19F:噓 ttmm : 呵呵 02/13 15:36
20F:→ ttmm : 以為2這麼簡單阿 他們是軟體公司ok 02/13 15:36
21F:→ niniko : 結論是不是買台積電就對了? 02/13 15:38
22F:推 QDR18 : 感謝分享 02/13 15:42
23F:推 speculator : 大概就是這東西對良率要求很高 也會很貴吧 02/13 15:50
24F:推 as6633208 : 嗯...基本上歐噴醬,近期操作本質都是一直試著找回 02/13 16:01
25F:→ as6633208 : 自己的主導權,但其實內心深處大家越不怕他,歐噴醬 02/13 16:01
26F:→ as6633208 : 心裡越怕== 本來chatgpt 一哥,先被Gemini 壓制,然 02/13 16:01
27F:→ as6633208 : 後又要被Anthropic追過,其實歐噴醬現在最怕的反而 02/13 16:01
28F:→ as6633208 : 是老黃跑去大力幫anthropic,唉,好可憐,歐噴醬科 02/13 16:01
29F:→ as6633208 : 技政客組局快極限了嗎,唯一沒有從0開始到千億市值 02/13 16:01
30F:→ as6633208 : 的公司ceo,靠著科技政客組局和權力鬥爭看來快到極 02/13 16:01
31F:→ as6633208 : 限了,科技發明家從0開始,白手起家經營到七巨頭的 02/13 16:01
32F:→ as6633208 : 企業,ceo的還是比較有料,看著猶太屁精這樣真的覺 02/13 16:01
33F:→ as6633208 : 得有點可憐== 02/13 16:01
34F:→ appledick : GG:這誰能做啊? 02/13 16:04
35F:推 roseritter : 這顆就是拼超爆量小核,缺陷多到某個程度就不划算惹 02/13 16:04
36F:→ roseritter : ,能用核變的更少 02/13 16:04
37F:→ as6633208 : 他爬到了一個不屬於他的高度,該均值回歸了,跟 賈 02/13 16:05
38F:→ as6633208 : 伯斯 馬斯克 祖克柏 黃仁勳這些從白手起家經營到現 02/13 16:05
39F:→ as6633208 : 在的ceo還是有點差距阿,anthropic 那個ceo達利歐還 02/13 16:05
40F:→ as6633208 : 比較像創業家,感覺奧特曼...胸口的光開始閃紅燈快 02/13 16:05
41F:→ as6633208 : 要沒光了 02/13 16:05
42F:→ roseritter : 反倒是一般的晶片,壞的部分遮蔽後還能當次貨賣 02/13 16:06
43F:推 as6633208 : 看好他的猶太血統,但感覺同樣是猶太人,怎麼神力好 02/13 16:09
44F:→ as6633208 : 像還是有差 02/13 16:09
45F:推 breathair : Cerebras 用備用核心避開單點故障整片報廢的問題, 02/13 16:14
46F:→ breathair : 理論上良率不會差喔,而且他不用CoWoS封裝,理論上 02/13 16:14
47F:→ breathair : 產能出的來喔,而且速度理論上會比機櫃式solution 02/13 16:14
48F:→ breathair : 更好,當然,以上都是理論 02/13 16:14
49F:推 edison106 : 這篇說的正確 02/13 16:17
50F:→ edison106 : 除了良率 這麼大片光要測試都不知道要搞多久了 成 02/13 16:24
51F:→ edison106 : 本一定高到靠北 02/13 16:24
52F:推 b325019 : 都幾年了還頭鐵搞超大晶片真的是不怕死 02/13 16:29
53F:推 uodam64402 : 一片晶圓只能產一片晶片,這種肯定要作損害控管分割 02/13 16:31
54F:→ uodam64402 : ,切分成數十到百多個區域來剔除不良區,以提升晶片 02/13 16:33
55F:→ uodam64402 : 可使用程度吧,這東西肯定比GB-200的晶圓總價貴不少 02/13 16:33
56F:推 as6633208 : 晶片設計這塊啦 老黃的護城河包含設計技術、客戶關 02/13 16:35
57F:→ as6633208 : 係、產業鏈關係,深不見底,看看全村希望amd 一項沒 02/13 16:35
58F:→ as6633208 : 跟上財報就撐不住被華爾街看破手腳,另外自研的那些 02/13 16:36
59F:→ as6633208 : 笑話看看就好,孤狗買老黃晶片的力道還比誰都還用力 02/13 16:36
60F:→ as6633208 : ,想自己設計,先搞定好台積電產業關係吧== 連社交 02/13 16:36
61F:→ as6633208 : 都捨不得來台灣,台積產能當然老黃優先,大家都馬知 02/13 16:36
62F:→ as6633208 : 道老黃壟斷晶片業還抓到趨勢,就希望他不要賣這麼貴 02/13 16:36
63F:→ as6633208 : 而已,至於台積電在這波的產能更是關鍵中的關鍵== 02/13 16:36
64F:→ wolver : 等孫正義那300億燒完奧特曼就會沒亮燈倒了 02/13 16:36
65F:推 gladopo : 我也是覺得晶片硬要這麼大頭太鐵,好處就是不用跟老 02/13 16:39
66F:→ gladopo : 黃搶先進封裝 02/13 16:39
67F:推 as6633208 : 之前全村希望是什麼,各家自研晶片+博通+amd+intel 02/13 16:42
68F:→ as6633208 : ,取代老黃+台積電壟斷,結果財報出來各各笑話冠軍 02/13 16:42
69F:→ as6633208 : ,intel良率大問題,amd營收不理想,博通和amd全都 02/13 16:42
70F:→ as6633208 : 離不開台積電,硬要說台積成了這波大贏家,代工出奇 02/13 16:42
71F:→ as6633208 : 蹟 02/13 16:42
72F:推 misakiitoh : 感謝分享!! 02/13 16:44
73F:→ as6633208 : 喔至於老黃跟台積的關係相比其他笑話冠軍的自研晶片 02/13 16:46
74F:→ as6633208 : ,不說了,ceo來台灣social沒幾次,產能是搶的贏老 02/13 16:46
75F:→ as6633208 : 黃有事沒事就過來social的?然後更好笑七巨頭嘴巴喊 02/13 16:46
76F:→ as6633208 : 自研晶片,身體買老黃晶片比誰都用力,資本支出一兩 02/13 16:46
77F:→ as6633208 : 千億砸,不是說自研省錢,省得錢?之前那波自研敘事 02/13 16:46
78F:→ as6633208 : 財報和指引一出來跟笑話沒兩樣 02/13 16:46
79F:推 TameFoxx : 反正在這裡講錯也沒人在乎吧,就繼續亂講就好 02/13 16:56
80F:推 ProTrader : 這種產品類似超級電腦性質 用的起的廠商肯定超少 02/13 17:02
81F:→ ProTrader : 就算成功 產片量一定很低 因為沒人用的起 02/13 17:03
82F:推 madeinheaven: 不會成功的 02/13 17:04
83F:→ ProTrader : 房市產品有套房二房三房四房...豪宅 02/13 17:04
84F:→ ProTrader : 這產品是造鎮甚至建城的等級 02/13 17:05
85F:→ ProTrader : 然後不管怎樣 台積電肯定是最大贏家 02/13 17:06
86F:推 josephpu : 老黃還是大領先,但矽晶片就是未來5~10年戰略資源 02/13 17:08
87F:→ josephpu : 從設計到量產到供應鏈關係都是,巨頭不願意擺爛任 02/13 17:08
88F:→ josephpu : 由老黃宰他們。哪怕微軟阿祖兩家起步最晚的,都還 02/13 17:08
89F:→ josephpu : 在投入asic。概念其實有點類似中國現在一邊走私, 02/13 17:08
90F:→ josephpu : 一邊還是積極投入國內自產 02/13 17:08
91F:→ josephpu : openAi最大的問題是沒有巨頭的現金流卻做著巨頭在 02/13 17:12
92F:→ josephpu : 做的事,但它真的熬過去那就不一樣了 02/13 17:12
93F:推 Gaujing : Amd 比較有影響 02/13 17:20
94F:→ edison106 : 良率 sram 測試 全部都是成本 02/13 17:25
95F:→ kivan00 : 機櫃空間很貴 你能忍受幾個人在一間公司整天睡覺不 02/13 17:35
96F:→ kivan00 : 做事 冷氣還不能繞過他 02/13 17:35
97F:推 realskyer : 無話可說,感謝W大分享! 02/13 17:52
98F:→ realskyer : 推淺顯易懂 02/13 17:52
100F:→ kamitengo : 前年去聽了下,Cerebras表示他們的設計理念是你本 02/13 18:10
101F:→ kamitengo : 來就是要預設裡面的device是fail的,裡面設計了相 02/13 18:10
102F:→ kamitengo : 當多的redundancy,當然D0會影響每片的performance 02/13 18:10
103F:→ kamitengo : 有差,所以當場與會的主要問他你如何測試與sorting 02/13 18:10
104F:→ kamitengo : ?對於每片性能差異你如何建立business model讓客 02/13 18:10
105F:→ kamitengo : 戶買單?我自己判斷他采用近存運算主要用途在推論 02/13 18:10
106F:→ kamitengo : 效率,所以你也不用擔心他cuda相容。 02/13 18:10
107F:推 lane34 : CEREBRAS我一直很疑惑它們為何可以活這麼久 02/13 18:19
108F:推 myyalga : 難怪散熱又噴~原來是cerebras 帶起來的! 02/13 18:49
109F:推 hellomo : 好期待open醬被打下去,好興奮 02/13 19:08
110F:推 sdbb : 謝謝,新年快樂 02/13 19:30
111F:推 myyalga : Cerebras感覺是比較大顆的cpu,跟CPU裡面有快取、暫 02/13 19:31
112F:→ myyalga : 存,感覺不會是取代gpu,而是更專業算力分工! 02/13 19:31
113F:→ myyalga : — 02/13 19:31
114F:→ myyalga : 不過gpt 的思考模式倒是有感提升速度,從幾分進化成 02/13 19:31
115F:→ myyalga : 幾秒。 02/13 19:31
116F:推 myyalga : 這樣的速度才爽,以前都等到快睡著 02/13 19:33
117F:推 ppuuppu : 99老黃 99狗狗 霸脫惹 02/13 19:38
118F:推 jiansu : 剛剛查了一下Gemini 這個推理訓練都能用 初期建置 02/13 19:56
120F:→ jiansu : jpeg 直接和ai 然後再去驗證避免幻覺吧討論 02/13 19:56
121F:推 ckpetercheng: 老黃真的別買 gpu在ai的市場正在萎縮 02/13 19:58
122F:推 coke7 : 感謝TQ王的分享和苦口婆心解說 02/13 21:16
123F:推 kobebrian : 萎縮??成長趨緩=萎縮?我有看錯嗎 02/13 21:27
124F:→ kobebrian : 頂多沒辦法再每年噴80% 02/13 21:27
125F:→ as6633208 : 老黃的問題不是公司基本面,是股票市值太大,4.5萬 02/13 21:38
126F:→ as6633208 : 億的市值,噴10%大概要5000億資金灌進去,資金這種 02/13 21:38
127F:→ as6633208 : 規模的資金灌給5000億的中小盤股可以噴100%了 02/13 21:38
128F:推 kobebrian : 市值大是個問題 但營收開出來你不想買都不行 02/13 22:16
129F:→ kobebrian : 人家就是賺爛了啊 02/13 22:17
130F:→ kobebrian : 台積電之前盤了將近一年 最後還是噴 02/13 22:17
131F:推 ckpetercheng: 也沒有不想買都不行啊 這半年以上好像都是死的 02/13 23:24
132F:推 ckpetercheng: 台積電沒對手 現在gpu的對手已經在門口敲門了 02/13 23:26
133F:推 damnedfish : 一片晶圓切一顆晶片的良率我很懷疑這有人敢作 02/14 04:21
134F:噓 rebel : 被打臉還找一堆藉口 要用淺顯易懂的方式講沒問題 02/14 09:30
135F:→ rebel : 但淺顯易懂到大方向全錯那叫你完全搞錯被打臉好嗎 02/14 09:30
136F:→ rebel : 你講的良率問題你以為分析師都沒想過嗎 這東西的問 02/14 09:30
137F:→ rebel : 題不在那 在散熱 還有平均成本不見得比GPU 低 這就 02/14 09:30
138F:→ rebel : 是短跑選手 長途跑起來八成會輸 但總有些賽道是短 02/14 09:30
139F:→ rebel : 跑的天下 02/14 09:30
140F:→ rebel : 照我的觀察 TQQQ王就是討厭一項事物時就會找一堆他 02/14 09:40
141F:→ rebel : 不好的消息來講 但忽略掉那些講它好的 俗稱的手上 02/14 09:40
142F:→ rebel : 拿鐵錘 看到的東西全是釘子 看文時不可不慎 02/14 09:40
143F:推 s1001326 : 99老黃 快死了 02/14 12:05
144F:→ edison106 : 那些號稱xxx殺手的全部都墳頭長草了 02/14 14:15
145F:推 Amulet1 : 老黃搞這個搞二十年了 其他人不可能追 02/14 16:53
146F:→ Amulet1 : 而且老黃遇過無數次倒閉危機 甚至現在都有危機感 02/14 16:54
147F:→ Amulet1 : 他跟賈伯斯基本上算是同類人 02/14 16:54