[新聞] 告別GPU OpenAI推出極速晶圓引擎模型

原文標題: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras 原文連結: https://www.cerebras.ai/blog/openai-codexspark 發布時間: 2026-02-12 記者署名: James Wang 原文內容: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b y Cerebras, is available in research preview. This marks the first release in ou r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti me software development where responsiveness matters as much as intelligence. Po wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli ng near-instant feedback in live coding environments. 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近 乎瞬時的回饋。 Agentic coding has fundamentally changed software development. For the first tim e, machines can autonomously work for hours or days without human supervision. B ut this mode of interaction can also leave developers feeling out of the loop wi th long wait times and less opportunity to direct the work. As software developm ent is iterative, developers need to inject taste, direction, and sensibility al ong the way. Codex-Spark is designed for this kind of real-time, iterative work. It is fast, responsive, and steerable, putting the developer back in the driver ’s seat. Codex-Spark is a smaller version of Codex optimized for fast inference. On agent ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0, it produces more capable responses than GPT-5.1-Codex-mini while completing tas ks in a fraction of the time. Codex-Spark excels at making precise edits, revising plans, and answering contex tual questions about your codebase. It’s a fast way to visualize new layouts, r efine styling, and test new interface changes. 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新 掌握主導權。 Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min i,且完成任務的時間僅需後者的一小部分。 Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。 "Cerebras has been a great engineering partner, and we’re excited about adding fast inference as a new platform capability. Bringing wafer-scale compute into p roduction gives us a new way to keep Codex responsive for latency-sensitive work , and we’re excited to learn from developer feedback on how to compose our comp ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria l Compute at OpenAI. OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算 能力整合進流暢的工作流中。」 Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade r goal is to accelerate a wide spectrum of AI workloads across both real-time an d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg est on-chip memory of any AI processor, enabling high-speed inference at thousan ds of tokens per second per user. The architecture scales out to thousands of sy stems, extending fast memory capacity into the multi-terabyte domain to support trillion-parameter models for both training and inference. We expect to bring th is ultra-fast inference capability to the largest frontier models in 2026. Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th e Codex app, CLI, and VS Code extension, with API access rolling out to select d esign partners. Try Codex-Spark rolling out today. Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步 (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。 Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex -Spark。 心得/評論: 上個月我有發了兩家合作的消息, 今天正式推出第一個合作產品,推理速度破千的GPT-5! 給大家一個比例尺:平常用的GPT-5速度不到一百。 Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算, 由於能直接載入整個AI模型到運算單元上, 速度是GPU的數十倍, 這是Cerebras成立以來第一個企業級應用, 或將衝擊整個GPU市場。

推文討論 177

1F tsubasawolfy 02/13 12:44
。在LLM上每token產生的焦耳數更低。
2F roseritter 02/13 12:17
100x-defect-tolerance-how-cerebras-solved-the-yi
3F RaiGend0519 02/13 12:45
5奈米對台積電沒有太大優勢,看量了
4F griffon569 02/13 15:51
Cerebras的WSE-3提到TSMC的新聞都去年的事了
5F josephpu 02/13 11:36
cpu藥丸惹 gpu藥丸惹 tpu藥丸惹
6F roseritter 02/13 12:18
eld-problem 良率夠高 壞點爆掉的小核夠少
7F Brioni 02/13 11:20
GG噴 NV哭
8F pttstock 02/13 11:28
GPU is over!
9F roseritter 02/13 12:16
GPU 小片 配合HBM去做 這個就是一體機
10F furbyyeh 02/13 11:51
NV is over
11F pinkg023 02/13 12:09
NV要幾根
12F wolver 02/13 12:47
pass, 文組可能比較喜歡
13F roseritter 02/13 12:20
SM的核心 和WSE-3核心大小不一樣 同樣的壞點率
14F stanleyplus 02/13 12:11
TSM 322仙人指路
15F onekoni 02/13 11:28
xddd 啥都要扯到台積電 2330真的無腦多
16F fakelie 02/13 12:16
三星5nm良率有上來ㄉ話 吃得到
17F yutaka28 02/13 11:49
不是其實都是依賴台積的良率?
18F griffon569 02/13 15:53
不然這新聞跟TSMC根本沒啥關聯...
19F tsubasawolfy 02/13 12:32
不要用。
20F gladopo 02/13 12:03
之前的關鍵字是 44GB on-chip SRAM
21F onekoni 02/13 12:16
五奈米廠折舊早攤完了 純純的利潤像大海一樣啊
22F roseritter 02/13 12:09
人家直接用SRAM 粗本的
23F roseritter 02/13 12:21
你得到整體可用面積不同
24F leeroy277 02/13 13:41
先搶的到產能再說
25F JoeyChen 02/13 12:19
全部做在一片上理論上更快吧?
26F b9513227 02/13 11:19
又是台積電
27F jackgn 02/13 14:02
可以做,那這個一整片的,良率需要多少?
28F changmary 02/13 12:12
台G利空 高價GPU換低價RISC
29F JoeyChen 02/13 12:12
問一下 那gpu可以也套用這種晶圓級記憶體模式嗎 反
30F JoeyChen 02/13 13:31
問啥大家不看好這架構 不是很符合AI發展的需求嗎
31F tsubasawolfy 02/13 12:32
在多張gpu跟gpu之間一直把資料搬來搬去。這種直接大
32F redbeanbread 02/13 13:23
太太太 咦 五奈米
33F ohya111326 02/13 12:08
好了啦 奧特曼 沒人相信你
34F tsubasawolfy 02/13 13:08
它們完成前面兩代的經驗。所以還是GG的天下
35F a79111010 02/13 11:58
就說了會走BTC的路 顯卡之後就是專用礦機的概念
36F pinkg023 02/13 12:46
度推
37F h1y2c3y2h1 02/13 13:19
從燒錢跑道換到另一個燒錢跑道
38F motan 02/13 12:14
快嗎
39F onekoni 02/13 13:56
想太多 現在2奈米廠商排隊搶 輝達寧可捏著也不願意
40F roseritter 02/13 12:10
我是覺得產能很受限啦 除非你早早下很大單等著
41F gladopo 02/13 11:52
整片最難的部份台積包了,有凱子付錢能做就做
42F tsubasawolfy 02/13 12:32
晶圓可以省去搬運時間。壞點問題就在硬體層面繞過去
43F yutaka28 02/13 11:48
最困難的技術不是其實是台積嗎
44F JoeyChen 02/13 12:12
正記憶體越多越快越好
45F mopa 02/13 12:08
浪費
46F tsubasawolfy 02/13 12:44
熱,它是低頻跟大面積,後面直接做液冷微流道帶走熱
47F roseritter 02/13 12:19
理論上就能做 該文寫得很淺白
48F JoeyChen 02/13 12:54
用2奈米做會n次方快嗎
49F JoeyChen 02/13 12:09
直接載入整個AI模型 所以關鍵是記憶體?
50F sonatafm2 02/13 11:29
看成曲速引擎 想說有曲速AI引擎都出來了還不飛天
51F haworz 02/13 11:59
硬體化嗎?
52F searchroy 02/13 11:36
管你多快,沒電都算庫存
53F tabrisPTT 02/13 18:19
繼續吹牛,看何時被看破手腳
54F tmdl 02/13 11:45
美股不歡迎太快的
55F redbeanbread 02/13 13:21
老黃6090賣五萬我就原諒你
56F lusifa2007 02/13 12:17
腦嗎?
57F JoeyChen 02/13 13:31
良率問題可能也被GG解決了
58F saiboos 02/13 14:06
藥丸
59F yutaka28 02/13 11:49
設計部分困難的點在哪?其他公司無法設計嗎?
60F tomdavis 02/13 11:24
跟去年說Deepseek 會終結運算需求一樣的知識水準
61F onekoni 02/13 13:56
退單
62F la8day 02/13 12:28
這家真的有人用喔 厲害了
63F gladopo 02/13 12:08
這東東真的紅的話就肯定是gg的單,沒法跑
64F RaiGend0519 02/13 12:46
這條路走得通,對岸也看到光XD
65F ZO20 02/13 11:24
還是要台積 結案
66F griffon569 02/13 15:52
除非看到WSE-3因為市場需求需要增加晶圓訂貨量
67F vc39 02/13 12:19
電做的晶片,All in 2330跟TSM就對了。
68F a79111010 02/13 11:59
顯卡終究只是過度的產品 需求上來就需要專門的
69F Brioni 02/13 11:21
黃爸直接砸錢買下來掐死你
70F s1001326 02/13 12:03
99老黃 快死了
71F cpz 02/13 12:14
回答快但答案垃圾有什麼用
72F strlen 02/13 11:52
老黃這輩子就這樣惹
73F river98 02/14 08:12
這很難啦,封裝、冷卻系統怎麼接?
74F griffon569 02/13 15:50
這篇文章是要炒TSMC的股票嗎?本文根本沒提到TSMC
75F roseritter 02/13 12:03
76F holdmyass 02/13 13:30
2330:你們打完叫我
77F onekoni 02/13 13:55
2奈米輝達不用亞麻要搶喔 你敢退單嗎
78F lusifa2007 02/13 12:20
5奈米三星已經可以低價搶單了
79F pinkg023 02/13 12:46
5奈米應該只是現階段吧,軍備競賽沒理由不往更高密
80F grtfor 02/13 11:47
AI大廠都想要逃離NV
81F a23268744 02/13 12:19
GG還有產能嗎
82F jympin 02/13 12:08
GPU IS OVER?
83F allenmusic 02/13 12:08
gpu太貴了
84F Marginal 02/13 11:20
GPU需求下修? GPU市場要被衝擊了?
85F DonDonFans 02/13 11:22
NV 88
86F beavertail97 02/13 12:12
NV之前不是收購GROQ? 看何時把LPU整合入GPU
87F Like5566Like 02/13 11:42
NV掰
88F RaiGend0519 02/13 12:44
NV涼了
89F s881720 02/13 11:41
OAI還有錢喔 嘻嘻
90F sonyvaio 02/13 12:55
Open AI 就是差評
91F fay001 02/13 13:29
openai就是不長進,gemini 聰明又博學
92F fakelie 02/13 12:15
WSE-3ㄉ話 5nm就夠ㄌ
93F roseritter 02/13 11:48
一次整片的 成本和產量.....
94F fakelie 02/13 12:13
三星5nm良率有沒有上來?有ㄉ話GG就GG懶
95F kunyi 02/13 11:57
三星五奈米也搶不到?
96F gladopo 02/13 12:20
下5nm又不走先進封裝還好啦,只是聽說這東東很難做
97F vc39 02/13 12:19
不管幾奈米廠商都會想辦法讓自己的產品可以用台積
98F roseritter 02/13 12:46
中芯去做 應該會哭出來
99F roseritter 02/13 11:53
之前很少人 敢搞這種專武等級的產品
100F josephpu 02/13 11:35
亂下標才有高能兒看啊 嘻嘻
101F onekoni 02/13 13:57
亞麻T4晶片現在擠不進去單 你敢退亞麻直接塞進來
102F roseritter 02/13 12:06
他就WSE-3超小核 佈滿整塊
103F mopa 02/13 12:08
以後做出來的晶片不會是圓形吧 跟晶圓一樣大 完全不
104F orze04 02/13 16:15
你們要怎麼用鏟子我不管
105F jackgn 02/13 14:02
先不論成品,這個問題是本來整片晶圓就算良率低還是
106F vc39 02/13 12:16
全世界股民都要買台積電了
107F yutaka28 02/13 11:48
其實真的要整片的話,我一直不懂真正獨家在哪裡?
108F onekoni 02/13 12:15
出什麼大事 舊產能再利用xddd 省capex 噴爛
109F howdiee 02/13 11:29
又又又又又要被取代了
110F abc0922001 02/13 11:42
又是台積電代工,賣鏟子怎麼輸阿
111F AbianMa19 02/13 13:26
反正繼續噴
112F madeinheaven 02/13 13:23
取代不了 因為這個超級貴
113F lusifa2007 02/13 12:13
台積但不是2奈米 要出大事了
114F cylu7878 02/13 12:29
台積又要噴 出關目標價2330
115F onekoni 02/13 11:28
台積電
116F s56565566123 02/13 11:33
台積電又噴
117F ncucosine 02/13 17:16
台積電又贏
118F L1ON 02/13 11:16
台積電噴
119F FirePopcorn 02/13 12:07
台積電噴噴噴噴噴
120F house911 02/13 11:41
台雞雞受惠 ? 封裝測試也會受惠 ?
121F madeinheaven 02/13 13:35
因為很貴
122F gn00273680 02/13 15:30
好好用的模型,可惜還不能識別圖片
123F iwcuforever 02/13 13:03
好險還有台積,但我的alphabet是不是下去了
124F wolver 02/13 13:07
孫正義那300億看來撐不到2027了
125F gladopo 02/13 12:02
察Cerebras就有相關說明了
126F roseritter 02/13 12:27
封裝也是個問題 也太大
127F kingofsdtw 02/14 13:38
所以成本更高?
128F moto000 02/13 12:39
抄goog?
129F Gipmydanger 02/13 11:24
推論跟訓練本來尋求就不一樣
130F v21638245 02/13 13:38
整天叫,去空nv阿
131F good10740 02/13 12:26
整片晶圓發熱量,也挺驚人
132F maimss 02/13 11:18
會不會有人不玩了?….
133F roseritter 02/13 12:15
架構不一樣 H100 die size 814 WSE-3 46225
134F MoneyDay5566 02/13 11:20
沒人在乎
135F Lhmstu 02/13 11:28
沒人在乎
136F cwolf 02/13 11:33
滿庫存的GPU沒電力用?投放廣告?
137F nrrakaur 02/13 12:18
產能都被NV包了,這晶片找誰做?
138F mdkn35 02/13 13:16
甲骨文:幹 要呷骨了
139F PA5566 02/13 11:56
直接用晶圓跑啊 真的假的
140F oyaji5566 02/13 15:07
看來今天晚上又要七崩賢
141F fakelie 02/13 12:20
看來就是計算晶片生產門檻降低 記憶體需求增加
142F roseritter 02/13 13:15
看產量吧,量少只能當專武用
143F tsubasawolfy 02/13 13:08
硬體回答說只有GG 三星 INTEL有能力。但只有GG有跟
144F scum5566 02/13 11:38
算這麼快 CPO該噴了吧
145F kload 02/13 11:24
老黃:我不投資你就扯我後腿?
146F viorc 02/13 16:05
老黃上次來台灣提前暗示了?
147F qazw5520 02/13 12:12
老黃掰掰
148F gladopo 02/13 12:29
老黃買下來就又少個對手了
149F keven92110 02/13 11:56
聽不懂 晶圓級引擎是什麼意思
150F tomdavis 02/13 11:23
能訓練再來說取代gpu 都幾年了還在亂下標 不專業
151F apolloapollo 02/13 11:40
蛋雕
152F motan 02/13 12:14
蛤?所以只是記憶體反應速度?sram 不是本來就反應
153F tsubasawolfy 02/13 12:32
要gpt用平鋪直敘的方式解說。回答因為現行LLM運算是
154F h311013 02/13 23:57
訓練需要GPU 推理TPU的效率比較好…GG 贏
155F deann 02/13 11:30
誰代工?
156F qweertyui891 02/13 11:31
誰用鏟子 鏟子是什麼形狀 不重要
157F gladopo 02/13 11:36
超巨大那個嗎? 成本很高的說
158F lusifa2007 02/13 12:17
輝達哭哭 台積二奈米可能要少訂單還不出大事哦 有
159F ganninian 02/13 12:14
輝達要蛋雕了嗎
160F poeoe 02/13 12:15
這怎麼可能對NV有啥重大影響啦……
161F furnaceh 02/13 12:25
這種晶片怎麼可能說做就做得出來
162F haworz 02/13 11:59
這篇需要翻譯翻譯,晶圓引擎是啥?用整片晶圓把GPT
163F woko 02/13 11:19
這超大威化餅真的能吃啊...?太厲害了
164F tsubasawolfy 02/13 12:16
這跟GOOGLE那個TPU同概念? 不過做鏟子的鐵都2330的
165F mopa 02/13 11:17
還是要台積電...
166F fakelie 02/13 12:08
那就是雞雞5nm + 更多記憶卡蛙
167F ccdrv 02/13 11:16
都不用gpu NV要涼了
168F MorikonHase 02/13 11:52
鏟子
169F joygo 02/13 11:18
關鍵字 台積電
170F turnkolan 02/13 12:15
關鍵字:台積
171F goodevening 02/13 11:41
難怪老黃說1000億投資沒有確定 果然被骨仔
172F redbeanbread 02/13 14:24
電力is over
173F devidevi 02/13 12:50
需要啥硬體,大家應該比較關心這個
174F tsubasawolfy 02/13 12:44
順便問了發熱量。回答說跟gpu是高頻小面積需要強散
175F away1000 02/13 19:19
顯卡可以降價了嗎
176F nightop 02/13 11:33
黃老爺要哭了
177F HiuAnOP 02/13 12:35
黃藥丸!