※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言:
:
: 原文標題:
: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras
:
: 原文連結:
: https://www.cerebras.ai/blog/openai-codexspark
:
: 發布時間:
: 2026-02-12
:
: 記者署名:
: James Wang
:
: 原文內容:
: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
: y Cerebras, is available in research preview. This marks the first release in ou
: r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
: me software development where responsiveness matters as much as intelligence. Po
: wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
: ng near-instant feedback in live coding environments.
: 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
: 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
: 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
: 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
: 乎瞬時的回饋。
: Agentic coding has fundamentally changed software development. For the first tim
: e, machines can autonomously work for hours or days without human supervision. B
: ut this mode of interaction can also leave developers feeling out of the loop wi
: th long wait times and less opportunity to direct the work. As software developm
: ent is iterative, developers need to inject taste, direction, and sensibility al
: ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
: It is fast, responsive, and steerable, putting the developer back in the driver
: ’s seat.
: Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
: ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
: it produces more capable responses than GPT-5.1-Codex-mini while completing tas
: ks in a fraction of the time.
: Codex-Spark excels at making precise edits, revising plans, and answering contex
: tual questions about your codebase. It’s a fast way to visualize new layouts, r
: efine styling, and test new interface changes.
: 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
: 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
: 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
: 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
: 掌握主導權。
: Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
: 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
: i,且完成任務的時間僅需後者的一小部分。
: Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
: 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
: "Cerebras has been a great engineering partner, and we’re excited about adding
: fast inference as a new platform capability. Bringing wafer-scale compute into p
: roduction gives us a new way to keep Codex responsive for latency-sensitive work
: , and we’re excited to learn from developer feedback on how to compose our comp
: ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
: l Compute at OpenAI.
: OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
: 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
: 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
: 能力整合進流暢的工作流中。」
: Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
: r goal is to accelerate a wide spectrum of AI workloads across both real-time an
: d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
: est on-chip memory of any AI processor, enabling high-speed inference at thousan
: ds of tokens per second per user. The architecture scales out to thousands of sy
: stems, extending fast memory capacity into the multi-terabyte domain to support
: trillion-parameter models for both training and inference. We expect to bring th
: is ultra-fast inference capability to the largest frontier models in 2026.
: Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
: e Codex app, CLI, and VS Code extension, with API access rolling out to select d
: esign partners. Try Codex-Spark rolling out today.
: Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
: (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
: 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
: 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
: 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
: Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
: ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
: -Spark。
:
:
: 心得/評論:
:
: 上個月我有發了兩家合作的消息,
: 今天正式推出第一個合作產品,推理速度破千的GPT-5!
: 給大家一個比例尺:平常用的GPT-5速度不到一百。
:
: Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
: 由於能直接載入整個AI模型到運算單元上,
: 速度是GPU的數十倍,
: 這是Cerebras成立以來第一個企業級應用,
: 或將衝擊整個GPU市場。
:
:
我之前有分析過,
https://www.ptt.cc/bbs/Stock/M.1769589988.A.C87.html
Cerebras是用大力出奇蹟的方式,
晶片大小是其他GPU/TPU的百倍大小,
一片晶圓wafer 切出一顆,
這會導致良率極低
基本上,
Cerebras有兩個問題: 1. 良率, 2. 相容性(CUDA)
以OpenAI的軟體能力,
相信可以繞過CUDA 的相容性問題,
也就是說,
相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上運行,
所以對OpenAI+Cerebras而言,
最大的問題就是良率,
以Cerebras的良率跟體量,
不太可能可以吃下所有 ChatGPT Pro 用戶,
1%? 10%? 20%?
不確定能吃下多少的用戶量,
但是對NVDA 影響不大,
2nd solution 的AMD Intel可能就會受到影響
另外,
對於板上的大神與專家們的指教,
我回應幾句話,
我只是用國小數學以及大一基本課本的內容做解釋,
淺顯易懂, 不去賣弄專業,
主要目的是讓大家知道真相,
然後很多大神跟專家對我的提出的觀點,
有很多的指教以及抓錯,
其實,
我也不是笨蛋,
我當然知道我說法的問題,
只是主打一個淺顯易懂, 大方向正確,
這樣說吧!
要是良率可以用之前推文裡說的各種方式解決提高良率,
那為何Intel 三星還在為良率的問題被台積電打趴,
各種提高良率的方式,
都只是小部分的改進,
大方向跟大數字是不會差太多的,
的確,
Cerebras 的良率可能不會到1%那麼慘,
但是絕對絕對是極低良率 極低產量,
要是Cerebras產量夠大,
怎麼沒有大量部署到各大CSP廠,
撇開CUDA相容問題,
就是產量不夠,
而且這麼大的晶片一定是特殊機器特殊規格
然後,
因為Cerebras的良率問題,
所以Cerebras只能選擇台積電,
一樣用國小數學算一算就知道,
Cerebras面積這個大,
吃代工廠良率就更重
推文討論 1242