OpenAI發表首款採用Cerebras晶片模型

OpenAI 週四 (13 日) 宣布,推出專為即時編碼打造的新模型 GPT-5.3-Codex-Spark,並首度確認該模型可在 Cerebras Systems 的晶片上運行,象徵 OpenAI 在 AI 基礎設施供應商多元化策略上邁出關鍵一步。這也是 OpenAI 今年 1 月與 Cerebras 簽署逾 100 億美元合作協議後的首個公開成果。
OpenAI 表示,GPT-5.3-Codex-Spark 是其程式碼自動化軟體 Codex 的精簡版,主打更快回應速度,以部分效能作為交換。
該公司指出,新模型生成速度較前代產品提升 15 倍,每秒可輸出超過 1,000 個 token,定位為即時編碼協作的低延遲方案。
目前 GPT-5.3-Codex-Spark 已率先向 ChatGPT Pro 訂閱用戶開放研究預覽版,並透過 Codex 應用程式、命令列介面與 Visual Studio Code 擴充提供服務。
OpenAI 並透露,Codex 目前週活躍用戶已超過 100 萬人,過去十天下載量亦突破 100 萬次,顯示 AI 編碼工具市場競爭升溫下,OpenAI 正加速搶占開發者入口。
不過,速度提升也伴隨能力妥協。
OpenAI 指出,Codex-Spark 在 SWE-Bench Pro 與 Terminal-Bench 2.0 等衡量複雜軟體工程任務的產業基準測試中,表現不如完整版 GPT-5.3-Codex。
OpenAI 稱這是可接受的權衡,因為對多數開發者而言,維持流暢的互動節奏比追求最極限的多步驟推理更重要。
技術規格方面,Codex-Spark 配備 128,000 token 的上下文窗口,僅支援文字輸入,不支援圖像或多模態。OpenAI 也表示,將提供少數企業合作夥伴 API 存取權,以評估整合可能性,並計劃在未來幾週依據實際工作負載調整後擴大開放範圍。
OpenAI 同時說明,這次低延遲能力的提升不僅來自 Cerebras 硬體,該公司也在整體推理堆疊進行最佳化,包括導入持久 WebSocket 連線與 Responses API 改進,使所有 Codex 模型受益。
OpenAI 指出,最佳化成果包括客戶端與伺服器往返開銷降低 80%、每 token 開銷降低 30%、首 token 時間降低 50%。
Cerebras 方面則表示,其第三代晶圓級引擎採用餐盤大小的單晶片設計,內含 4 兆個電晶體,可減少傳統 GPU 叢集在推理階段因分散運算而產生的大量通訊開銷。
Cerebras 技術長兼聯合創辦人 Sean Lie 認為,與 OpenAI 的合作將有助於探索快速推理帶來的新互動模式與新用例,並稱這次「只是開始」。
值得注意的是,OpenAI 與 Cerebras 的合作也被市場視為其降低對輝達依賴的最新訊號。
報導指出,輝達與 OpenAI 去年秋季曾宣布一項 1000 億美元規模的策略合作,但近期多方消息稱該協議已陷入停滯。
儘管輝達執行長黃仁勳公開否認雙方關係緊張,並表示「沒有任何戲劇性衝突」,但外界普遍認為,OpenAI 正加速推進多供應商布局,以避免過度依賴單一晶片來源。
除了 Cerebras,OpenAI 也持續擴大與其他晶片供應商合作。
消息指出,OpenAI 已與 AMD 達成多年部署 6GW GPU 的協議,並同意向博通採購客製化晶片與網路組件。OpenAI 發言人強調,OpenAI 與輝達的合作關係仍是「基礎性的」,並將持續評估各種用例中性價比最高的晶片;在研究與推理等應用場景,GPU 仍是首選。
在外部競爭加劇的同時,OpenAI 近期也面臨內部動盪與外界審視,包括安全與使命對齊團隊重組、研究人員離職,以及在 ChatGPT 中導入廣告的爭議。分析認為,在 AI 編碼助理市場競爭日益激烈的情況下,Codex-Spark 的推出不僅是產品更新,也反映 OpenAI 正把推理成本與延遲視為面向消費者產品擴張的核心戰場。
OpenAI 表示,未來將朝向「快速互動編輯」與「長期運行自主任務」融合的方向發展,並透過多模型與多代理協作,讓開發者能同時享有即時回應與複雜任務處理能力。
市場關注,Codex-Spark 所承諾的速度提升,是否能真正轉化為實質生產力提升,並成為 OpenAI 在競爭中維持領先的關鍵籌碼。