OpenAI推出GPT-5.3-Codex-Spark在Cerebras晶片上運行,超越過去速度

週四,OpenAI推出了GPT-5.3-Codex-Spark,這是其首個生產AI模型在非Nvidia硬件上運行。該模型部署在由Cerebras提供的晶片上,專為編碼任務設計,展示了每秒超過1,000個tokens(資料塊)的驚人速度。據報導,這一性能大約是其前身的15倍。

相比之下,Anthropic的Claude Opus 4.6在其新推出的高級快速模式中,其速度大約是標準68.2每秒tokens速度的2.5倍,儘管它比Codex-Spark模型更先進且更大。

"Cerebras是很好的工程合作夥伴,我們對將快速推理作為一個新的平台功能感到興奮," OpenAI的計算主管Sachin Katti在一份聲明中評論道。

目前,Codex-Spark作為研究預覽版,提供給ChatGPT Pro訂閱者,每月費用為200美元,通過Codex應用程式、命令行界面和VS Code擴展供使用。此外,OpenAI正向選定的設計合作夥伴推出API訪問。該模型以128,000-token上下文窗口推出,目前僅限於純文本處理。

該版本緊隨OpenAI本月早些時候發布的完整GPT-5.3-Codex模型之後,該模型擅長於複雜的編碼任務。相反,Spark更加注重速度而不是知識深度,使其成為編碼的理想選擇,因為它作為一個純文本模型運行,而不同於其較大的兄弟進行的通用任務。

據OpenAI報導,Spark的表現超過了舊版GPT-5.1-Codex-mini,在SWE-Bench Pro和Terminal-Bench 2.0上的軟件工程評估中完成任務所需的時間顯著縮短。不過,這些性能指標尚未由外部來源獨立驗證。

比較而言,過去的測試顯示Codex的性能較慢;根據Ars在12月的評估,它完成掃雷遊戲創建所需時間比Anthropic的Claude Code多了一倍。

在編碼代理的競爭環境中,GPT-5.3-Codex-Spark達到每秒1,000個tokens的成就比OpenAI之前使用其基礎設施部署的任何模型都有顯著進步。根據Artificial Analysis的獨立基準,OpenAI最快的基於Nvidia的模型未達到此類速度:GPT-4o約147每秒tokens,o3-mini約167,GPT-4o mini約52每秒tokens。

← 返回新聞