OpenAI представила GPT-5.3-Codex-Spark — облегчённую версию своей флагманской кодинг-модели GPT-5.3-Codex, оптимизированную для работы в реальном времени. Модель генерирует более 1000 токенов в секунду и работает на специализированном чипе Cerebras Wafer Scale Engine 3, а не на GPU.
Codex-Spark создана для быстрых интерактивных задач: исправления кода, рефакторинг и итерации интерфейсов с мгновенной обратной связью. Генерация текста ускорена в 15 раз, время до первого токена сократилось на 50%, а задержка на каждый запрос — на 80% благодаря постоянному WebSocket-соединению.
За скорость приходится платить точностью: на бенчмарке SWE-Bench Pro Spark достигает около 52%, в то время как GPT-5.3-Codex набирает ~57%, затрачивая до 16 минут. Тем не менее, новая модель уверенно обходит GPT-5.1-Codex-mini.
Codex-Spark уже доступна в режиме research preview для подписчиков ChatGPT Pro через приложение Codex, CLI и расширение VS Code. Контекстное окно составляет 128 тыс. токенов, пока только текст. OpenAI также открыла доступ к модели через API для ограниченного круга партнёров, а Cerebras отмечает потенциал технологии для нового уровня взаимодействия с ИИ.

