A corrida pelos modelos de IA voltados ao desenvolvimento ganhou mais um capítulo importante. Recentemente, a OpenAI anunciou o GPT-5.5, com disponibilização imediata para usuários do ChatGPT e do Codex em planos pagos selecionados. Além disso, o lançamento foca em algo que interessa diretamente a quem vive escrevendo código: tarefas de programação, uso de computador, trabalho intelectual e pesquisa que exigem contexto mais amplo e uso de ferramentas.
Mas afinal, o que realmente muda para o desenvolvedor no dia a dia? Vamos analisar os pontos que importam.
OpenAI – Por que a janela de contexto de 400K tokens muda o jogo no Codex
Primeiramente, vale destacar o ponto mais comentado entre desenvolvedores. No Codex, o GPT-5.5 está disponível para usuários dos planos Plus, Pro, Business, Enterprise, Edu e Go, com uma janela de contexto de 400K tokens.
Na prática, essa janela ampliada é relevante para tarefas de codificação que exigem acesso a mais arquivos de repositório, documentação, registros ou resultados de testes em uma única sessão. Ou seja, menos quebra de contexto e menos retrabalho ao alimentar o modelo com pedaços do projeto.
Além disso, segundo a OpenAI, o GPT-5.5 foi projetado para planejar, usar ferramentas, verificar seu trabalho e prosseguir com tarefas de codificação de várias etapas. Em outras palavras, o modelo pode lidar com trabalhos típicos de engenharia de software.
OpenAI Benchmarks de codificação: números que vão além do marketing
Por outro lado, todo lançamento vem cheio de promessas. Por isso, é importante observar os números. De acordo com a OpenAI, o GPT-5.5 supera o GPT-5.4 em três avaliações de codificação, utilizando menos tokens. Confira os destaques:
- Terminal-Bench 2.0: pontuação de 82,7% em fluxos de trabalho de linha de comando.
- SWE-Bench Pro: pontuação de 58,6% na resolução de problemas reais do GitHub.
- Expert-SWE: avaliação interna da OpenAI para tarefas de programação mais longas, com tempo médio estimado de conclusão humana de 20 horas.
O Terminal-Bench 2.0, por exemplo, avalia se os modelos conseguem concluir tarefas de linha de comando que exigem planejamento, iteração e uso de ferramentas. Já o SWE-Bench Pro testa se os modelos conseguem resolver problemas reais do GitHub.
O que dizem os primeiros testadores nos bastidores
Inclusive, vários dos primeiros testadores descreveram um comportamento de codificação mais robusto no Codex. Veja alguns relatos:
- Dan Shipper, fundador e CEO da Every: afirmou que o GPT-5.5 reproduziu o tipo de reescrita de sistema que um de seus engenheiros havia escolhido para uma correção pós-lançamento, enquanto o GPT-5.4 não conseguiu.
- Pietro Schirano, CEO da MagicPath: afirmou que o GPT-5.5 consolidou uma ramificação com centenas de alterações de front-end e refatoração em uma ramificação principal alterada, concluindo o trabalho em cerca de 20 minutos.
- Michael Truell, cofundador e CEO da Cursor: disse que o GPT-5.5 manteve-se focado por mais tempo e demonstrou um uso mais confiável da ferramenta do que o GPT-5.4.
Menos tokens, mesma latência: o impacto real no custo (OpenAI)
Outro ponto que merece atenção é o consumo. De acordo com a OpenAI, o GPT-5.5 utiliza menos tokens para concluir as mesmas tarefas do Codex. Consequentemente, o menor uso de tokens pode reduzir o custo das tarefas, especialmente quando os modelos precisam ler o contexto do repositório, inspecionar registros, executar testes e revisar vários arquivos.
Adicionalmente, o modelo apresenta latência por token semelhante à do GPT-5.4 em situações reais de execução. Isso significa que o GPT-5.5 alcançou pontuações de referência mais altas sem aumentar a latência por token na comparação com a versão anterior.
A OpenAI citou ainda o Índice de Codificação da Artificial Analysis, afirmando que o GPT-5.5 oferece desempenho de codificação superior pela metade do custo de alguns modelos concorrentes. Vale ressaltar que a empresa não incluiu detalhes completos de comparação de preços para esses modelos externos.
Bastidores da infraestrutura: GB200, GB300 e o papel do próprio Codex
Curiosamente, o GPT-5.5 também serviu como caso de uso interno. De acordo com a OpenAI, o modelo foi projetado, treinado e disponibilizado em sistemas NVIDIA GB200 e GB300 NVL72.
Mais interessante ainda: o Codex ajudou as equipes da OpenAI a testar ideias de infraestrutura e identificar otimizações que mereciam um trabalho de engenharia mais aprofundado. Um exemplo envolveu heurísticas de balanceamento de carga e particionamento usadas para distribuir as solicitações entre os núcleos do acelerador.
Antes do GPT-5.5, as requisições eram divididas em um número fixo de partes. Em contrapartida, o Codex analisou semanas de padrões de tráfego de produção e gerou algoritmos heurísticos personalizados para melhorar o particionamento. Como resultado, a OpenAI afirmou que essa mudança aumentou a velocidade de geração de tokens em mais de 20%. Entretanto, a empresa não especificou se a melhoria se aplica a todo o tráfego GPT-5.5 ou a uma parte específica.
Salvaguardas e o que isso significa para uso responsável
Naturalmente, com mais capacidade vêm mais responsabilidades. O GPT-5.5 passou pelo processo de segurança e governança da OpenAI, incluindo avaliações de preparação, testes específicos de domínio e avaliações direcionadas para capacidades avançadas de biologia e cibersegurança.
Atualmente, as capacidades biológicas, químicas e de cibersegurança do modelo estão sendo consideradas Altas de acordo com a Estrutura de Preparação da OpenAI. Ainda assim, o modelo não atingiu o nível de capacidade de cibersegurança Crítica da empresa.
Além disso, a OpenAI está aplicando controles mais rigorosos em torno de atividades cibernéticas de alto risco e uso indevido repetido. Profissionais de segurança cibernética verificados podem solicitar o Acesso Confiável para Cibersegurança. Começando pelo Codex, para usar modelos menos restritivos em trabalhos defensivos aprovados.
Disponibilidade e preços: quem pode usar e quanto vai custar
Por fim, chegamos à parte que todo dev quer saber. O GPT-5.5 está sendo disponibilizado para usuários dos planos Plus, Pro, Business e Enterprise do ChatGPT e do Codex. Já o GPT-5.5 Pro está sendo disponibilizado para usuários dos planos Pro, Business e Enterprise do ChatGPT.
Especificamente no Codex, o GPT-5.5 está disponível para usuários dos planos Plus, Pro, Business, Enterprise, Edu e Go. Adicionalmente, o modo rápido gera tokens 1,5 vezes mais rápido por um custo 2,5 vezes maior.
Em relação à API, o acesso não estará disponível no lançamento. Contudo, a OpenAI afirmou que o GPT-5.5 e o GPT-5.5 Pro chegarão à API “muito em breve”. Veja como ficará a precificação:
- GPT-5.5 (APIs de Respostas e Conclusões de Chat): US$ 5 por 1 milhão de tokens de entrada e US$ 30 por 1 milhão de tokens de saída.
- Planos Batch e Flex: preço reduzido pela metade da tarifa padrão da API.
- Processamento prioritário: custa 2,5 vezes a tarifa padrão.
- GPT-5.5 Pro na API: US$ 30 por 1 milhão de tokens de entrada e US$ 180 por 1 milhão de tokens de saída.
Em resumo, a OpenAI afirmou que o GPT-5.5 tem um preço superior ao do GPT-5.4, mas utiliza menos tokens no Codex para a maioria dos usuários.
Conclusão: vale a pena migrar agora?
Em síntese, o GPT-5.5 representa um movimento claro da OpenAI rumo a modelos focados em fluxos de trabalho reais, e não em demonstrações isoladas. Para quem usa Codex no dia a dia, a combinação de janela de contexto maior, menor uso de tokens e benchmarks superiores se traduz em ganhos práticos. Por outro lado, o preço mais alto e a chegada gradual à API pedem atenção antes da migração imediata.
Portanto, a recomendação é simples: teste em projetos reais, meça o consumo de tokens nas suas tarefas mais comuns. Afinal, no fim das contas, o que importa é a entrega de software com mais qualidade e menos retrabalho.
E você, dev, já testou o GPT-5.5 no Codex? Conta nos comentários como foi a experiência no seu fluxo de trabalho.
Acompanhe nosso Instagram!



