Depois que o código fonte do Claude Code foi vazado, muita gente o analisou e para surpresa de ninguém ele parecia mesmo gerado por IA. Porque, no fundo, ninguém que acompanha esse mercado de perto ficou realmente surpreso com que o pessoal descobriu. Um código que é uma mistura de salada com espaguete.
A narrativa vendida até aqui era de que produtos como o “Claude Code” eram exemplos de uma nova engenharia de software, mais rápida, mais inteligente, quase autoevolutiva. Na prática, o que aparece por trás da cortina é um emaranhado de chamadas probabilísticas, retries infinitos e uma fé quase religiosa de que “dessa vez o modelo acerta”.
Arquitetura? Testes? Otimização? Parece que tudo isso virou detalhe opcional, quase um resquício de uma era pré-LLM. O novo mantra é não olhe muito de perto. E, curiosamente, isso faz todo sentido… porque quanto mais você olha, mais percebe que não há exatamente um “sistema” ali, mas uma sequência de apostas.
Funções que não são funções, mas prompts disfarçados. Fluxos que não são determinísticos, mas tentativas repetidas até algo plausível emergir. Em vez de engenharia, temos negociação com um modelo estatístico.
E talvez o ponto mais interessante não seja a ineficiência, mas a naturalização dela. Reprocessar a mesma imagem vinte vezes? Criar múltiplos agentes para tarefas triviais? Pedir “por favor” para o modelo não errar? Nada disso parece ser tratado como problema estrutural. É só o custo de fazer negócios na era do “AI-first”.
Segurança então vira quase um detalhe filosófico. Se nem os dados são validados de forma consistente, o que exatamente estamos chamando de sistema confiável? Um agente verificando o outro agente, parece mais com um experimento social do que como um mecanismo de controle.
Mas, claro, nada disso importa muito quando valuations bilionários entram na equação. O mercado não está precificando elegância técnica, mas está precificando narrativa. E na narrativa tudo “funciona”, “escala”, “impressiona”.
Talvez estejamos assistindo não ao fim da engenharia de software, mas à sua diluição. Saímos de sistemas cuidadosamente projetados para sistemas que “convergem” estatisticamente para algo aceitável.
E aqui está a ironia …se esse é o novo padrão, então muita gente que nunca escreveu uma linha de código estruturado agora pode, legitimamente, se considerar um “10x engineer”. Afinal, se até o estado da arte é um grande “vamos tentar de novo até dar certo”… então estamos todos promovidos.
Se com 4KB de RAM conseguimos levar o homem à Lua durante o Apollo 11, hoje precisamos de camadas e mais camadas de abstração probabilística para… comprimir uma imagem sem garantia de sucesso na primeira tentativa. Mas, quem sabe, vai funcionar na vigésima segunda…



