Observo que existe uma pressão crescente para que desenvolvedores usem IA generativa em tudo. E percebo que questionar isso quase virou heresia no setor.
Hoje existe uma narrativa implícita de que equipes que não adotarem copilotos, agentes e workflows “AI-first” inevitavelmente ficarão para trás. Mas, sinceramente, não acho que a discussão esteja sendo feita com honestidade suficiente. Não porque essas ferramentas sejam inúteis. Elas claramente têm utilidade. Vejo que o problema é outro, pois estamos confundindo aceleração localizada com maturidade estrutural. Pois é, vejo muita gente celebrando velocidade sem discutir dependência, erosão de conhecimento, perda de contexto e degradação gradual da capacidade de engenharia.
Os modelos produzem código plausível com facilidade impressionante. Isso cria uma sensação contínua de produtividade. Mas plausibilidade não é entendimento. E produtividade aparente não significa necessariamente qualidade sustentável.
Existe um efeito psicológico perigoso nisso tudo. Quanto mais fluido o sistema parece, mais começamos a confiar nele além do razoável. Aos poucos, revisão cuidadosa vira validação superficial. Entendimento profundo vira curadoria de output. Engenharia começa a se transformar em supervisão probabilística. E isso muda a própria relação do desenvolvedor com o trabalho.
Programar exige concentração longa, construção mental de arquitetura, entendimento acumulado e raciocínio causal sobre consequências. Mas, muitos workflows baseados em chat constante acabam incentivando interrupção contínua, fragmentação cognitiva e terceirização parcial do pensamento.
Também me preocupa o impacto sobre formação profissional. Desenvolvedores experientes foram formados resolvendo problemas difíceis, lidando com ambiguidades, depurando sistemas complexos e acumulando contexto ao longo de anos. Mas o que acontece quando as etapas intermediárias de aprendizado começam a ser absorvidas pela IA? Talvez estejamos criando uma geração extremamente eficiente em operar ferramentas, mas progressivamente menos treinada para compreender sistemas profundamente.
Existe ainda uma questão econômica pouco discutida. O modelo atual depende de subsídios massivos das big techs. Os preços parecem baratos porque o mercado ainda está sendo capturado. Mas quanto custa essa dependência quando workflows inteiros passam a depender de plataformas externas, APIs proprietárias e modelos cujo custo operacional continua gigantesco?
No fim, minha preocupação não é com a existência dessas ferramentas. É com a velocidade com que estamos reorganizando desenvolvimento de software em torno delas sem entender plenamente os efeitos cognitivos, organizacionais e econômicos dessa mudança.
Na minha percepção, a questão não é “quanto código a IA consegue gerar”, mas quanto entendimento humano estamos dispostos a substituir no processo.



