Observo que existe uma pressão crescente para que desenvolvedores usem IA generativa em tudo. E percebo que questionar isso quase virou heresia no setor. Hoje existe uma narrativa implícita de que equipes que não adotarem copilotos, agentes e workflows “AI-first” inevitavelmente ficarão para trás. Mas, sinceramente, não acho que a discussão esteja sendo feita com…
we are developers
- Publicou221Artigo(s)
- Visualizados4906200Vezes
- Desde2010
O hype do RAG e a promessa dos “agentes inteligentes” Durante algum tempo, criou-se a ideia de que bastava conectar um LLM a um banco vetorial e pronto: surgia um “agente inteligente”. O discurso virou quase uma receita de bolo. Pegue documentos, gere embeddings, faça busca semântica e entregue tudo ao modelo. Chamaram isso de…
O conceito de Agentic AI está sendo vendido como o próximo salto, como sistemas que não apenas respondem, mas agem. Executam tarefas, acessam sistemas, tomam decisões encadeadas. A promessa é autonomia. O problema é que estamos empilhando essa autonomia sobre uma base que ainda é, por natureza, probabilística e opaca. E isso abre uma superfície…
O fim da corrida por treinamento Durante anos, a conversa girava em torno de quem tinha mais capacidade de treinamento. Mais GPUs, mais dados, mais parâmetros. Em outras palavras, era uma corrida por modelos maiores e supostamente mais “inteligentes”. No entanto, o jogo virou. O treinamento passou a ser um custo concentrado. A inferência, por…
O experimento: entender o mínimo para revelar o máximo Uma pesquisa conduzida por cientistas de Harvard, em colaboração com equipes de outras instituições, trouxe novos insights sobre a complexidade do cérebro humano. Durante quase uma década, a equipe se dedicou a algo aparentemente insignificante: um fragmento microscópico do cérebro com volume inferior a um milímetro…
O divertido nas aulas que ministro são as perguntas que nos fazem repensar. Uma delas foi: “um sistema de agentes com LLM pode ser descrito como uma camada de orquestração determinística em torno de sistemas probabilísticos?” A pergunta é boa. Captura uma intuição correta, mas ainda incompleta. Em muitos casos, é possível descrever esses sistemas…
Observo com preocupação que existe uma expectativa e bastante disseminada, de que basta “dar IA para todo mundo” que a produtividade explode. Mas, na prática, não é isso que está acontecendo. Sim, existem casos reais de ganhos impressionantes. Alguns desenvolvedores, designers e perfis mais técnicos conseguem extrair muito valor e, em certos cenários, chegam perto…
O que acontece entre o prompt e a resposta Muitos ainda acreditam que modelos de linguagem respondem de forma direta e quase “transparente” aos usuários. No entanto, essa percepção simplifica demais o que realmente acontece. Entre o prompt e a resposta existe uma camada complexa de mediação — um verdadeiro sistema de filtragem que atua…
Depois que o código fonte do Claude Code foi vazado, muita gente o analisou e para surpresa de ninguém ele parecia mesmo gerado por IA. Porque, no fundo, ninguém que acompanha esse mercado de perto ficou realmente surpreso com que o pessoal descobriu. Um código que é uma mistura de salada com espaguete. A narrativa…
Como LLMs transformam linguagem em matemática Para quem trabalha com tecnologia e utiliza LLMs, surge uma pergunta essencial: como essas ferramentas, que são essencialmente matemáticas, lidam com algo tão complexo quanto a linguagem humana? A resposta está em uma transformação fundamental. Primeiro, palavras são convertidas em números. Em seguida, esses números são processados. Por fim,…
