Tendências

15 abr, 2026

A IA que a Unesp construiu por dentro e ganhou a América Latina

Publicidade

RAG no mundo real: esqueça o tutorial do YouTube

A maioria dos projetos de IA generativa para consulta de documentos nasce de um Jupyter Notebook e morre em staging. A LegIA não. Desenvolvida internamente pela equipe de TI da Unesp, a ferramenta foi lançada em produção em novembro de 2024, hoje serve cerca de 1.500 usuários por mês e acaba de ganhar o AI and Education LATAM Challenge, competição internacional promovida pela Google, na categoria de melhor solução administrativa da América Latina entre 55 finalistas.

Não é case de startup. É case de universidade pública com time interno, orçamento enxuto e stack que escala. Vale ler com atenção.

O problema que a LegIA resolve, e por que ele é universal

A Unesp acumula mais de 10 mil resoluções, portarias e normativas internas. Qualquer servidor ou estudante que precise saber se uma determinada atividade é regulamentada, como funciona um processo administrativo ou qual portaria rege a pós-graduação, precisava vasculhar manualmente esse labirinto burocrático.

O que os devs enxergam aqui é um problema clássico de retrieval sobre corpus heterogêneo e de alta cardinalidade, exatamente o cenário em que RAG (Retrieval-Augmented Generation) brilha e onde implementações ingênuas quebram feio.

Arquitetura pensada para durar: o que “escalável e extensível” significa na prática

O coordenador da CTInf, professor Ney Lemke, destaca dois atributos da arquitetura que merecem atenção técnica:

Escalável: o volume do corpus cresceu substancialmente nos 18 meses desde o lançamento, incorporando conteúdo dos sites institucionais e notícias além das normativas originais, sem redesenho de fundação.

Extensível: a mesma base arquitetural gerou uma segunda aplicação, o SapientIA, voltada para teses e dissertações do repositório institucional. Mesmo pipeline, corpus diferente. O professor Lemke vai além: “Isso poderia ser utilizado, por exemplo, para um conjunto de normas do governo do estado.”

Na prática, isso aponta para uma decisão de design que todo dev em projetos de IA deveria tomar desde o dia um: separar o pipeline de ingestão e recuperação do domínio de negócio. Quando você faz isso direito, trocar o corpus é parametrização, não refatoração.

O stack por trás: Google Gemini como LLM base

A solução foi desenvolvida no contexto do Laboratório do Futuro, instância da CTInf da Unesp criada para centralizar soluções de IA generativa. O desafio foi patrocinado pelo Google for Education e pelo Gemini, o que nos dá uma pista relevante sobre a camada de LLM utilizada.

Aqui entra um ponto estratégico que projetos internos costumam ignorar: a escolha do modelo base não é só técnica, é também política e econômica. A Unesp optou por um caminho com custo de desenvolvimento notavelmente baixo, fator destacado como diferencial competitivo no próprio pitch do projeto.

Quanto custa construir algo assim? Menos do que você imagina

Um dos pontos mais comentados pela equipe é exatamente o custo reduzido de desenvolvimento. Sem licenças caras, sem consultoria externa, sem terceirização do core. O time de TI da própria universidade desenvolveu, mantém e evolui a ferramenta.

Para devs que trabalham em instituições públicas, startups enxutas ou projetos de inovação com orçamento limitado, esse é o sinal mais concreto do case: IA generativa aplicada a documentos institucionais é tecnicamente acessível hoje. O gargalo costuma ser arquitetura e governança, não orçamento.

Governança de IA como parte do produto, não como burocracia depois

Um detalhe que passa despercebido na cobertura comum desse case, mas que devs sênior vão valorizar: a LegIA foi construída em paralelo à criação do arcabouço legal que regula o uso de IA na Unesp.

  • Abril de 2025: resolução institucional sobre uso de IA na comunidade universitária

  • Setembro de 2025: portaria regulamentando IA na pós-graduação

  • Início de 2026: guia para uso na graduação

Isso não é coincidência. É produto e governança andando juntos desde o início, algo que a maioria dos times só percebe que precisava quando já está em produção há seis meses com usuários fazendo coisas inesperadas com o sistema.

O que replicar do playbook da Unesp

Se você está construindo ou vai construir uma solução RAG para uma organização com grande volume de documentos internos, o case LegIA entrega algumas lições aplicáveis imediatamente:

Defina o corpus com precisão antes de escolher o modelo. 10 mil documentos normativos têm características bem diferentes de um FAQ de suporte. Chunking, indexação e retrieval precisam refletir a estrutura real dos documentos.

Projete para extensão desde o início. A decisão que permitiu criar o SapientIA com baixo custo foi tomada antes mesmo de qualquer linha de código do SapientIA existir.

Meça uso real, não demo. 1.500 acessos mensais em uma universidade com comunidade específica é dado de adoção real, muito mais honesto do que “testamos com 50 usuários e adoraram”.