Generative AI

12 ago, 2025

Agentes de IA com LLMs de Código Aberto: Integração Prática com o Model Context Protocol (MCP)

Publicidade

As LLMs de código aberto continuam sendo fundamentais por diversos motivos — técnicos, estratégicos, éticos e econômicos. Elas possibilitam o ajuste fino (fine-tuning) para finalidades e domínios específicos, além de permitirem a execução em ambientes isolados, o que viabiliza o tratamento seguro de dados sensíveis ou sigilosos. Por serem mais acessíveis, também fomentam a inovação ao facilitar sua adoção por empresas e organizações de menor porte.

No entanto, as LLMs de código aberto apresentam limitações importantes: não são atualizadas com eventos recentes, não têm acesso a dados privados e geralmente não possuem integração nativa com sistemas e softwares do mundo real. Até recentemente, integrar ferramentas a uma LLM de código aberto — como LLaMA (Meta) ou Mistral — exigia o desenvolvimento de uma camada de integração personalizada para cada modelo, com baixo potencial de reutilização. 

O acesso das LLMs aos dados privados, seja através de base de dados ou do sistema de arquivos, pode contribuir para resolução de problemas cotidianos em uma empresa, como os seguintes: 

  • RH e Gestão de Pessoas: Consultar automaticamente informações de colaboradores (ex.: exames médicos vencidos, férias acumuladas) em um banco Postgres e gerar relatórios para o setor de Recursos Humanos.
  • Financeiro: Criar dashboards que buscam em tempo real dados de fluxo de caixa em um banco MongoDB, permitindo ao gestor ver projeções de saldo a partir de entradas e saídas já registradas, desde que essas projeções já constem no banco de dados.
  • Atendimento ao cliente: Consultar dados de histórico de chamados em um Postgres para que um agente de IA sugira respostas rápidas ao time de suporte.
  • Compliance e Auditoria: Um agente de IA pode percorrer diretórios internos, localizar arquivos de contratos, extrair cláusulas críticas (ex.: prazos ou multas) e consolidar tudo em um relatório automático.
  • Engenharia: Buscar documentos técnicos em PDF ou Word em pastas compartilhadas para acelerar a elaboração de propostas ou relatórios de projeto.
  • Jurídico: Localizar petições e anexos dentro do sistema de arquivos para preparar respostas processuais.

O Model Context Protocol (MCP), um protocolo aberto introduzido pela Anthropic em 2024, busca padronizar a forma como LLMs interagem com dados e ferramentas externas, facilitando o desenvolvimento de agentes de IA mais eficientes e interoperáveis. Um agente de IA é essencialmente um sistema de software autônomo que executa fluxos de tarefas para atingir um objetivo em nome do usuário. 

Com a maturação do ecossistema de ferramentas baseadas em MCP, já é possível integrar:

  1. Acesso a informações públicas da internet, por meio de APIs, (ex: Perplexity.ai MCP, Pupeteer MCP).
  2. Consulta a dados privados, com integração a bancos de dados (ex. MongoDB MCP, Postgres MCP ),  sistemas de arquivos, serviços de armazenamento em nuvem e servidores de e-mail. 
  3. Serviços de localização: Integração com serviços de mapas (Ex. Google Maps MCP) e previsão do tempo (Ex. weather-mcp)
  4. Integração com ferramentas de desenvolvimento de software e monitoramento, como controle de versão (ex.: Github MCP, GitLab MCP) e conteinerização (ex.:Docker MCP), desenvolvimento de APIs (ex. Postman MCP), monitoramento (ex. Grafana MCP). 
  5. Integração com serviços de nuvem, como p. ex. (GoogleCloud Run MCP, AWS MCP, Azure MCP).  
  6. Integração com sistemas industriais: como p. ex. OPCUA-MCP

Criamos um projeto de demonstração, disponível aqui, baseado na biblioteca Fast MCP em Python. Essa biblioteca permite ao usuário criar rapidamente seu próprio servidor MCP. O projeto está configurado para disponibilizar à LLM um conjunto de ferramentas, incluindo:

  • Múltiplas ferramentas que consultam dados sobre publicações científicas por meio da API pública do OpenAlex.org, e
  • Uma ferramenta para realizar o download de uma imagem de container do Docker Hub, utilizando as credenciais fornecidas pelo usuário nos arquivos .env e .gemini/settings.json.

O servidor pode ser acessado por qualquer cliente LLM que ofereça suporte a MCPs. No entanto, ele foi testado e validado com o Gemini CLI, cuja configuração está incluída na pasta .gemini do projeto de demonstração.Abaixo estão dois prompts de exemplo que utilizam as ferramentas integradas: uma para acessar APIs externas e outra para realizar o download de imagens do repositório Docker. Os procedimentos de instalação e configuração estão detalhados no arquivo README.md do repositório Git.

Prompt 1 – Número de publicações do Japão:

What is the number of publication sources in Japan?

Prompt 2 – Distribuição dos tipos de publicações do Brasil:

Show me the distribution of the types of publication sources in Brazil.             

Prompt 3 – Acessa DockerHub e descarrega imagem do Python:

Use the mainAPIServer MCP to pull the python:3.9-slim image from Docker Hub and run it to display the Python version. Ensure Docker Hub authentication uses the credentials provided in .gemini/settings.json and .env.