As LLMs de código aberto continuam sendo fundamentais por diversos motivos — técnicos, estratégicos, éticos e econômicos. Elas possibilitam o ajuste fino (fine-tuning) para finalidades e domínios específicos, além de permitirem a execução em ambientes isolados, o que viabiliza o tratamento seguro de dados sensíveis ou sigilosos. Por serem mais acessíveis, também fomentam a inovação ao facilitar sua adoção por empresas e organizações de menor porte.
No entanto, as LLMs de código aberto apresentam limitações importantes: não são atualizadas com eventos recentes, não têm acesso a dados privados e geralmente não possuem integração nativa com sistemas e softwares do mundo real. Até recentemente, integrar ferramentas a uma LLM de código aberto — como LLaMA (Meta) ou Mistral — exigia o desenvolvimento de uma camada de integração personalizada para cada modelo, com baixo potencial de reutilização.
O acesso das LLMs aos dados privados, seja através de base de dados ou do sistema de arquivos, pode contribuir para resolução de problemas cotidianos em uma empresa, como os seguintes:
- RH e Gestão de Pessoas: Consultar automaticamente informações de colaboradores (ex.: exames médicos vencidos, férias acumuladas) em um banco Postgres e gerar relatórios para o setor de Recursos Humanos.
- Financeiro: Criar dashboards que buscam em tempo real dados de fluxo de caixa em um banco MongoDB, permitindo ao gestor ver projeções de saldo a partir de entradas e saídas já registradas, desde que essas projeções já constem no banco de dados.
- Atendimento ao cliente: Consultar dados de histórico de chamados em um Postgres para que um agente de IA sugira respostas rápidas ao time de suporte.
- Compliance e Auditoria: Um agente de IA pode percorrer diretórios internos, localizar arquivos de contratos, extrair cláusulas críticas (ex.: prazos ou multas) e consolidar tudo em um relatório automático.
- Engenharia: Buscar documentos técnicos em PDF ou Word em pastas compartilhadas para acelerar a elaboração de propostas ou relatórios de projeto.
- Jurídico: Localizar petições e anexos dentro do sistema de arquivos para preparar respostas processuais.
O Model Context Protocol (MCP), um protocolo aberto introduzido pela Anthropic em 2024, busca padronizar a forma como LLMs interagem com dados e ferramentas externas, facilitando o desenvolvimento de agentes de IA mais eficientes e interoperáveis. Um agente de IA é essencialmente um sistema de software autônomo que executa fluxos de tarefas para atingir um objetivo em nome do usuário.
Com a maturação do ecossistema de ferramentas baseadas em MCP, já é possível integrar:
- Acesso a informações públicas da internet, por meio de APIs, (ex: Perplexity.ai MCP, Pupeteer MCP).
- Consulta a dados privados, com integração a bancos de dados (ex. MongoDB MCP, Postgres MCP ), sistemas de arquivos, serviços de armazenamento em nuvem e servidores de e-mail.
- Serviços de localização: Integração com serviços de mapas (Ex. Google Maps MCP) e previsão do tempo (Ex. weather-mcp)
- Integração com ferramentas de desenvolvimento de software e monitoramento, como controle de versão (ex.: Github MCP, GitLab MCP) e conteinerização (ex.:Docker MCP), desenvolvimento de APIs (ex. Postman MCP), monitoramento (ex. Grafana MCP).
- Integração com serviços de nuvem, como p. ex. (GoogleCloud Run MCP, AWS MCP, Azure MCP).
- Integração com sistemas industriais: como p. ex. OPCUA-MCP
Criamos um projeto de demonstração, disponível aqui, baseado na biblioteca Fast MCP em Python. Essa biblioteca permite ao usuário criar rapidamente seu próprio servidor MCP. O projeto está configurado para disponibilizar à LLM um conjunto de ferramentas, incluindo:
- Múltiplas ferramentas que consultam dados sobre publicações científicas por meio da API pública do OpenAlex.org, e
- Uma ferramenta para realizar o download de uma imagem de container do Docker Hub, utilizando as credenciais fornecidas pelo usuário nos arquivos .env e .gemini/settings.json.
O servidor pode ser acessado por qualquer cliente LLM que ofereça suporte a MCPs. No entanto, ele foi testado e validado com o Gemini CLI, cuja configuração está incluída na pasta .gemini do projeto de demonstração.Abaixo estão dois prompts de exemplo que utilizam as ferramentas integradas: uma para acessar APIs externas e outra para realizar o download de imagens do repositório Docker. Os procedimentos de instalação e configuração estão detalhados no arquivo README.md do repositório Git.
Prompt 1 – Número de publicações do Japão:
What is the number of publication sources in Japan?
Prompt 2 – Distribuição dos tipos de publicações do Brasil:
Show me the distribution of the types of publication sources in Brazil.
Prompt 3 – Acessa DockerHub e descarrega imagem do Python:
Use the mainAPIServer MCP to pull the python:3.9-slim image from Docker Hub and run it to display the Python version. Ensure Docker Hub authentication uses the credentials provided in .gemini/settings.json and .env.