Tendências

10 abr, 2026

Como Ferramentas de IA Sem Supervisão Estão Abrindo Brechas que Seu Time de Segurança Ainda Não Viu

Publicidade

Seu Perímetro de Segurança Agora Termina no Navegador do Usuário

Durante anos, o modelo mental de segurança corporativa girou em torno de perímetros bem definidos: firewall aqui, VPN ali, endpoint protection no notebook. Funciona? Parcialmente. O problema é que esse modelo pressupõe que os dados ficam dentro da organização.

A Asper, maior MSSP do Brasil, identificou que o comportamento dos usuários consolidou-se como um dos principais vetores de exposição de dados sensíveis nas organizações atualmente. Não é phishing. Não é ransomware direto. É o uso cotidiano e aparentemente inofensivo de ferramentas de IA generativa com dados que não deveriam sair da empresa.

O mecanismo é simples e perigoso: informações inseridas em plataformas abertas podem ser armazenadas, analisadas e potencialmente utilizadas por terceiros, sem garantias claras sobre destino ou finalidade. O dev que joga uma query SQL com dados de produção no ChatGPT para debugar. O analista que cola uma planilha de clientes para “formatar mais rápido”. Cada um desses gestos é uma exfiltração silenciosa.

Shadow AI: O Problema que Seu DLP Provavelmente Não Está Vendo

Shadow IT já era um desafio. Shadow AI é a versão turbinada.

O conceito descreve o uso de soluções de IA sem supervisão das áreas de TI e governança. E diferente de um SaaS qualquer rodando fora do inventário, ferramentas de IA generativa têm uma característica única: elas consomem contexto. Quanto mais informação você fornece, melhor a resposta. Isso cria um incentivo natural para o usuário fornecer o máximo de dados possível.

O resultado prático? Dados estratégicos, contratos, arquiteturas de sistema e informações de clientes viajando para servidores de terceiros, sem log, sem DLP ativo, sem nenhum controle de governança interceptando.

Para equipes de segurança, a superfície de ataque expandiu para um lugar difícil de monitorar: a intenção produtiva do próprio colaborador.

Redes Públicas + Dispositivos Corporativos: A Combinação que Ainda Mata

Se o Shadow AI representa o risco “invisível”, redes Wi-Fi abertas representam o risco que todo mundo conhece e continua ignorando.

Redes públicas ou desconhecidas permitem interceptação de dados em trânsito e acesso indevido a dispositivos conectados. A falta de visibilidade sobre a rede e seus usuários amplifica a superfície de ataque de forma considerável. E quando o dispositivo conectado a essa rede é um notebook corporativo com dados sensíveis armazenados localmente, os riscos deixam de ser apenas digitais.

Perda, furto ou conexão inadvertida a uma rede comprometida transforma hardware corporativo em vetor de vazamento. É um problema que combina ameaça física e digital de forma que a maioria das políticas de segurança ainda trata separadamente.

Stack Técnico Para Conter o Dano (Porque Só Política de Uso Não Resolve)

Conscientização é necessária. Não é suficiente. A recomendação da Asper para reduzir exposição passa por uma camada técnica concreta:

No endpoint:

  • Criptografia de disco como primeira linha de defesa contra acesso físico indevido

  • Bloqueio automático de tela e políticas de evitar armazenamento local de dados sensíveis

No tráfego:

  • DLP (Data Loss Prevention) para interceptar exfiltração de dados antes que ela chegue a destinos não autorizados

  • SWG (Secure Web Gateway) para controle e visibilidade do tráfego web, incluindo acesso a plataformas de IA

No acesso remoto:

  • ZTNA (Zero Trust Network Access) em vez de VPN tradicional, garantindo acesso granular a aplicações privadas com verificação contínua de identidade e contexto

A Fronteira Entre IA Pessoal e Corporativa Precisa Existir (E Ser Tecnicamente Aplicada)

A recomendação que resume bem a postura necessária: plataformas públicas de IA devem ser restritas a usos que não envolvam informações confidenciais. Para aplicações corporativas, a saída é adotar soluções com governança de dados estruturada, modelos rodando em ambientes controlados, com auditoria, com visibilidade sobre o que entra e o que sai.

Isso não significa proibir IA no ambiente corporativo. Significa trazer o uso para dentro do perímetro de governança, com as mesmas exigências aplicadas a qualquer outro sistema que processa dados sensíveis.

O Fator Humano Não É Fraqueza, É Superfície de Ataque

“À medida que novas tecnologias são incorporadas à rotina de trabalho, o fator humano ganha ainda mais relevância na segurança da informação”, aponta Gustavo Lucena, Cyber Defense Manager da Asper.

A frase tem uma implicação técnica importante: ferramentas de segurança precisam ser projetadas considerando o comportamento real dos usuários, não o comportamento ideal descrito nas políticas internas. Se a ferramenta de IA aprovada pela empresa for mais lenta, menos capaz ou mais burocrática que a alternativa pública, o usuário vai usar a alternativa pública. Garantido.

A resposta para Shadow AI não é só bloqueio. É oferecer alternativas corporativas competitivas com os controles corretos embutidos, e usar DLP e SWG como rede de contenção para o que escapa.