DevSecOps

21 ago, 2014

Twitter cria sistema automático de combate ao spam

Publicidade

O Twitter revelou ontem mais uma política que visa a melhorar a saúde da sua comunidade, com robôs que garantem a segurança dos usuários, caçando spammers e identificando comportamentos suspeitos, antes mesmo de que qualquer coisa seja publicada.

Trata-se do BotMaker, um sistema automatizado com o qual engenheiros e especialistas em segurança podem criar regras, filtros e códigos que detectam rapidamente atividades suspeitas na rede social. Contas são bloqueadas de forma automática, enquanto outras são marcadas para que os responsáveis possam ficar de olho nelas, sendo tiradas do ar se as suspeitas forem confirmadas.

Com a novidade, é possível identificar atividades de bloqueio e denúncias a uma conta específica, tomando ações rápidas para determinar se realmente se trata de um spammer. Caso contrário, o BotMaker também pode indicar as atividades suspeitas para controladores humanos, auxiliando-os a perceber falhas no sistema ou novas formas de transmissão de mensagens em massa, facilitando a identificação daqueles que conseguem passar pelo filtro e ajudando na identificação de novas práticas nocivas.

Esse último quesito também garante que o sistema dificilmente bloqueie um usuário legítimo. Regras e códigos de combate são criados apenas quando os engenheiros estão certos de que existe algum tipo de atividade suspeita, o que deve evitar falsos positivos e enganos. O Twitter pede que qualquer usuário bloqueado indevidamente entre em contato com o suporte para garantir que seu acesso seja restabelecido.

Segundo a empresa, o total de spams na rede social caiu 40% já nas primeiras semanas de atividade do BotMaker. O foco inicial foram as contas responsáveis por divulgar informações sobre venda de drogas ou programas que, supostamente, fazem crescer o número de seguidores quando, na maioria das vezes, são de fachadas para roubo de dados e credenciais.

Além disso, o Twitter destacou que a operação tem causado muito pouco estresse nos servidores. Isso se deve ao fato de o sistema ser capaz de priorizar as operações de baixa complexidade, deixando as tarefas que consomem mais processamento para os momentos em que a infraestrutura está com uma carga menor. De acordo com a empresa, não houve, até o momento, nenhum tipo de impacto negativo sobre a utilização cotidiana dos usuários.

Com informações de Canaltech