O Discord como Espaço para Atividades Ilícitas

Embora o Discord tenha sido criado como uma plataforma de comunicação para gamers e grupos on-line, sua popularidade vem atraindo a atenção de cibercriminosos. A facilidade de interagir em comunidades fechadas e a arquitetura digital da ferramenta contribuem significativamente para o aumento de atividades ilícitas, especialmente envolvendo crianças e adolescentes.

Rodrigo Fragola, especialista em crimes cibernéticos, explica por que essa plataforma é tão atraente para agentes maliciosos. “O Discord permite a criação de servidores e canais privados que somente podem ser acessados com convite ou permissão específica. Isso resulta em comunidades que podem operar, em muitos casos, à margem da lei, tornando a fiscalização bastante difícil”, destaca.

A Dinâmica das Comunidades Fechadas

Cleber Brito, Diretor de Segurança e Tecnologia da Informação na Foundever, complementa essa visão ao afirmar que esses espaços digitais funcionam como “bolhas inacessíveis sem convite”. Em tais ambientes, a conversa flui fora dos olhos do público, dificultando o rastreamento de atividades suspeitas. Para os cibercriminosos, isso oferece uma oportunidade de operar quase impunemente, especialmente quando as vítimas são manipuladas a permanecer em silêncio.

Além disso, Paulo Freitas, professor da UFPE, aponta que essas plataformas são também usadas para a troca de informações sobre golpes, malwares e dados obtidos de forma ilegal. “Nesses grupos, os usuários podem discutir estratégias para realizar crimes, trocar informações sobre métodos e até negociar credenciais vazadas e cartões de crédito clonados”, explica.

Anonimato e Automação: Fatores que Aumentam os Riscos

A falta de identificação robusta no Discord contribui para o anonimato dos usuários. “Muitas pessoas entram na plataforma sob pseudônimos, o que torna a criação de perfis falsos bastante comum”, comenta Fragola. Essa situação facilita a prática de aliciamento, uma preocupação crescente entre as autoridades.

Outro aspecto preocupante é a possibilidade de automação. O Discord permite que usuários programem bots para enviar mensagens em massa, o que pode ser explorado para propósitos ilícitos. “Cibercriminosos podem usar bots para espalhar links maliciosos ou coletar dados de usuários”, alerta Brito.

Limitações de Moderação na Plataforma

A moderação do Discord enfrenta desafios significativos. Embora a plataforma esteja em busca de melhorar suas práticas, os mecanismos existentes ainda têm um alcance limitado, focando principalmente nas comunidades e com um modelo de “moderação descentralizada”. “A plataforma realiza verificações automatizadas de links e arquivos suspeitos, mas a moderação de conteúdo depende muito da ação dos administradores locais dos servidores”, explica Brito.

Além disso, Fragola observa que as ferramentas automatizadas têm dificuldades em interpretar linguagens codificadas e sarcasmo, comuns entre grupos criminosos, tornando a detecção de conteúdos inapropriados ainda mais complicada. “Os robôs podem falhar em identificar linguagem de segunda intenção, e as equipes de moderação humana são escassas e caras”, acrescenta.

O Discord é Apenas a Parte Visível do Problema

Apesar do crescimento das atividades cibercriminosas no Discord, especialistas alertam que essa situação representa apenas uma fração de um fenômeno mais amplo. Michele Prado, pesquisadora de radicalização on-line, aponta que a dinâmica de aliciamento e radicalização ocorre em várias plataformas, incluindo aquelas com menor moderação. “O Discord é só uma das muitas ferramentas usadas, mas há outras alternativas com dinâmicas próprias”, diz.

Ela destaca que, embora haja lacunas na moderação do Discord, parte do problema reside na rápida adaptação dos usuários para driblar os sistemas de controle. “Os criminosos estão sempre em busca de maneiras de contornar as regras. Quando conseguimos identificar um termo problemático, novos termos e formas de comunicação imediatamente surgem”, observa.

Medidas do Discord para Combater Crimes Cibernéticos

Frente ao aumento de crimes cibernéticos, o Discord afirma estar implementando ações para melhorar a segurança na plataforma. Isso inclui o reforço de mecanismos de moderação e a colaboração com as autoridades. A empresa está investindo em tecnologia para detectar proativamente conteúdos ilícitos e criar um ambiente mais seguro para os usuários.

A plataforma adota uma estratégia de moderação em três níveis: primeiro, aplica as Diretrizes da Comunidade a todos os conteúdos; segundo, apoia administradores na criação de regras adicionais; e terceiro, oferece ferramentas aos usuários para controlar sua experiência, como filtros de conteúdo e configurações de privacidade. Entre as tecnologias utilizadas, o Discord menciona modelos de machine learning e sistemas de hash de imagens, como o PhotoDNA, para detectar conteúdos ilegais.

Além disso, o Discord está investindo em sua atuação local no Brasil, com uma equipe dedicada ao país. Mais de mil profissionais já passaram por treinamentos focados em segurança digital e proteção de menores. Para a empresa, é essencial promover um ambiente on-line seguro e abrir um diálogo produtivo sobre hábitos mais seguros na internet.

Share.
Leave A Reply

Exit mobile version