Categorias

Astroturfing: a invasão dos bots nas redes sociais

A epidemia das notícias falsas não parece ter hora para terminar e a proximidade do período eleitoral apenas exacerba o problema e agrava suas consequências.

A disseminação desse tipo de conteúdo está baseada na má-fé de alguns agentes interessados em influenciar o tecido social, em pessoas compartilhando e interagido por desinformação e, de forma automática, por robôs.

Não temos uma solução para o primeiro fator, já apresentamos algumas dicas para se prevenir no segundo caso e agora é a vez de tentar oferecer mecanismos de defesa contra contas falsas e bots nas redes sociais.

Tipos de contas falsas

Primeiro, é preciso diferenciar o tipo de conta tóxica nas redes sociais. Nem todas são falsas no sentido estrito da palavras e nem todas são automatizadas por completo.

No ponto mais humano do espectro temos aquilo que um levantamento realizado pela BBC Brasil chamou de “ativistas em série”. São indivíduos reais com engajamento maciço, acima da média, em diferentes questões do espectro político e que podem postar espontaneamente um volume elevado de publicações em diferentes frentes, em diferentes redes sociais. Podem ou não ter ligação com atividades automatizadas. Entretanto, apesar de dedicarem muitas horas do seu dia a construir uma presença online e chegar a produzir mensagens em escalas que ultrapassam a marca de mil vezes por dia, são pessoas de verdade, não são contas falsas em ação. Sua atuação fora da curva pode gerar falsos positivos nos algoritmos de detecção das redes sociais, o que pode provocar a sensação de “censura” contra suas ideias.

Entrando em um terreno de ética cinzenta, a mesma pesquisa identificou ferramentas que recrutam perfis reais para automatizar atividades que deveriam ser espontâneas, como curtidas ou compartilhamentos. A pesquisadora Yasodara Córdova aponta que esse sistema funciona como uma “espécie de ciborguização para aumentar a quantidade de visualizações ou compartilhamento de uma publicação, em que um político usa um exército de pessoas que se habilitam a postar por ele”.

Outro tipo de esquema envolve o uso de shills, uma prática que precede e muito o advento da internet. O shill é uma pessoa real que oferece um endosso para um determinado produto, partido, pessoa ou posicionamento sem tornar claro para sua audiência que, na verdade, possui ligações concretas ou financeiras com aquilo que está supostamente endossando de forma espontânea. Um exemplo disso seria o famoso “jabá”, muito comum na indústria musical em décadas passadas, quando rádios eram pagas pelas gravadoras para executar canções de determinados artistas. Uma versão mais moderna resultou em escândalo entre YouTubers contratados para falar bem de determinados jogos e que não mencionaram ao seu público que se tratava de material publicitário. O shill não utiliza necessariamente mecanismos de automação e está obrigatoriamente associado a um perfil real de grande influência.

Um meio termo entre a automação total e contas administradas por humanos é o que a BBC classificou como “ciborgues”, também chamados de “fantoches”. Esse processo acontece quando um único humano controla ou manipula um exército de contas através de ferramentas mecanizadas. Para Emiliano de Cristofaro, professor da London’s Global University, no Reino Unido, “é muito difícil detectar esses ‘bots’ híbridos, operados parte por humanos, parte por computadores”. Essa dificuldade se dá porque enquanto uma rede operada exclusivamente por algoritmos obedece determinados padrões que podem ser rastreados por outro algoritmo, uma conta “ciborgue” tem um controlador humano que pode alterar os padrões de uso para fugir da detecção. Contas fantoches tendem a ser mais parecidas com contas de pessoas reais, simulando interações e até mesmo construindo uma reputação. “É preciso olhar para o conteúdo que postam, não só para sua atividade. E isso custa caro”, alerta Cristofaro.

Por último, temos os bots propriamente ditos. Mesmo que possuam um operador humano responsável por sua criação, são contas totalmente automatizadas administradas por algoritmo rodando 24 horas em um servidor próprio. Embora sejam mais limitados no que podem realizar, são mais abundantes e o volume de interações e publicações realizadas pode ajudar a influenciar tendências no ecossistema das redes sociais.

Lembrando que todos esses tipos podem trabalhar em conjunto para um mesmo objetivo, de forma coordenada ou não. O uso coletivo de todas essas ferramentas leva ao chamado Astroturfing, uma estratégia de marketing projetada para endosso e simular a opinião pública, sem revelar sua origem fabricada.

Indicadores de que a conta pode pertencer a um robô

Identificar positivamente um “robô” não é tarefa das mais fáceis, tanto em virtude dos diferentes tipos de contas que podem apresentar comportamentos similares ao de um robô quanto pela complexidade desenvolvida atualmente pelas empresas e sistemas que empregam esse tipo de recurso. Entretanto, algumas características comuns podem ser indicativos de que não estamos lidando com contas operadas por humanos nas redes sociais:

  • Reações instantâneas: robôs funcionam em frações de segundos, então uma conta falsa possivelmente responde, curte, segue ou interage a uma postagem baseada em palavras-chaves de forma muito rápida.
  • Anonimato: se a identidade do usuário não está clara, é um aglomerado de números e letras, tem um pseudônimo que não faz sentido ou utiliza uma imagem não-humana como foto, são grandes as chances de se tratar de um robô.
  • Pouca ou nenhuma postagem autoral: por razões óbvias, robôs não produzem conteúdo próprio e são utilizados para replicar ou endossar conteúdo gerado por humanos. Esse tipo de conta costuma possuir um volume muito elevado de compartilhamentos e nada ou praticamente nada de postagens escritas pessoalmente.
  • Comportamento fora da curva: uma conta automatizada pode ser programada para parecer um humano, publicando postagens que parecem comuns mas não são conectadas entre si, usando fotos tiradas de banco de imagens ou fazendo comentários genéricos e impessoais sobre outras postagens.
  • Volume alto de contas seguidas: existe um limite físico para a quantidade de conteúdo que um ser humano real pode consumir, mas não para um robô. Contas falsas tendem a seguir uma grande quantidade de usuários na esperança de que eles sigam de volta e recebam suas mensagens, mas na verdade não consomem o que outros produzem.
  • Volume alto de publicações: o Oxford Internet Institute classifica qualquer conta que posta acima de 50 publicações por dia como suspeita. Outras organizações consideram o valor de 72 ou mesmo 144 dentro do limite do comportamento humano. Mas valores acima disso são incompatíveis com a realidade. Já foram descobertos robôs que postavam acima de 700 mensagens por dia, meses a fio.
  • Publicações “originais” replicadas: embora o plágio seja um problema recorrente nas redes sociais, uma mesma mensagem repetida dezenas de vezes sem alteração por contas diferentes pode ser o indício de uma rede de “ciborgues” em operação. Um dos entrevistados pela BBC Brasil em sua investigação relata que às vezes “faltava criatividade” na criação de mensagens separadas e diferentes contas acabavam por reproduzir o mesmo texto.
  • Localização suspeita: a maioria dos usuários de redes sociais publica de seus lares, escritórios ou smartphones. Um robô mal-programado, entretanto, pode entregar sua verdadeira identidade a partir de uma localização vaga, remota ou incompatível com a que o perfil simula. É notório o caso das contas fantasmas russas que fingiam pertencer a norte-americanos mas a geolocalização da rede social indicava que as mensagens vinham de território russo.

Se identificar contas falsas por conta própria é um desafio até para os mais desconfiados internautas, existem também ferramentas que utilizam justamente uma abordagem automatizada para essa tarefa.

O Botometer (antigo BotOrNot) é fruto de uma colaboração entre o Indiana University Network Science Institute (IUNI) e o Center for Complex Networks and Systems Research (CNetS), nos Estados Unidos. Ele utiliza algoritmos de aprendizado de máquina para reconhecer contas no Twitter com potencial para serem contas operadas por robôs.

Já o PegaBot é uma ferramenta criada no Brasil que também utiliza Inteligência Artificial para identificar contas automatizadas. Ela foi desenvolvida  por uma parceria entre o Instituto de Tecnologia e Sociedade do Rio de Janeiro e o Instituto Equidade & Tecnologia.

E agora?

Uma vez que você identifique positivamente um robô na conversão em sua rede social, é importante saber o que fazer em seguida. A primeira recomendação é interromper imediatamente qualquer tipo de interação com a conta suspeita, o que pode ser atingido através das ferramentas de bloqueio ou silêncio da rede social em questão. Reclamar com seu proprietário será um exercício em vão, repostar para seus amigos irá apenas aumentar o alcance e a projeção da conta fantasma, seu objetivo final.

A segunda recomendação é denunciar a conta suspeita através dos canais oficiais de denúncia da rede social. Todas as redes, sem exceção, possuem regras contra esse tipo de conduta e violações costumam ser punidas com rigor. Entretanto, mesmo contando com um exército de moderadores e seus próprios algoritmos de detecção, a identificação de robôs é uma batalha constante e a denúncia dos usuários pode ser um ponto de partida para uma investigação e um banimento do robô.

Se cada um fizer sua parte, não compartilhar conteúdo de origem duvidosa, questionar a origem de publicações e seus autores, denunciar perfis falsos e observar a manipulação automatizada de tendências, a internet como um todo, independente de ideologias, só tende a melhorar.