Categorias

A horrível vida dos moderadores do Facebook

Como a maior rede social do planeta, registrando mais de 2 bilhões de usuários, o Facebook representa mais do que uma pequena fatia da espécie humana. Ele cresceu para se tornar um modelo em escala quase 1:1 da nossa civilização.

E, assim como a nossa civilização, há facetas desprezíveis e horrores inconcebíveis convivendo lado a lado com o prosaico. Separados por tão somente um clique de distância, há fotos de família e imagens de pornografia de vingança, há mensagens de bom dia e discurso de ódio, há informação apurada e fake news, vídeos de viagens e filmagens de assassinato e tortura.

Por mais que todo o esgoto social insista em aflorar na linha no tempo, o mar de lodo poderia ser muito maior sem o sacrifício diário de mulheres e homens ao redor do mundo que exercem a silenciosa profissão de moderadores de conteúdo.

Nada de novo no front

A função do moderador é filtrar tudo aquilo que extrapola os limites da política de uso de um determinado ambiente virtual. Dado o volume do conteúdo, muitas vezes o que está sendo moderado também extrapola os limites da legislação vigente, extrapola os limites da sociedade civilizada, extrapola os limites da raça humana. Desde uma reportagem publicada em 2014 pela Wired, se tenta denunciar as péssimas condições psicológicas e o ambiente de trabalho insalubre desses profissionais. Pouca coisa mudou ao longo dos anos, enquanto o extremismo apenas parece se destacar ainda mais nos espaços virtuais.

O Facebook entrou tarde no processo de moderar sua própria comunidade, a despeito de todos os sinais de alerta exibidos em cada seção de comentários, em cada fórum aberto na internet, sem exceções. Até 2017, a maior rede social concebida contava somente com 4.500 funcionários internos para monitorar violações de conduta em uma torrente imensurável de mensagens publicadas por segundo. Até o final de 2018, após constantes críticas, esses números cresceram para 30.000 profissionais, mas ainda são insuficientes.

Para dar conta dessa demanda, o Facebook optou pela terceirização. Existem hoje equipes de moderação trabalhando 24 horas por dia em mais de 50 línguas em mais de 20 instalações por todo o globo.

Durante três meses, jornalistas do The Verge entrevistaram sob condição de anonimato uma dezena de funcionários que trabalham para uma dessas empresas terceirizadas. A Cognizant tem uma instalação com cerca de 1.000 moderadores em Phoenix, no estado norte-americano do Arizona. Contratualmente, seus profissionais não podem negar ou admitir que trabalham para o Facebook. Oficialmente, eles são chamados de “executivos de processamento”. Na prática, eles moderam centenas de postagens por dia em escala industrial e colecionam traumas profundos e histórias de horror.

Relatos de Guerra

Chloe entrou em prantos durante o treinamento de três semanas e meia. Em uma das etapas, precisou moderar “ao vivo” diante de outros recrutas uma postagem que fazia parte do seu cotidiano na Cognizant. Ela foi obrigada a assistir a um vídeo real de um homem sendo esfaqueado e implorando por sua vida. Com o máximo de profissionalismo possível, ela explicou que o vídeo deveria ser removido do Facebook por violação da seção 13 das regras de comunidade da rede social. Logo em seguida, ela teve um surto de lágrimas no corredor. De volta ao treinamento, passou por outra crise emocional diante de um vídeo de um drone metralhando pessoas e os corpos tombando.

Chloe foi avaliada por um supervisor como apta ao serviço. Por um salário ligeiramente maior que o salário mínimo local, ela aceitou o emprego.

Randy ocupava uma posição que é apenas um degrau acima na hierarquia: ele era um moderador de moderadores. Sempre que havia um conflito a respeito do bloqueio de determinadas postagens, pessoas como Randy batem o martelo. Nas condições insalubres deste trabalho e no ambiente extremamente tenso em que metas de precisão impossíveis devem ser alcançadas, a posição de Randy não é invejável, ela cria inimigos.

Randy relata que já foi intimidado no estacionamento por moderadores insatisfeitos, com ameaças de violência física. Por conta disso, ele revela que passou a levar uma arma escondida para o escritório. Ex-funcionários costumam também prometer que irão aparecer para “acertar as contas” com a empresa.

Depois de um ano nesse clima, Randy não aguentou e pediu demissão. Mas o estrago já estava feito: a ansiedade e a paranoia o seguiram para fora da Cognizant. Hoje, ele dorme com a arma no travesseiro ao lado e conhece de cor todas as possíveis rotas de fuga de sua própria casa.

Os nomes são fictícios, mas os casos são reais. E esses não são casos isolados, mas reflexos de um profundo desgaste psicológico daqueles que são expostos todos os dias ao pior que uma rede social pode oferecer. Outros sintomas são o alto consumo de maconha entre os moderadores da Cognizant (o uso medicinal é liberado no Arizona), as anedotas de funcionários realizando atos sexuais em quase todos os lugares imagináveis das instalações, depressão e diversos desvios comportamentais. Após consumirem doses excessivas de teorias de conspiração, não é difícil encontrar moderadores que passam a adotá-las como verdade, gente que acredita que a Terra é plana ou que os judeus não sofreram o Holocausto.

Para combater os efeitos colaterais da função, a Cognizant oferece um atendimento psicológico que poucos consideram satisfatório. Conselheiros estão prontos para atender a todos, mas, de acordo com os relatos apresentados, a iniciativa deve partir do moderador e os conselheiros estão disponíveis somente em dias e horários limitados. Além disso, sua eficácia é questionável. Os efeitos desse tipo de trabalho podem ser sentidos por meses ou mesmo anos, mas a cobertura e apoio da Cognizant se encerram no final do período de trabalho.

Vida de caserna

Como se as características inatas da atividade de moderação já não fossem insuportáveis, o ambiente de trabalho está muito longe de ser o paraíso alardeado pelos gigantes do Vale do Silício. Na teoria, os funcionários da Cognizant trabalham para o Facebook. Na prática, não desfrutam nem do mesmo reconhecimento, nem da mesma média salarial e tampouco da mesma cultura aberta.

Segundo a apuração do The Verge, o regime de trabalho está mais próximo dos porões do telemarketing do que das empresas de TI. Cada minuto do funcionário é monitorado dentro das instalações, do momento em que ele entra até a hora da saída, incluindo as pausas cronometradas. Para preservar a privacidade dos usuários do Facebook, os moderadores não podem entrar com qualquer dispositivo móvel, caneta ou pedaço de papel e todos os pertences pessoais devem ser carregados em sacos plásticos transparentes. Não há armários suficientes para todos, não há banheiros suficientes para todos.

O nível de controle é tamanho que cada moderador tem direito a apenas duas pausas de quinze minutos para ir ao sanitário. Com centenas de funcionários compartilhando somente dois banheiros (masculino e feminino), cada um com suporte a apenas três funcionários, a maior parte da pausa se passa em filas.

Cada moderador tem direito a nove minutos de “bem estar”, para o caso de ser afetado por conteúdo traumático e precisar clarear as ideias. Vários entrevistados revelaram que usavam esse tempo para evitar as filas dos banheiros, mas a gerência proibiu a prática.

Esse tempo de “bem estar” também não pode ser utilizado para práticas religiosas, como as cinco preces diárias obrigatórias do islamismo.

Regras de engajamento

De todas as condições de trabalho negativas, nenhuma consegue ser mais nociva do que as metas de precisão draconianas impostas pelo Facebook. Uma taxa de erros cometida em uma semana pode significar demissão em uma atividade onde a própria definição de erro é vaga.

Moderadores são constantemente confrontados com um complicado sistema de regras que são modificadas ou reinterpretadas quase o tempo todo. Além disso, há casos onde o contexto das postagens está ausente e até mesmo desacordo entre os moderadores.

Apesar da subjetividade da tarefa, o Facebook exige 95% de precisão das empresas terceirizadas. Essa meta é aferida por amostragem, comparando decisões tomadas por moderadores internos do Facebook com decisões de moderadores externos. Mesmo com todo o treinamento e auditorias internas frequentes que pressionam métricas impossíveis a sua equipe, a Cognizant raramente atinge a taxa exigida pelo Facebook, oscilando entre 85% e a meta. No momento da investigação do The Verge, a empresa estava registrando 92% de precisão.

Cada moderador deve cumprir duas etapas ao analisar conteúdo: determinar se a postagem viola as regras de uso do Facebook e especificar a razão correta da violação. Se uma postagem for marcada corretamente para remoção, mas pelo motivo errado, a precisão do funcionário é comprometida. Analisando centenas de postagens por dia, a uma média de trinta segundos em cada avaliação, o nível de tensão é incalculável. Se o moderador tiver dúvidas, pode solicitar ajuda, mas isso irá afetar seu tempo disponível. Qualquer moderador que avalie menos de 200 postagens por dia será advertido.

Para manter a mítica precisão exigida, moderadores ainda dependem de diferentes fontes de consulta. Além das políticas de uso oficiais do Facebook (às quais todos os usuários precisam se submeter), existem também guias internas muito mais detalhadas e um documento batizado de “Questões Conhecidas”, uma espécie de manual de orientação para moderadores.

Frequentemente, moderadores também debatem entre si em busca de um consenso, principalmente em casos de grande repercussão que exigem uma decisão imediata demais para aguardar o posicionamento oficial do Facebook. Não é raro ver esse consenso rebatido logo em seguida pela gerência da Cognizant e isso, obviamente, também afeta negativamente os índices de precisão dos moderadores.

Completando o caos desse cenário, o Facebook atualiza suas regras de moderação toda quinta-feira e novos pareceres são publicados diariamente em sua plataforma interna. Infelizmente, a ordenação dessas postagens na ferramenta de comunicação do Facebook segue a mesma lógica do feed de notícias da rede social e os informes não são exibidos de forma cronológica. Erros podem ser cometidos com base em instruções ultrapassadas e a precisão despenca.

Bem na foto

Logo após a descoberta de que a reportagem do The Verge estava entrevistando funcionários e ex-funcionários da Cognizant nos bastidores, o Facebook convidou formalmente a imprensa para conhecer o funcionamento de uma de suas instalações. Foi a primeira vez que um repórter foi autorizado a realizar essa visita em solo americano.

A imagem transmitida oficialmente por esta Cognizant era diametralmente oposta àquela da reportagem. Segundo uma das fontes consultadas, posteres motivacionais haviam sido colocados nas paredes um dia antes da visita. Entretanto, essa não foi a única mudança percebida. Cinco funcionários se voluntariaram para apresentar sua perspectiva da função, em uma sala de conferência, diante de um de seus coordenadores. Eles confirmaram os desafios da moderação, mas relataram que se sentiam bem no ambiente de trabalho e se viam construindo uma carreira na rede social.

De acordo com um desses voluntários, é equivocada a visão de que os moderadores são expostos constantemente a conteúdo traumático. “A maioria das coias que nós vemos é leve, muito leve. São pessoas desabafando. São pessoas reportando fotos ou vídeos apenas porque não querem ver aquilo, não porque haja algum problema com o conteúdo. Isso é realmente a maior parte das coisas que nós vemos”.

Um outro voluntário não se deixa abalar pela complexidade das regras: “isso mantém o trabalho interessante. Você nunca vai passar um turno inteiro sabendo as respostas para cada questão”. Outro sintetiza perfeitamente o que há de bom em trabalhar na Cognizant: é melhor do que trabalhar em um supermercado, porque “eu não tenho gente gritando na minha cara”.

De acordo com os conselheiros psicológicos formalmente entrevistados que trabalham no local, o sistema de suporte aos funcionários é satisfatório e dá conta dos desafios da função. Questionados sobre os riscos de estresse pós-traumático, aqueles que deveriam zelar pelo bem-estar mental dos moderadores rebatem com a tese do “crescimento pós-traumático”, em que indivíduos submetidos a situações extremas podem emergir melhores.

Com tantas histórias de horror coletadas, a fachada e o discurso pouco se sustentam.

Condenados ao silêncio, esquecidos por seus empregadores, menosprezados pelos usuários, os moderadores se tornam uma baixa colateral de uma guerra travada entre a barbárie e a civilização, entre loucura e razão na maior rede social que já existiu.