TikTok não revela quantos moderadores existem
Manuel é apenas um elemento de um batalhão silencioso que tem por missão filtrar o que nos chega aos ecrãs e garantir que, por entre danças e desafios, não encontramos conteúdo violento ou chocante. A cada hora, passam-lhe pelos olhos 150 a 200 vídeos escrutinados pela rede social. No final de um dia de trabalho, pode chegar a ver cerca de dois mil vídeos.
Integra uma equipa de uma dezena de moderadores contratados por uma empresa de serviços de apoio ao cliente, numa lógica similar à dos “call centers”. O TikTok não revela quantos são nem como trabalham - estima-se que sejam pelo menos dez mil - , mas Manuel acredita que haja centenas de pessoas contratadas para fazer este tipo de trabalho só no nosso país.
Contactada pela Renascença, a responsável de comunicação do TikTok para o mercado português, italiano e grego, Adela Leka, escusou-se a dar pormenores, confirmando apenas o que já se sabe: para manter o “ambiente seguro” naquela rede social, o TikTok usa uma “combinação de tecnologia inovadora e pessoas para identificar, rever e agir contra conteúdo” que viole as suas regras de conduta.
Perguntamos quantas pessoas fazem este trabalho em Portugal, em que empresas e em que moldes. Quisemos saber quanto recebem, quantas horas trabalham e se recebem apoio psicológico. A tudo isto, Leka não deu respostas. “Não divulgamos essas informações”, diz.
Uma rápida pesquisa no LinkedIn mostra que existem várias empresas em Portugal a anunciar vagas relacionadas com moderação de conteúdos, mas raramente é mencionado o nome da rede social para onde, efetivamente, se direciona o cargo.
Ao sabor das “trends” e sob constante pressão
O maior perigo nesta profissão é, para Manuel, o “desgaste mental”. “Muito cansaço, desmotivação. Perdemos a sensibilidade, as nossas emoções”, desabafa. O que veem começa a afetar a sua realidade. “Já começamos a misturar. Já se vive um bocado dentro do TikTok.”
É, por isso, “um emprego de rápido desgaste”, defende Manuel, que lamenta que a moderação de conteúdos em Portugal não seja considerada um emprego de risco. Compara a sua profissão com a de um trabalhador de "call center", cuja carga mental não é fácil de gerir nem de digerir, como também não o é o conteúdo, que é “horrível” e ninguém “quer ver”. “Nem vê” porque, “felizmente, há moderadores de conteúdos” como Manuel.
Na curta lista de qualidades desta profissão, o adjetivo “dinâmico” salta à vista. Para um moderador de conteúdos, não há dias iguais - algo que agrada a Manuel, que não gosta de monotonia.
O volume de trabalho - e de stress - está dependente do conteúdo criado pelos utilizadores. Normalmente, o pico acontece aos domingos. O fluxo aumenta em ocasiões especiais, como uma guerra ou o Dia dos Namorados, e sempre que há alguma “moda” internacional que “pega”. Os moderadores dividem-se em turnos, para assegurar que há alguém a moderar 24 horas por dia.
Mas todos os dias, a pressão está presente. Num dia de trabalho normal, Manuel passa cerca de nove horas em frente ao computador, com pausas pelo meio. No ecrã, tem várias abas abertas no "browser" - uma com a plataforma onde faz moderação, outra para comunicar com superiores e colegas e mais umas quantas páginas com todas as diretrizes a seguir.
As regras estão em constante evolução, e Manuel tem de as conhecer muito bem para as aplicar com rapidez.
Os moderadores trabalham por objetivos. Um dos critérios de avaliação é o ‘average handling time’, o famoso AHT, também usado nos “call centers”, que conta o tempo que o moderador demora a analisar cada conteúdo. Quanto mais rápido o processo, melhor. As decisões são tomadas muitas vezes em poucos segundos.
São também avaliados na “accuracy”, ou precisão do que fazem. “Para cada 'queue' (listas de conteúdo pré-filtrados pelo algoritmo do TikTok) há percentagens que temos de manter ou aumentar”, explica Manuel.
Os objetivos a atingir dependem do material que estão a moderar - há objetivos diferentes para análise de comentários e de vídeos, por exemplo – e do volume de trabalho.
O trabalho é constantemente avaliado por analistas de qualidade, que têm a função de perceber se as decisões tomadas foram as corretas. O que é considerado inócuo é "ignorado" pelo moderador e continua na plataforma; o que viola as regras é eliminado ou leva um aviso de perigo; o que faz soar alarmes é encaminhado para as autoridades.
“O humano faz a triagem”… e o "fact checking"
Entre as diferentes “queues” ou listas de conteúdo com que os moderadores de conteúdos trabalham, há material reportado por utilizadores, mas também filtrado automaticamente pelo algoritmo do Tiktok.
Num primeiro momento, e à semelhança de outras redes, é utilizada inteligência artificial para bloquear conteúdo impróprio em várias categorias. Os utilizadores podem também denunciar publicações inapropriadas. Mas, no fim, a decisão sobre o que pode ou não chegar aos nossos olhos cabe a um moderador de conteúdos humano.
“Nós lidamos literalmente com todo o conteúdo”, explica Manuel. “Temos uma ‘queue’ só de vídeos reportados, vídeos filtrados já pelo algoritmo do Tiktok que já fez uma pré-seleção com palavras tipo suicídio, morte, rabo, genitais..." Isto, contudo, “não quer dizer que seja tudo errado”.
“O humano faz a triagem. Para isso é que nós existimos”, remata.
Há três níveis de transgressão no TikTok. A de nível três, a mais grave, dá direito à retirada do conteúdo da plataforma. A intermédia, nível dois, faz com que o conteúdo em causa não seja retirado, mas seja impossível de encontrar na pesquisa e deixe de aparecer no “Para Você”, a página inicial da rede social. A transgressão mais leve corresponde apenas à omissão do cobiçado “Para Você”, a lista de vídeo sugeridos onde toda a gente quer estar. “Mas, se eu procurar, encontro o vídeo. E nele aparece um aviso de comportamento perigoso”, diz Manuel.
O pior que se pode fazer nesta rede é espalhar "fake news", contra informação, desinformação perigosa, teorias da conspiração e discurso de ódio. “Tudo o que seja esse tipo de conteúdo é banido. Sai mesmo da plataforma.”
Fumar e fazer 'twerk' podem valer punição
Crianças com menos de 13 anos são banidas e os vídeos apagados da plataforma. Qualquer imagem de menor em biquíni ou sutiã de desporto (que não esteja a fazer exercício) também não é permitida. Filmar e conduzir ao mesmo tempo vale reprovação da plataforma, que também não vê com bons olhos vídeos onde apareça alguém a fumar durante muito tempo. Comportamento perigoso vale “disclaimer”.
“Tudo o que forem comportamentos potencialmente perigosos, mesmo que não aconteça nada, mas que possa ser repetido por crianças ou adultos, não retiramos da plataforma, mas metemos um aviso no vídeo a dizer para não fazerem aquilo, para não repetirem”, explica Manuel.
Danças demasiado sensuais são, igualmente, escrutinadas, com especial enfoque no famoso 'twerk' que, se for feito maioritariamente de costas para a câmara, é encarado como conteúdo de cariz sexual. “É demasiado sexual e não queremos isso na plataforma”, adianta o moderador.
Como seria de esperar, “conteúdo sexual, linguagem sexual mesmo entre adultos”, troca de “nudes”, convites e trocas de favores sexuais também são proibidas pela rede social.
Muitas vezes, são os moderadores a fazerem soar o alarme quando algo lhes parece errado. “Quando são ‘trends’ imediatas, falamos com a coordenação e dizemos: ‘Olha, eu acho que isto não é real’. Depois, tentamos alinhar, o mais rapidamente, com os analistas de qualidade”, explica. Quando restam dúvidas, o assunto é escalado para o cliente, o TikTok.
As diretrizes da rede social são a base. As que se usam lá fora são também “válidas em Portugal”, assegura à Renascença Adela Leka, do TikTok. As regras seguem “exemplos específicos” para o que é conteúdo aceitável ou não, mas há muita coisa que tem de ser confirmada pelo moderador. “Há certas coisas [para as quais] nós, a nível pessoal, vamos fazer o nosso 'fact checking'. Vale o que vale”, assume Manuel.
“Acabamos por ser mercenários”
As diretrizes da rede ditam as regras, mas conseguem ser “bastante subjetivas”, deixando espaço para interpretação. A imparcialidade é o objetivo ao moderar e quem o faz tenta manter “sempre a neutralidade”, mas “às vezes é difícil”.
“Somos humanos”, desabafa Manuel, que questiona o seu papel em todo este processo. Por vezes, sente-se mercenário. “Acabamos por ser mercenários porque deixamos as nossas ideologias pessoais a troco de dinheiro. Acabamos por ter um preço”, diz, defendendo que “as redes sociais cortam muito” a liberdade de expressão.
“Faz-me muita confusão ser 'gatekeeper' do que é permitido ou não dizer.” Para Manuel, as redes sociais têm o poder de decidir o que é certo ou errado, mas uma pessoa deveria ter o direito de “poder ser idiota nas redes sociais”.
Quando usa o “chapéu” de moderador, tenta desligar essa parte do cérebro. Em horário de trabalho, é hora de deixar de pensar nisso.
“É o meu trabalho e sou profissional. Profissionalmente, faço o que tenho de fazer. Tento ser o mais imparcial possível. Mas, ‘lá fora’, tenho as minhas opiniões”.
Não deixa de demonstrar o seu desconforto com isso. “Custa-me. Há certas coisas que me custam muito, mas eu faço. É isso que me paga as contas no fim do mês.”
“Ninguém controla quem controla as redes sociais”
Rui Lourenço faz eco dos dilemas de Manuel, mas deixa claro que não concorda com a ideia de que o trabalho dos moderadores possa ser considerado censura.
“Os moderadores não servem para censurar opiniões de pessoas. Servem essencialmente para proteger as pessoas de coisas”, salienta o especialista em redes sociais, que aponta antes o dedo à falta de transparência das próprias plataformas.
“Ninguém controla quem controla as redes sociais. Esse é o grande problema.”
O especialista defende a criação de uma espécie de “ONU para as redes sociais”, que funcione como mediador entre a sociedade civil e as plataformas que usamos todos os dias. A ideia é apoiada por Tito de Morais.
"Cada vez mais se justifica um instituto ético”, defende, especialmente tendo em conta que há um “conflito entre a parte comercial e a parte ética” em cada uma destas empresas.
“A questão da ética nas tecnologias está cada vez mais na agenda pública e é um tema que tem de ser debatido, porque começam a ser verificadas situações que podem ser abusivas”, ressalva.
“As pessoas assinam o contrato e, dois meses depois, estão a pedir para sair”
Para chegar ao lugar onde está hoje, Manuel passou por um processo de seleção rigoroso. Há um teste que é preciso passar. O processo costuma demorar duas semanas no mínimo e, a dada altura, já se modera conteúdo nesse período, embora “com acompanhamento”.
Nesse momento, um moderador mais experiente “acompanha e dá conselhos”. É neste “side by side” que os “novatos” veem os primeiros vídeos e comentários e ficam a perceber que tipo de conteúdo os espera.
Quem entra neste trabalho não fica por muito tempo. À sua volta, Manuel encontra, normalmente, pessoas na casa “dos vintes e dos trintas”, na sua maioria licenciados em “coisas completamente diferentes”. O essencial não é o canudo. O importante é conseguir lidar com a situação, pois “é um trabalho de muito desgaste psicológico”.
Manuel conhece moderadores de conteúdos de outras redes sociais e o cenário é similar. “As pessoas assinam o contrato e, dois meses depois, estão a pedir para sair. É preciso ter estômago. É preciso ter paciência. É preciso ter capacidade de decorar coisas, porque são dezenas e dezenas de políticas diferentes e cada política tem as suas exceções”, explica Manuel.
“É preciso ter muita capacidade de adaptação”, porque o projeto funciona 24 horas por dia, há turnos a cumprir e as regras estão sempre a mudar.
Este trabalho tem ainda um custo que pode não compensar: um moderador de conteúdos recebe, em média, entre 800 e 900 euros líquidos, assegura Manuel.
A Renascença tentou confirmar estes valores junto da rede social, mas o TikTok não divulga essa informação. Algumas empresas que empregam moderadores também não responderam em tempo útil.
“Todos os dias são diferentes”
Nem tudo o que se modera é necessariamente mau. Também há coisas positivas no seu trabalho, assegura Manuel.
“Também apanhamos o lado bom do ser humano”, com ações solidárias e muitas demonstrações de criatividade. “Crianças a fazerem coisas incríveis, danças incríveis, vídeos lindíssimos e super criativos. Há pessoas que fazem conteúdo bastante positivo e agradável”, salienta.
“O Tiktok é das redes sociais que mais criatividade permite. E é dos melhores algoritmos que existem, também pela nossa moderação.”
“Há muito conteúdo, bom, mau e neutro. Também há crianças simplesmente a dançar, pais a filmar filhos… Nós apanhamos o lado bom, o lado neutro e o lado incrivelmente negro do ser humano.”
“Todos os dias são diferentes. É uma caixinha de surpresas. Não há monotonia no trabalho. Acordamos e nunca sabemos o que vamos moderar. Para nós tem de ser. Temos de moderar, temos de retirar isto da plataforma”. Manuel pensa nas crianças que usam, todos os dias, aquela rede social.
Tiktok é a plataforma “que mais protege as crianças”
Apesar de tudo o que nos conta, este moderador acredita que o TikTok é, de todas as plataformas sociais, “a que mais protege as crianças”, muito por consequência do seu trabalho diário: muitas contas são banidas rapidamente para garantir que menores de 13 anos não têm acesso à plataforma.
Apesar disso, casos como o de Archie Battersbee recordam que não há sistemas infalíveis e que o algoritmo esconde muitos perigos, especialmente para os mais novos.
“Nós vemos, dias seguidos, as pessoas a publicarem o mesmo vídeo. As pessoas insistem e nós banimos… Normalmente, gostamos de ganhar pelo cansaço”, graceja. “Mas há pessoas mesmo teimosas.”
Por isso mesmo, e apesar de não ser utilizador de redes sociais na sua vida extra-laboral, acredita que “se tivesse que usar uma rede social seria o TikTok”.
Volta e meia, consulta a rede a título pessoal. “Eu uso, não vou dizer que não. Mas não vou lá todos os dias. Uso de vez em quando. Quando quero ‘matar’ dez minutos vou lá fazer um ‘swipezinho’. Há muitos gatinhos no TikTok”, graceja.