Ser moderador do TikTok é ver o “pior da Humanidade” por 900€

É um trabalho invisível e o único capaz de se sobrepor ao algoritmo que determina o que apanhamos nas redes. Num testemunho raro, um moderador de conteúdos do TikTok conta como convive com “a podridão humana” todos os dias e como este deveria ser considerado um trabalho de alto risco.

12 set, 2022 - 06:50 • Daniela Espírito Santo



Ser moderador do TikTok é ver o “pior da Humanidade” por 900€

Esta é a primeira de cinco partes do especial "Nos bastidores do TikTok. O trabalho traumático dos moderadores". Clique para ver todos os artigos.



Acordar, beber café, ligar o PC, ver crianças a dançar, ver crianças a auto-mutilarem-se. Ver um desafio divertido, ver violência sexual. Gatinhos a brincar, violência doméstica. Amigos a celebrar, "bullying".

"Manuel" soube que precisava de ajuda quando o que via no trabalho já não o conseguia chocar. “Senti que estava a ficar demasiado insensível ao que estava a ver. As coisas já não me estavam a afetar”, confessa à Renascença o moderador de conteúdo, que nos levou até aos bastidores deste trabalho. Neste testemunho raro, ficamos a conhecer o que passa pelos olhos de quem arrisca a saúde mental para nos salvaguardar dos piores conteúdos.

Na casa dos 30 anos, “Manuel” faz este trabalho há dois. Aceita falar connosco sob a condição de anonimato. Fá-lo para se proteger, uma vez que assinou um acordo de confidencialidade com o TikTok.

Numa longa conversa de mais de duas horas, Manuel fala sem filtro e com aparente leveza sobre o que vê todos os dias. Os exemplos saem-lhe sem grande esforço. Vê muitos. Sabe-os de cor.

“Ainda hoje vi uma criança a cortar o braço com uma tesoura.” Ficamo-nos por aqui. A descrição é demasiado pormenorizada.

Já viu imagens de tortura a animais, episódios de violência doméstica, muito "bullying", e também conteúdo sexual explícito a envolver menores. Os exemplos que Manuel dá podem chocar os mais sensíveis e, por isso, deixamos de fora as descrições mais gráficas.

Entre os vídeos que já bloqueou há “mulheres a filmarem o marido ou namorado” em episódios de violência, há suicídios, há automutilação infantil. E a guerra na Ucrânia também não deu tréguas aos moderadores de conteúdos.

“Mortes, mutilações… muito sangue à mistura”, descreve Manuel. “Às vezes não vemos mortos em si, mas sabemos que, de certeza, há pessoas que morreram”, acrescenta o moderador.

“Ficamos insensíveis ao conteúdo”

Quem faz este tipo de trabalho acaba por recorrer, muitas vezes, a alguma forma de apoio psicológico. Foi também esse o caso com Manuel.

“Sou acompanhado semanalmente, uma vez por semana tenho consulta de Psicologia”, explica. A decisão partiu de si próprio: “Sou acompanhado porque quero. Senti essa necessidade."

Tendo em conta os vídeos e comentários a que são expostos diariamente, os moderadores não podem ser pessoas “muito sensíveis ao conteúdo”. No entanto, e no seu caso, o problema foi “exatamente o oposto”.

“Acho que o público em geral acha que eu vou ter de ir ao psicólogo porque vi uma coisa e fiquei chocado. Não, é exatamente o oposto. Nós ficamos insensíveis ao conteúdo.”

Foi isso que o fez recorrer a ajuda, para “cortar o mal pela raiz”. “Não é normal isto já não me estar a afetar”, pensou então.

O seu caso está longe de ser único. “Sei que há colegas na mesma situação, que já tiveram ou estão a passar agora por essa situação. Nós sentimos muito isso, que ficamos insensíveis”, assegura, dando um exemplo. "Ah, alguém morreu? OK, é mais um dia de trabalho." Os exemplos endurecem à medida que desenvolve o assunto.

“Vemos alguém a suicidar-se ou crianças com cortes nos braços, ou crianças a masturbarem-se ou nuas… e, para nós, é mais um dia de trabalho. Já não nos chateia, já não mexe connosco. Já não sentimos aquela coisa humana da empatia.”

“Nós vemos a podridão humana. Há coisas que as pessoas ‘normais’, que não trabalham [neste ramo, se vissem] ficariam chocadíssimas”.


Moderadores de conteúdos do TikTok são “autênticos heróis”, diz psicóloga Ilustração: Rodrigo Machado/RR
Moderadores de conteúdos do TikTok são “autênticos heróis”, diz psicóloga Ilustração: Rodrigo Machado/RR

A indiferença acaba por resvalar para o campo pessoal e Manuel admite que começou a não se deixar afetar por coisas que lhe aconteciam fora do trabalho. “Há momentos em que penso: ‘OK, isto não é nada demais’, porque eu vejo a porcaria humana todos os dias”.

O especialista em redes sociais Rui Lourenço confirma que é esta a tendência. "O desgaste psicológico é tremendo e vai afetar a pessoa para o resto da vida", diz à Renascença.

Moderadores têm apoio psicológico, se quiserem

Rui Lourenço nunca foi moderador, mas conhece bem a área e não inveja a sorte de quem tem esse emprego.

“São mal pagos, é extremamente desgastante. O trabalho dos moderadores de conteúdos é ver tudo aquilo que as plataformas não nos querem mostrar, ou porque é chocante, ou porque é horrível. Eu não queria estar no lugar deles, sinceramente. É um trabalho que eu não desejo a ninguém.

Tito de Morais, especialista em segurança online, assegura o mesmo. “Os moderadores de conteúdos são expostos durante todo o seu tempo de trabalho ao pior dos piores que a Internet tem”.

Lá fora, crescem os relatos de moderadores que sofrem de transtorno de stress pós-traumático (ou PTSD, em inglês). No Brasil e nos EUA, por exemplo, há já processos judiciais interpostos por moderadores transtornados, a trabalhar em turnos de 12 horas, expostos a conteúdo perturbador ao segundo.

Manuel não conhece nenhum caso grave no TikTok em Portugal, mas já ouviu histórias de moderadores de conteúdos noutras redes sociais que sofreram surtos psicóticos. “Temos conhecimento de um rapaz que ‘surtou’. Do nada, levantou-se e começou a correr para a janela."

A empresa de Manuel fornece gratuitamente este tipo de acompanhamento, mas este tem apenas caráter facultativo - só é acompanhado quem quer.

“Para além de consultas de psicologia 'online', temos também yoga, exercícios de respiração, meditação e 'mindfulness'. Temos uma série de atividades de 'wellness' para melhorar a saúde mental. E é tudo grátis”, adianta.


Ser moderador do TikTok é ver o “pior da Humanidade” por 900€
OuvirPausa

Testemunho de um moderador, que arrisca a saúde mental para nos poupar ao pior da Internet

“Os riscos são muitos. Pode até levar ao suicídio”

Rute Isabel Jorge é psicóloga clínica e tem entre os seus pacientes moderadores de conteúdos. Há dois anos que lida regularmente com os problemas, dúvidas e inquietações de quem trabalha nas redes sociais. Não trabalha diretamente para nenhuma delas, mas para uma empresa que fornece esse tipo de serviços a outras empresas que lidam com plataformas como o TikTok.

Entre as pessoas que atende contam-se moderadores de conteúdo e, por isso, entende a importância do seu trabalho, mas também os seus perigos.

“Se eles não souberem lidar com isso, os riscos são muitos. Pode até levar ao suicídio”, confirma. Foi, aliás, por esse motivo que foi contratada, porque “havia suicídios” em algumas das empresas para onde a sua entidade patronal fornece serviços. (A Renascença tentou confirmar este cenário junto de algumas das principais empresas de serviços de apoio ao cliente em Portugal, mas não obteve respostas.)

“Inicialmente, não havia muitos psicólogos. Entretanto, foram contratando mais e isso alterou-se”, assegura. O cenário melhorou depois de algum apalpar de terreno. “Não é um trabalho que exista há muito tempo. Ainda se está a estudar quais são os impactos.

O cenário que Rute Jorge encontra, por vezes, não é fácil de enfrentar. O corpo trai. A mente prega-lhes partidas. Alguns “acham que estão a morrer”, outros “não conseguem dormir”. Perdem-se em suores frios e quentes e “não se conseguem focar”. São as manifestações físicas do stress a que estão sujeitos quando estão "quase à beira de um 'burnout'".

“O que tento que eles percebam é que, embora pareça que não, é o corpo deles a tentar ajudar, porque o corpo deles acha que eles estão em perigo.”

Rute assegura-lhes que não podem acreditar em tudo o que a mente lhes diz, oferece soluções e pede-lhes que se mimem muito. “Fora o nosso acompanhamento, eles têm de fazer muito trabalho de casa. Têm de ser um agente ativo na terapia porque, connosco, estão apenas uma hora, mas com eles próprios estão cada segundo do dia.”

Os moderadores chegam à psicóloga com todo o tipo de problemas. Alguns ficam afetados com o conteúdo do trabalho, outros com o volume. Outros ainda aproveitam as consultas para desabafar ou resolver problemas “externos”, não relacionados com trabalho.

Os casos mais graves tinham ideação suicida e a terapia fez a diferença, garante a especialista. Muitos veem nas imagens que moderam reflexos do passado, memórias dolorosas plasmadas na tela. Dá um exemplo. “Agora aparecia um vídeo de pedofilia e eu já não me lembrava, mas tinha sido vítima de pedofilia. O meu cérebro ia recordar aquilo tudo. Se eu não tivesse ferramentas para lidar com estas memórias, a sombra iria tomar conta de mim.”

Depois, há quem nem chegue a pedir ajuda. “Pedir ajuda, infelizmente, ainda é visto como um ato de cobardia, quando é um ato de coragem. Há muitas pessoas que acham que é cobarde e aguentam, aguentam, aguentam. O nosso corpo não consegue aguentar tudo, principalmente quando há estas sombras todas do passado que começam a vir à superfície. E se nós não temos as ferramentas para lidar com aquilo… Às vezes há uns [para quem] é tarde demais”, desabafa.

Apesar disso, Rute nunca perdeu um paciente. Reconhece a importância da terapia, mas atribui aos seus “meninos” o valor dessa vitória. “Fico muitíssimo contente, porque sei que é difícil termos de lidar com as sombras todas. Não é uma tarefa fácil. Amo-os muito por terem essa capacidade”, partilha a sorrir.

Oficialmente, chama-lhes agentes mas, para si, são heróis. Aliás, foi por isso que aceitou falar connosco. Sente que merecem reconhecimento pelo trabalho que prestam à sociedade.

Eles são autênticos heróis. Mesmo. Fazem um trabalho muitíssimo bonito e é para nos salvar. Verdadeiramente.”

“Associo-os muitas vezes com os heróis de antigamente, que andavam a lutar por nós e nem sabíamos quem é que eles eram. Andavam nas guerras e nós não sabíamos os nomes deles, não é?", remata a psicóloga clínica. "Acontece o mesmo com os moderadores de conteúdo. Andam a tentar salvar-nos, mas nós também não sabemos o nome deles.”

"São expostos ao pior que a Internet tem”

Ricardo Estrela, gestor da Linha Internet Segura da APAV, também é exposto a conteúdo que pode chocar e reconhece que não é fácil.

“Está comprovado que as pessoas que veem este tipo de conteúdo acabam por sofrer de traumas secundários”, assegura, falando do “efeito traumático” que “visionar situações de violência extrema”, como imagens de guerra, por exemplo, pode ter em “quem faz este tipo de trabalho”.

“E são pessoas que fazem, muitas vezes, turnos muito grandes, em que estão sujeitas a ver grandes volumes de informação”, recorda. “E, como já vimos, não é informação nada simpática de se estar a ver”.

O especialista em segurança online e fundador do portal “Miúdos Seguros na Net” Tito de Morais concorda.

“Os moderadores de conteúdos são expostos durante todo o seu tempo de trabalho ao pior dos piores que a Internet tem.”

No entanto, deixa a ressalva aos pais que possam estar, eventualmente, mais preocupados com os conteúdos que os filhos consomem no TikTok: a visão que os moderadores têm do mundo “acaba por ser deturpada”.

“Vão tomar a nuvem por Juno…porque é isso que veem todos os dias. É isso que lhes entra pelos olhos todos os dias, o pior dos piores que a Internet tem para oferecer”, remata.

Prevenir para não criar “zombies emocionais”

Os riscos da exposição a conteúdo negativo com regularidade podem variar consoante o indivíduo. Sem arriscar prognósticos e sem conhecer casos concretos, Ana Isabel Lage Ferreira, da Direção Nacional da Ordem dos Psicólogos, acredita que os moderadores de conteúdos expostos a conteúdo violento com regularidade podem entrar “num estado de anestesia”.

Segundo a psicóloga, “a repetição constante”, diária, pode causar “dessensitização”. Porquê? Porque o organismo se adapta às situações extremas, que se tornam o novo normal.

“O organismo, para lidar com tanta violência, morte, agressão, vai encontrando mecanismos de compensação.”

Quem tem de lidar todos os dias com este tipo de cenários pode, sem se aperceber, entrar num estado de alerta, medo e insegurança o que, por conseguinte, pode afetar a visão que estas pessoas têm da realidade. O mundo passa a ser “inseguro, ameaçador”. “Ele sabe que é real. Ele sabe que são pessoas que estão a fazer aquilo, que aquilo está a acontecer, de facto, algures no mundo”, salienta a especialista.

Perante um cenário de “fragilidade do tecido emocional”, pode acontecer que uma pessoa, como mecanismo de defesa, se torne num “zombie emocional”, em que "nada me afeta, nada me importa, nada me incomoda. Nada me provoca nenhuma reação".

Para além dos problemas a nível psicológico, este tipo de situação também poderá ter impacto na saúde física, nomeadamente no sistema imunitário, cardiovascular, na digestão ou na regulação do sono.

“Há alterações que podem instalar-se de forma mais ou menos intensa”, refere a psicóloga.

Sentido de missão ajuda a lidar com o trabalho

Então, como podem os moderadores de conteúdos contornar isto? “Dar sentido ao meu trabalho”. Fazer isso pode ajudar, acredita a psicóloga, a “diminuir o impacto” do que veem todos os dias. “Isso pode ser um atenuante” e Manuel é exemplo disso.

“Faço bem para a sociedade”, salienta o moderador, que se diz “de consciência tranquila” e “contente” por “conseguir banir” predadores sexuais do TikTok.

“É uma das coisas que me deixa contente: poder ser útil para a sociedade trabalhando no que trabalho. Sinto que tenho um papel, cada vez mais. Tenho a consciência tranquila que estou a cortar tudo o que é nefasto para a sociedade e para as crianças”, remata.


Moderadores de conteúdo no TikTok. “Acabamos por ser mercenários” Ilustração: Rodrigo Machado/RR
Moderadores de conteúdo no TikTok. “Acabamos por ser mercenários” Ilustração: Rodrigo Machado/RR

TikTok não revela quantos moderadores existem

Manuel é apenas um elemento de um batalhão silencioso que tem por missão filtrar o que nos chega aos ecrãs e garantir que, por entre danças e desafios, não encontramos conteúdo violento ou chocante. A cada hora, passam-lhe pelos olhos 150 a 200 vídeos escrutinados pela rede social. No final de um dia de trabalho, pode chegar a ver cerca de dois mil vídeos.

Integra uma equipa de uma dezena de moderadores contratados por uma empresa de serviços de apoio ao cliente, numa lógica similar à dos “call centers”. O TikTok não revela quantos são nem como trabalham - estima-se que sejam pelo menos dez mil - , mas Manuel acredita que haja centenas de pessoas contratadas para fazer este tipo de trabalho só no nosso país.

Contactada pela Renascença, a responsável de comunicação do TikTok para o mercado português, italiano e grego, Adela Leka, escusou-se a dar pormenores, confirmando apenas o que já se sabe: para manter o “ambiente seguro” naquela rede social, o TikTok usa uma “combinação de tecnologia inovadora e pessoas para identificar, rever e agir contra conteúdo” que viole as suas regras de conduta.

Perguntamos quantas pessoas fazem este trabalho em Portugal, em que empresas e em que moldes. Quisemos saber quanto recebem, quantas horas trabalham e se recebem apoio psicológico. A tudo isto, Leka não deu respostas. “Não divulgamos essas informações”, diz.

Uma rápida pesquisa no LinkedIn mostra que existem várias empresas em Portugal a anunciar vagas relacionadas com moderação de conteúdos, mas raramente é mencionado o nome da rede social para onde, efetivamente, se direciona o cargo.

Ao sabor das “trends” e sob constante pressão

O maior perigo nesta profissão é, para Manuel, o “desgaste mental”. “Muito cansaço, desmotivação. Perdemos a sensibilidade, as nossas emoções”, desabafa. O que veem começa a afetar a sua realidade. “Já começamos a misturar. Já se vive um bocado dentro do TikTok.”

É, por isso, “um emprego de rápido desgaste”, defende Manuel, que lamenta que a moderação de conteúdos em Portugal não seja considerada um emprego de risco. Compara a sua profissão com a de um trabalhador de "call center", cuja carga mental não é fácil de gerir nem de digerir, como também não o é o conteúdo, que é “horrível” e ninguém “quer ver”. “Nem vê” porque, “felizmente, há moderadores de conteúdos” como Manuel.

Na curta lista de qualidades desta profissão, o adjetivo “dinâmico” salta à vista. Para um moderador de conteúdos, não há dias iguais - algo que agrada a Manuel, que não gosta de monotonia.

O volume de trabalho - e de stress - está dependente do conteúdo criado pelos utilizadores. Normalmente, o pico acontece aos domingos. O fluxo aumenta em ocasiões especiais, como uma guerra ou o Dia dos Namorados, e sempre que há alguma “moda” internacional que “pega”. Os moderadores dividem-se em turnos, para assegurar que há alguém a moderar 24 horas por dia.

Mas todos os dias, a pressão está presente. Num dia de trabalho normal, Manuel passa cerca de nove horas em frente ao computador, com pausas pelo meio. No ecrã, tem várias abas abertas no "browser" - uma com a plataforma onde faz moderação, outra para comunicar com superiores e colegas e mais umas quantas páginas com todas as diretrizes a seguir.

As regras estão em constante evolução, e Manuel tem de as conhecer muito bem para as aplicar com rapidez.

Os moderadores trabalham por objetivos. Um dos critérios de avaliação é o ‘average handling time’, o famoso AHT, também usado nos “call centers”, que conta o tempo que o moderador demora a analisar cada conteúdo. Quanto mais rápido o processo, melhor. As decisões são tomadas muitas vezes em poucos segundos.

São também avaliados na “accuracy”, ou precisão do que fazem. “Para cada 'queue' (listas de conteúdo pré-filtrados pelo algoritmo do TikTok) há percentagens que temos de manter ou aumentar”, explica Manuel.

Os objetivos a atingir dependem do material que estão a moderar - há objetivos diferentes para análise de comentários e de vídeos, por exemplo – e do volume de trabalho.

O trabalho é constantemente avaliado por analistas de qualidade, que têm a função de perceber se as decisões tomadas foram as corretas. O que é considerado inócuo é "ignorado" pelo moderador e continua na plataforma; o que viola as regras é eliminado ou leva um aviso de perigo; o que faz soar alarmes é encaminhado para as autoridades.

“O humano faz a triagem”… e o "fact checking"

Entre as diferentes “queues” ou listas de conteúdo com que os moderadores de conteúdos trabalham, há material reportado por utilizadores, mas também filtrado automaticamente pelo algoritmo do Tiktok.

Num primeiro momento, e à semelhança de outras redes, é utilizada inteligência artificial para bloquear conteúdo impróprio em várias categorias. Os utilizadores podem também denunciar publicações inapropriadas. Mas, no fim, a decisão sobre o que pode ou não chegar aos nossos olhos cabe a um moderador de conteúdos humano.

“Nós lidamos literalmente com todo o conteúdo”, explica Manuel. “Temos uma ‘queue’ só de vídeos reportados, vídeos filtrados já pelo algoritmo do Tiktok que já fez uma pré-seleção com palavras tipo suicídio, morte, rabo, genitais..." Isto, contudo, “não quer dizer que seja tudo errado”.

“O humano faz a triagem. Para isso é que nós existimos”, remata.

Há três níveis de transgressão no TikTok. A de nível três, a mais grave, dá direito à retirada do conteúdo da plataforma. A intermédia, nível dois, faz com que o conteúdo em causa não seja retirado, mas seja impossível de encontrar na pesquisa e deixe de aparecer no “Para Você”, a página inicial da rede social. A transgressão mais leve corresponde apenas à omissão do cobiçado “Para Você”, a lista de vídeo sugeridos onde toda a gente quer estar. “Mas, se eu procurar, encontro o vídeo. E nele aparece um aviso de comportamento perigoso”, diz Manuel.

O pior que se pode fazer nesta rede é espalhar "fake news", contra informação, desinformação perigosa, teorias da conspiração e discurso de ódio. “Tudo o que seja esse tipo de conteúdo é banido. Sai mesmo da plataforma.”

Fumar e fazer 'twerk' podem valer punição

Crianças com menos de 13 anos são banidas e os vídeos apagados da plataforma. Qualquer imagem de menor em biquíni ou sutiã de desporto (que não esteja a fazer exercício) também não é permitida. Filmar e conduzir ao mesmo tempo vale reprovação da plataforma, que também não vê com bons olhos vídeos onde apareça alguém a fumar durante muito tempo. Comportamento perigoso vale “disclaimer”.

“Tudo o que forem comportamentos potencialmente perigosos, mesmo que não aconteça nada, mas que possa ser repetido por crianças ou adultos, não retiramos da plataforma, mas metemos um aviso no vídeo a dizer para não fazerem aquilo, para não repetirem”, explica Manuel.

Danças demasiado sensuais são, igualmente, escrutinadas, com especial enfoque no famoso 'twerk' que, se for feito maioritariamente de costas para a câmara, é encarado como conteúdo de cariz sexual. “É demasiado sexual e não queremos isso na plataforma”, adianta o moderador.

Como seria de esperar, “conteúdo sexual, linguagem sexual mesmo entre adultos”, troca de “nudes”, convites e trocas de favores sexuais também são proibidas pela rede social.

Muitas vezes, são os moderadores a fazerem soar o alarme quando algo lhes parece errado. “Quando são ‘trends’ imediatas, falamos com a coordenação e dizemos: ‘Olha, eu acho que isto não é real’. Depois, tentamos alinhar, o mais rapidamente, com os analistas de qualidade”, explica. Quando restam dúvidas, o assunto é escalado para o cliente, o TikTok.

As diretrizes da rede social são a base. As que se usam lá fora são também “válidas em Portugal”, assegura à Renascença Adela Leka, do TikTok. As regras seguem “exemplos específicos” para o que é conteúdo aceitável ou não, mas há muita coisa que tem de ser confirmada pelo moderador. “Há certas coisas [para as quais] nós, a nível pessoal, vamos fazer o nosso 'fact checking'. Vale o que vale”, assume Manuel.

“Acabamos por ser mercenários”

As diretrizes da rede ditam as regras, mas conseguem ser “bastante subjetivas”, deixando espaço para interpretação. A imparcialidade é o objetivo ao moderar e quem o faz tenta manter “sempre a neutralidade”, mas “às vezes é difícil”.

“Somos humanos”, desabafa Manuel, que questiona o seu papel em todo este processo. Por vezes, sente-se mercenário. “Acabamos por ser mercenários porque deixamos as nossas ideologias pessoais a troco de dinheiro. Acabamos por ter um preço”, diz, defendendo que “as redes sociais cortam muito” a liberdade de expressão.

“Faz-me muita confusão ser 'gatekeeper' do que é permitido ou não dizer.” Para Manuel, as redes sociais têm o poder de decidir o que é certo ou errado, mas uma pessoa deveria ter o direito de “poder ser idiota nas redes sociais”.

Quando usa o “chapéu” de moderador, tenta desligar essa parte do cérebro. Em horário de trabalho, é hora de deixar de pensar nisso.

“É o meu trabalho e sou profissional. Profissionalmente, faço o que tenho de fazer. Tento ser o mais imparcial possível. Mas, ‘lá fora’, tenho as minhas opiniões”.

Não deixa de demonstrar o seu desconforto com isso. “Custa-me. Há certas coisas que me custam muito, mas eu faço. É isso que me paga as contas no fim do mês.”

“Ninguém controla quem controla as redes sociais”

Rui Lourenço faz eco dos dilemas de Manuel, mas deixa claro que não concorda com a ideia de que o trabalho dos moderadores possa ser considerado censura.

“Os moderadores não servem para censurar opiniões de pessoas. Servem essencialmente para proteger as pessoas de coisas”, salienta o especialista em redes sociais, que aponta antes o dedo à falta de transparência das próprias plataformas.

“Ninguém controla quem controla as redes sociais. Esse é o grande problema.”

O especialista defende a criação de uma espécie de “ONU para as redes sociais”, que funcione como mediador entre a sociedade civil e as plataformas que usamos todos os dias. A ideia é apoiada por Tito de Morais.

"Cada vez mais se justifica um instituto ético”, defende, especialmente tendo em conta que há um “conflito entre a parte comercial e a parte ética” em cada uma destas empresas.

“A questão da ética nas tecnologias está cada vez mais na agenda pública e é um tema que tem de ser debatido, porque começam a ser verificadas situações que podem ser abusivas”, ressalva.

“As pessoas assinam o contrato e, dois meses depois, estão a pedir para sair”

Para chegar ao lugar onde está hoje, Manuel passou por um processo de seleção rigoroso. Há um teste que é preciso passar. O processo costuma demorar duas semanas no mínimo e, a dada altura, já se modera conteúdo nesse período, embora “com acompanhamento”.

Nesse momento, um moderador mais experiente “acompanha e dá conselhos”. É neste “side by side” que os “novatos” veem os primeiros vídeos e comentários e ficam a perceber que tipo de conteúdo os espera.

Quem entra neste trabalho não fica por muito tempo. À sua volta, Manuel encontra, normalmente, pessoas na casa “dos vintes e dos trintas”, na sua maioria licenciados em “coisas completamente diferentes”. O essencial não é o canudo. O importante é conseguir lidar com a situação, pois “é um trabalho de muito desgaste psicológico”.

Manuel conhece moderadores de conteúdos de outras redes sociais e o cenário é similar. “As pessoas assinam o contrato e, dois meses depois, estão a pedir para sair. É preciso ter estômago. É preciso ter paciência. É preciso ter capacidade de decorar coisas, porque são dezenas e dezenas de políticas diferentes e cada política tem as suas exceções”, explica Manuel.

“É preciso ter muita capacidade de adaptação”, porque o projeto funciona 24 horas por dia, há turnos a cumprir e as regras estão sempre a mudar.

Este trabalho tem ainda um custo que pode não compensar: um moderador de conteúdos recebe, em média, entre 800 e 900 euros líquidos, assegura Manuel.

A Renascença tentou confirmar estes valores junto da rede social, mas o TikTok não divulga essa informação. Algumas empresas que empregam moderadores também não responderam em tempo útil.

“Todos os dias são diferentes”

Nem tudo o que se modera é necessariamente mau. Também há coisas positivas no seu trabalho, assegura Manuel.

“Também apanhamos o lado bom do ser humano”, com ações solidárias e muitas demonstrações de criatividade. “Crianças a fazerem coisas incríveis, danças incríveis, vídeos lindíssimos e super criativos. Há pessoas que fazem conteúdo bastante positivo e agradável”, salienta.

“O Tiktok é das redes sociais que mais criatividade permite. E é dos melhores algoritmos que existem, também pela nossa moderação.”

“Há muito conteúdo, bom, mau e neutro. Também há crianças simplesmente a dançar, pais a filmar filhos… Nós apanhamos o lado bom, o lado neutro e o lado incrivelmente negro do ser humano.”

Todos os dias são diferentes. É uma caixinha de surpresas. Não há monotonia no trabalho. Acordamos e nunca sabemos o que vamos moderar. Para nós tem de ser. Temos de moderar, temos de retirar isto da plataforma”. Manuel pensa nas crianças que usam, todos os dias, aquela rede social.

Tiktok é a plataforma “que mais protege as crianças”

Apesar de tudo o que nos conta, este moderador acredita que o TikTok é, de todas as plataformas sociais, “a que mais protege as crianças”, muito por consequência do seu trabalho diário: muitas contas são banidas rapidamente para garantir que menores de 13 anos não têm acesso à plataforma.

Apesar disso, casos como o de Archie Battersbee recordam que não há sistemas infalíveis e que o algoritmo esconde muitos perigos, especialmente para os mais novos.

“Nós vemos, dias seguidos, as pessoas a publicarem o mesmo vídeo. As pessoas insistem e nós banimos… Normalmente, gostamos de ganhar pelo cansaço”, graceja. “Mas há pessoas mesmo teimosas.”

Por isso mesmo, e apesar de não ser utilizador de redes sociais na sua vida extra-laboral, acredita que “se tivesse que usar uma rede social seria o TikTok”.

Volta e meia, consulta a rede a título pessoal. “Eu uso, não vou dizer que não. Mas não vou lá todos os dias. Uso de vez em quando. Quando quero ‘matar’ dez minutos vou lá fazer um ‘swipezinho’. Há muitos gatinhos no TikTok”, graceja.


Artigos Relacionados