noticias Seja bem vindo ao nosso site Rádio Rir Brasil Itacajá TO - Direção: Ronaldo Castro 63 99139-3740!

Mundo

Moderadores do Facebook pedem maior remuneração por \'horrores\' que são obrigados a ver

Trabalhadores terceirizados no Quênia revisam conteúdo explícito para que usuários não tenham de vê-lo

Publicada em 23/05/23 às 23:09h - 10 visualizações

Rádio Rir Brasil Itacajá TO - Direção: Ronaldo Castro 63 99139-3740


Compartilhe
Compartilhar a noticia Moderadores do Facebook pedem maior remuneração por \\\'horrores\\\' que são obrigados a ver  Compartilhar a noticia Moderadores do Facebook pedem maior remuneração por \\\'horrores\\\' que são obrigados a ver  Compartilhar a noticia Moderadores do Facebook pedem maior remuneração por \\\'horrores\\\' que são obrigados a ver

Link da Notícia:

Moderadores do Facebook pedem maior remuneração por \'horrores\' que são obrigados a ver
Alexandre Bittencourt Goiânia, GO Publicado em: 18/05/2023 às 17h23 Última atualização: 18/05/2023 às 17h23  (Foto: Rádio Rir Brasil Itacajá TO - Direção: Ronaldo Castro 63 99139-3740)

De acordo com sua estimativa, Trevin Brownie viu mais de mil pessoas serem decapitadas.

Em seu trabalho, ele tinha de assistir a um novo vídeo do Facebook a cada 55 segundos, aproximadamente, diz, e remover e categorizar o conteúdo mais nocivo e explícito. No primeiro dia de trabalho, ele recorda que a repulsa o fez vomitar, depois de assistir a um vídeo que mostrava um homem se suicidando na frente de seu filho de três anos.

Depois disso, as coisas pioraram. “Você vê pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, estupros”, ele diz, com a voz embargada. “Como usuário, você não vê coisas como essas no Facebook. É meu trabalho como moderador garantir que você não veja coisas como essas”.

PUBLICIDADE

Depois de algum tempo, ele diz, os horrores incessantes começam a afetar o moderador de maneiras inesperadas. “Você chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício“.

Brownie é um dentre as centenas de jovens, a maioria na faixa dos 20 anos, que foram recrutados pela Sama, uma empresa de terceirização de mão de obra sediada em San Francisco, para trabalhar no centro de operações que ela mantém em Nairóbi, moderando o conteúdo do Facebook.

Sul-africano, ele agora faz parte de um grupo de 184 queixosos envolvidos em um processo contra a Sama e a Meta, controladora do Facebook, por supostas violações de direitos humanos e rescisão indevida de contratos.

PUBLICIDADE

O processo é um dos maiores desse tipo em todo o mundo, mas é apenas um dos três que estão sendo movidos contra a Meta no Quênia. Juntos, eles têm implicações potencialmente mundiais para as condições de emprego de um exército oculto de dezenas de milhares de moderadores, empregados para filtrar o material mais tóxico das redes de mídia social do planeta, dizem os advogados envolvidos.

Em 2020, o Facebook aceitou um acordo sob o qual pagou US$ 52 milhões para encerrar um processo e prover tratamentos de saúde mental para moderadores de conteúdo americanos. Outros processos movidos por moderadores na Irlanda buscam indenização por suposto transtorno de estresse pós-traumático.

Mas os casos do Quênia são os primeiros apresentados fora dos Estados Unidos que buscam mudar, por meio de processos judiciais, a forma pela qual os moderadores de conteúdo do Facebook são tratados. Caso sejam bem-sucedidos, poderão levar a muitas outras ações em lugares onde o Meta e outros provedores de mídia social examinam conteúdo por meio de trabalhadores terceirizados, e podem melhorar as condições de milhares de trabalhadores que recebem pagamento comparativamente baixo para se exporem ao pior da humanidade.

PUBLICIDADE

Da mesma forma que trabalhar em uma fábrica ou inalar pó de carvão destruía os corpos dos trabalhadores na era industrial, dizem os advogados dos moderadores, as pessoas que trabalham nas modernas fábricas digitais de mídia social correm o risco de ter suas mentes arruinadas.

“Essas são questões de primeira linha para os direitos trabalhistas nesta geração”, diz Neema Mutemi, professora da Universidade de Nairóbi que está ajudando a divulgar o caso. A Meta foi contatada para que expressasse sua opinião sobre as acusações, mas afirmou que não faz comentários sobre processos judiciais em andamento.

DANOS ONLINE

Nos últimos anos, a Meta vem sofrendo pressão crescente para moderar o conteúdo abrasivo e a desinformação em suas plataformas, que incluem Facebook, WhatsApp e Instagram.

PUBLICIDADE

Em Mianmar, enfrentou acusações de que seus algoritmos reforçavam a retórica do ódio e por não conseguir remover posts que incitavam a violência contra a minoria rohingya, que sofreu milhares de mortes e um êxodo de centenas de milhares de refugiados que fugiram para Bangladesh.

Na Índia, especialistas afirmaram que a empresa não conseguiu suprimir a desinformação e o incitamento à violência, o que levou a tumultos no país, seu maior mercado nacional.

Em 2021, a denunciante Frances Haugen vazou milhares de documentos internos revelando a abordagem da empresa para proteger seus usuários e disse ao Senado dos Estados Unidos que o Facebook priorizava “o lucro em detrimento da segurança”.

PUBLICIDADE

Os documentos mostravam que a Meta falhou principalmente na filtragem de conteúdo polêmico e na proteção de usuários em países não ocidentais, como Etiópia, Afeganistão e Líbia, ainda que pesquisas internas do Facebook classificassem essas regiões como de “alto risco” devido ao cenário político frágil e ao uso frequente da retórica de ódio.

Nos últimos anos, a Meta investiu bilhões de dólares para combater os danos em seus aplicativos, recrutando cerca de 40 mil pessoas para trabalhar nas áreas de segurança e proteção, muitas delas contratadas por meio de empresas terceirizadas como a Accenture, Cognizant e Covalen.

Estima-se que cerca de 15 mil desses trabalhadores sejam moderadores de conteúdo. Fora dos Estados Unidos, a Meta trabalha com empresas terceirizadas em mais de 20 lugares do planeta, entre os quais Índia, Filipinas, Irlanda e Polônia, que agora ajudam a filtrar conteúdo em múltiplos idiomas estrangeiros.

PUBLICIDADE

Em 2019, a Meta solicitou que a Sama —que vinha trabalhando há vários anos em Nairóbi, para clientes como a Meta e a Tesla, na rotulagem de dados para treinamento de software de inteligência artificial— assumisse o trabalho de moderação de conteúdo. Isso faria parte de uma nova central africana que se concentraria na filtragem de conteúdo em idiomas africanos.

A Sama afirma que nunca havia feito esse tipo de trabalho anteriormente. Mas sua equipe local apoiou ideia de aceitar o trabalho, que, de outra forma, poderia ter sido feito nas Filipinas, devido a um senso de responsabilidade quanto a trazer seu conhecimento cultural e linguístico à moderação de conteúdo africano. A empresa começou a contratar pessoas de países como Burundi, Etiópia, Quênia, Somália, África do Sul e Uganda, para trabalhar em suas instalações em Nairóbi.

Isso provou ser um erro. Quatro anos depois de iniciar a moderação de conteúdo, a Sama decidiu sair do negócio, encerrando seu contrato com o Facebook e demitindo alguns dos executivos que haviam supervisionado o novo trabalho.

PUBLICIDADE

Brownie, que havia sido recrutado em 2019 na África do Sul para trabalhar na central de moderação de Nairóbi, estava entre os trabalhadores que receberam aviso prévio em janeiro deste ano, quando a Sama informou aos seus funcionários que deixaria de moderar o conteúdo do Facebook.

“É um trabalho importante, mas acho que está se tornando muito, muito desafiador”, disse Wendy Gonzalez, presidente-executiva da Sama, ao Financial Times, acrescentando que a moderação de conteúdo representava apenas 2% dos negócios da empresa. “Optamos por sair completamente desse negócio”.

Muitos dos moderadores que trabalham no Quênia dizem que o trabalho deixa cicatrizes psicológicas, causa flashbacks perturbadores e impossibilita que mantenham relações sociais normais.

PUBLICIDADE

“As coisas que você vê são indeléveis. Muitos de nós não conseguem dormir, agora”, diz Kauna Ibrahim Malgwi, nigeriana formada em psicologia que começou a trabalhar na central de moderação da Sama em Nairóbi em 2019 e moderava conteúdo no idioma hauçá, falado em toda a África Ocidental. Malgwi diz que está tomando antidepressivos.

Cori Crider, diretora do Foxglove, um escritório de advocacia sem fins lucrativos com sede em Londres que está apoiando os antigos moderadores da Sama em seu caso, diz que eles recebem proteção totalmente inadequada contra o estresse psicológico.

“Os policiais que investigam casos de imagens de abuso infantil contam com uma armada de psiquiatras, e limites rígidos sobre a quantidade de material que podem ver”, ela diz. Mas os conselheiros contratados pela Sama em nome da Meta “não são qualificados para diagnosticar ou tratar o transtorno de estresse pós-traumático”, diz a advogada. “Esses ‘coaches’ se limitam a recomendar que as pessoas façam exercícios de respiração e que pintem com os dedos. Não são profissionais”.

PUBLICIDADE

A Sama diz que todos os conselheiros que empregou contavam com qualificações profissionais conferidas pelo Quênia.

A Meta argumentou que os tribunais do Quênia não tinham jurisdição no caso sobre demissões indevidas. Mas em 20 de abril, em uma decisão que os moderadores e seus advogados consideraram como uma grande vitória, um juiz queniano determinou que a Meta poderia de fato ser processada no país. A empresa está recorrendo.

“Se a Shell viesse e despejasse coisas na costa do Quênia, seria muito óbvio se o Quênia tem ou não jurisdição”, diz Mercy Mutemi, advogada queniana do escritório Nzili and Sumbi Advocates, que está representando os moderadores. “Não se trata de algo físico, tangível. Trata-se de tecnologia. Mas o argumento é o mesmo. Eles vieram aqui para causar danos”.

PUBLICIDADE

CONDIÇÕES DE TRABALHO

O caso dos 184 moderadores é um dos três processos judiciais movidas em nome dos moderadores de conteúdo pelo escritório de advocacia de Mutemi, com apoio do Foxglove.




ATENÇÃO:Os comentários postados abaixo representam a opinião do leitor e não necessariamente do nosso site. Toda responsabilidade das mensagens é do autor da postagem.

Deixe seu comentário!

Nome
Email
Comentário
0 / 500 caracteres


Insira os caracteres no campo abaixo:








Nosso Whatsapp

  63 99139 3740

Copyright (c) 2024 - Rádio Rir Brasil Itacajá TO - Direção: Ronaldo Castro 63 99139-3740
Converse conosco pelo Whatsapp!