A grande maioria de FacebookE os usuários do Instagram nunca vêem conteúdo perturbador representando cenas de tortura, abuso de crianças ou assassinato nessas plataformas. Isso é graças aos moderadores de conteúdo, que constantemente revisam o conteúdo e excluem imagens e vídeos inapropriados. Freqüentemente, esses moderadores de conteúdo são empregados por subcontratados em países do sul global. Sua linha de trabalho é extremamente estressante e atrai críticas há anos.
A Meta, proprietária do Facebook e Instagram, e seus subcontratados africanos enfrentaram inúmeras ações judiciais sobre essas práticas. De acordo com o British Daily O guardiãoAssim, Os advogados estão atualmente se preparando para um processo contra majoreluma empresa contratada pela Meta para se envolver em moderação de conteúdo.
Falta de apoio psicológico?
Moderadores de conteúdo que trabalham para majorel em Gana’sCapital Accra disse O guardião que eles sofreram Depressão, ansiedade, insôniae abuso de substâncias. Eles acreditam que este é um resultado direto de seu trabalho como moderadores de conteúdo. Eles também afirmam que o apoio psicológico oferecido para ajudar a processar o conteúdo perturbador de mídias sociais era inadequado.
O Teleperformance, dono de Majorel, nega essas acusações. De acordo com O guardiãoa empresa emprega seus próprios profissionais de saúde mental, que estão registrados na autoridade de supervisão local. A DW pediu a Majorel para comentar, mas não recebeu resposta. A ONG British ONG Foxgleve está agora preparando uma ação judicial.
Enquanto isso, isso não é o primeiro processo desse tipo. Cerca de dois anos atrás, ex -moderadores do Facebook em Quênia’sA Capital Nairobi entrou com uma ação contra a Meta e seus subcontratados Sama (Samasource) e majorel. Eles estavam envolvidos em ações sindicais para melhorar suas condições de trabalho e dizem que foram demitidas injustamente e não foram recontratadas pela Majorel, informa a agência de notícias da Reuters.
Em setembro de 2024, um tribunal confirmou que a Meta pode ser processada no Quênia, levando a novos processos judiciais e processos de mediação. Nos EUA, um processo de ação coletiva movido por ex -moderadores do Facebook terminou em 2020 com um acordo de aproximadamente US $ 52 milhões (45,7 milhões de euros) em compensação por danos psicológicos.
Imagens perturbadoras horas a fio
Mercy Mutemi, advogado que representou os queixosos no julgamento do Quênia, disse à Reuters que esses processos são um “despertar” empresas de tecnologia para assumir uma posição mais forte contra direitos humanos violações.
Alguns ex -moderadores de conteúdo estão falando sobre suas experiências no trabalho, embora os funcionários frequentemente assinem acordos de confidencialidade. A plataforma de notícias netzpolitik.org relatou que os moderadores de conteúdo empregados por um subcontratado passavam oito a dez horas por dia revisando o conteúdo perturbador, algumas das quais mostraram cenas de crueldade e execuções de animais.
Um ex -moderador de conteúdo que trabalha para um subcontratado disse O guardião “O sistema não nos permite pular … temos que olhar para ele por 15 segundos, pelo menos”. O homem também disse que se sentiu gradualmente se tornando “fora da humanidade”. O guardião O relatório foi produzido junto com o Bureau of Investigative Journalism.
Outro ex -funcionário, que agora está envolvido na coalizão de trabalhadores de tecnologia africana, disse O guardião sobre trabalhar sob intensa pressão do tempo: “Você não poderia parar se visse algo traumático. Você não poderia parar para sua saúde mental”.
O ex -moderador de conteúdo disse que acredita que a situação se deteriorou ainda mais, com os funcionários forçados a assistir a vídeos de duas a três vezes a velocidade normal, em várias telas ao mesmo tempo.
A Foxglove ONG também relata que alguns moderadores de conteúdo tiveram que pedir permissão para deixar suas telas de computador e que, às vezes, esse pedido foi negado. A organização diz que a moderação do conteúdo é particularmente estressante para as pessoas de regiões de conflito, que têm medo constante de reconhecer parentes e amigos em imagens que são solicitadas a revisar. A DW não conseguiu verificar se essas alegações são justificadas.
Uma agência de comunicações encomendada pela Meta disse à DW que a Meta havia celebrado acordos contratuais com suas empresas moderadoras de conteúdo. Ele disse que esses acordos destinam -se a garantir que os moderadores recebam treinamento profissional, bem como acesso a apoio profissional e assistência médica o tempo todo. A Agência de Comunicações também disse que as empresas moderadoras de conteúdo são obrigadas a pagar salários acima da média e respeitar o direito de organizar.
O Quênia e as Filipinas atraem processos de negócios terceirizados
Não é por acaso que muitos subcontratados que oferecem serviços de moderação de conteúdo para grandes plataformas de mídia social se baseiam nos países em desenvolvimento, onde os salários geralmente são significativamente menores do que nos países ocidentais, os padrões de segurança ocupacional mais pobres e o desemprego juvenil é alto. Além disso, diferentes fusos horários garantem que a moderação do conteúdo possa ser fornecida o tempo todo.
“As grandes empresas de tecnologia gostam de terceirizar um trabalho importante, mas oneroso, para a África. Eles fazem isso de maneira colonial e exploradora”, disse Mercy Mutemi ao netzpolitik.org.
No final de 2023, ela disse à DW que “o Facebook e Sama estão atraindo jovens, talentosos, mas vulneráveis e inocentes jovens do Quênia e de outros países africanos”.
Os próprios países se beneficiam da terceirização de processos de negócios (BPO), que é um negócio lucrativo. Na primavera de 2024, o presidente queniano William Ruto anunciou planos de expandir a infraestrutura para atrair mais BPO, com o objetivo de criar um milhão de novos empregos no BPO nos próximos cinco anos.
A capital do Quênia, Nairobi, já é considerada um hub de TI em promotores, apropriadamente apelidado de “Silicon Savannah”, com um População jovem e bem-educada com boas habilidades em inglês. Países como Ruanda e Gana também desejam expandir seus setores de tecnologia. Enquanto isso, as Filipinas e a Índia também são grandes jogadores no mundo da tecnologia.
A IA substituirá os moderadores de conteúdo humano?
Ainda é difícil prever como serão as condições de trabalho no futuro. Embora Inteligência Artificial (AI) Já está amplamente utilizado, os especialistas acreditam que não será capaz de substituir completamente o trabalho humano. Por exemplo, os algoritmos nem sempre reconhecem com segurança imagens de tortura e abuso. As diferenças linguísticas e culturais também continuam sendo um problema para a IA.
A única solução real, portanto, é investir em moderadores de conteúdo humano que já estão fazendo este trabalho, disse a diretora da Foxglove, Martha Dark, disse O guardião.
Este artigo foi originalmente escrito em alemão.