Em 2025, a maior empresa de mídia social do mundo, Meta, tomou um novo tom desafiador sobre a questão de saber se e em que medida aceita a responsabilidade pelo dano do mundo real que suas plataformas permitem.
Isso tem sido amplamente entendido como uma gambit para fazer um favor com a administração do presidente Donald Trump, e a meta CEO e fundadora Mark Zuckerberg, quase o disse em um vídeo de 7 de janeiro, anunciando o fim da verificação de fatos de terceiros.
“Vamos trabalhar com o presidente Trump para recuar nos governos ao redor do mundo, buscando empresas americanas e pressionando mais para censurar”, disse Zuckerberg, dando às decisões de produtos um sabor geopolítico distinto.
Para justificar as decisões da empresa de acabar com a verificação de fatos e reduzir a moderação do conteúdo em suas plataformas, Zuckerberg e Meta apelaram à proteção constitucional dos Estados Unidos do direito à liberdade de expressão. Felizmente, para aqueles de nós que moram nos países que a Meta prometeu “empurrar de volta”, também temos constituições.
No Quênia, por exemplo, onde represento um grupo de ex-moderadores de meta-conteúdo em um processo de ação coletiva contra a empresa, a Constituição pós-independência difere daqueles nos EUA e na Europa Ocidental com sua priorização explícita de direitos e liberdades fundamentais. As constituições de muitas nações com histórias coloniais compartilham isso em comum, uma resposta à forma como esses direitos foram violados quando seus povos foram primeiro pressionados na economia global.
Agora estamos começando a ver como essas constituições podem ser trazidas no setor de tecnologia global. Em uma decisão marcante em setembro passado, o Tribunal de Apelação do Quênia decidiu que os moderadores de conteúdo poderiam levar seu caso de violações de direitos humanos contra a meta nos tribunais trabalhistas do país.
Poucos no Ocidente terão entendido a importância dessa decisão. A Meta, por sua vez, certamente o faz, e é por isso que lutou contra o dente e o dente no tribunal e continua a usar todas as ferramentas diplomáticas à sua disposição para resistir às demandas dos moderadores de conteúdo por reparação. A Meta demonstrou interesse em apelar dessa decisão à Suprema Corte.
A Meta e outras grandes empresas americanas mantêm uma arquitetura corporativa complicada para evitar a exposição a impostos e regulamentação nas dezenas de países onde fazem negócios. Eles geralmente afirmam não operar em países onde contam milhões de usuários e empregam centenas para refinar seus produtos. Até agora, essas reivindicações raramente foram desafiadas no tribunal.
Os moderadores de conteúdo do caso apresentaram -se no tribunal é que eles foram contratados por uma empresa de terceirização de processos de negócios (BPO) chamada SAMA, e colocados para trabalhar exclusivamente como moderadores de conteúdo no Facebook, Instagram, Whatsapp e Messenger durante o período de 2019 a 2023, quando grande parte da moderação do conteúdo africano nessas plataformas foi realizada em Nabobi. A meta nega esses trabalhadores e insiste que eles foram empregados apenas pela Sama, uma questão atualmente sendo litigada perante os tribunais no Quênia.
Esses trabalhadores sabem que a aparente reversão da Meta sobre moderação de conteúdo é tudo menos isso. Conforme apresentado em suas queixas ao tribunal, a empresa nunca levou a questão a sério. Não é seriamente o suficiente para interromper os conflitos civis e étnicos, a violência política e os ataques da multidão contra comunidades marginalizadas que prosperam em suas plataformas. Não é sério o suficiente para pagar salários justos às pessoas encarregadas de garantir que não. O dano viaja nos dois sentidos: o conteúdo tóxico inflama horrores no mundo real, e esses horrores geram conteúdo mais tóxico que satura as plataformas.
Os moderadores de conteúdo são forragens de canhão digital para meta em uma guerra contra conteúdo prejudicial que a empresa nunca estava realmente comprometida em lutar. O caso apresentado pelos moderadores de conteúdo de Nairobi explica como eles aceitaram empregos que pensavam que envolveriam o call center e o trabalho de tradução. Em vez disso, eles acabaram no centro de moderação de conteúdo da Meta em Nairóbi, onde passaram seus dias submetidos a uma interminável torrente de violência e abuso transmitidos.
Muitos deles foram forçados a ver atrocidades cometidas em seus países de origem, a fim de proteger os usuários da Meta dos danos de ver essas imagens e imagens. Eles absorveram esse trauma para que outros em suas comunidades não precisassem, e muitos acharam que esse era um chamado nobre.
Mas esse trabalho afetou sua saúde mental. Mais de 140 ex -moderadores de conteúdo foram diagnosticado com TEPT, depressão ou ansiedade decorrente de seu tempo no trabalho. Um caso separado aborda como os esforços para união para defender melhores cuidados de saúde mental foram frustrados. O que se seguiu foi as demissões em massa e a realocação da moderação do conteúdo do Facebook em outros lugares.
Isso deixou para trás centenas de pessoas impactadas por trauma e um rastro de violações dos direitos humanos. A Meta argumenta que nunca empregou os moderadores de conteúdo do Facebook e não tinha responsabilidade por eles. Esse litígio está em andamento, e os moderadores agora dependem dos tribunais para desvendar as complexidades de sua dinâmica de emprego.
Ao combater o caso no tribunal, em março de 2024, a empresa enviou uma delegação liderada por seu então presidente de assuntos globais, Nick Clegg-ex-vice-primeiro-ministro britânico-para se reunir com o presidente queniano William Ruto e os legisladores para discutir, entre outros tópicos, a visão da empresa de parceria com o governo para trazer o “generativo Ai Revolution” para a continuação da continuação. Em um evento do Townhall em dezembro, Ruto garantiu a Sama, ex -parceiro de moderação de conteúdo da Meta: “Agora mudamos a lei, para que ninguém possa levá -lo a tribunal novamente a qualquer assunto”, referindo -se a um projeto de lei aprovado no parlamento do Quênia que protege grandes empresas de tecnologia de casos futuros como o nosso.
Toda essa reação ocorreu bem antes de Trump ser reeleito, e esses esforços parecem ser tentativas de fugir da responsabilidade pelas práticas trabalhistas da empresa e pelos efeitos de seus produtos. Mas algo notável aconteceu, que abre uma porta para outras pessoas em todo o mundo que trabalham em nome da indústria de tecnologia, mas a quem a própria indústria rejeita: o tribunal decidiu que nosso caso pode prosseguir com o julgamento.
O fato de o caso ter avançado apesar dos vigorosos desafios legais e políticos é uma prova da natureza revolucionária das constituições pós-coloniais, que priorizam os direitos humanos acima de tudo.
Como o nosso caso no Quênia continua, espero que possa oferecer inspiração para os trabalhadores de tecnologia em outras nações pós-coloniais que eles também podem buscar a responsabilidade nos países onde foram prejudicados. O direito à liberdade de expressão é um importante direito humano, mas continuaremos lembrando a Big Tech que igualmente importante é o direito à dignidade e liberdade da exploração.
As opiniões expressas neste artigo são do autor e não refletem necessariamente a postura editorial da Al Jazeera.