Para que a inteligência artificial (IA) generativa realize um relatório de autópsia, trabalhadores em situação precária devem classificar e identificar milhares de imagens de crimes. Do Quénia à Colômbia, os anotadores de dados são cada vez mais numerosos e lutam para melhorar as condições de trabalho.
"Temos de passar o dia a olhar para cadáveres" e "fazer zoom nas feridas" para as recortar e ajudar a IA a identificar essas imagens, "sem nenhum tipo de apoio psicológico", explica à AFP Ephantus Kanyugi. Este queniano de 30 anos classifica e etiqueta imagens para treinar algoritmos desde 2018. Também é vice-presidente da Data Labelers Association, com sede em Nairóbi e que conta com cerca de 800 membros. A organização vai divulgar, em outubro, um código de conduta destinado às plataformas de anotação de dados para melhorar as condições dos trabalhadores, diante da ausência de uma legislação que regule esta atividade no Quénia.
"Somos como fantasmas, as pessoas não sabem que existimos, que somos nós que ajudamos com o avanço tecnológico", lamenta Oskarina Fuentes. A venezuelana de 35 anos, que mora na cidade colombiana de Medellín, trabalha para cinco plataformas de anotação de dados. Recebe entre cinco e 25 centavos do dólar (entre quatro e 21 cêntimos) por tarefa. Graças a este trabalho, frequentemente invisível, os carros autónomos reconhecem pedestres ou árvores, os chatbots como o ChatGPT expressam-se de forma natural e os sistemas de moderação filtram conteúdos violentos ou pornográficos.
É um mercado em ascensão: em 2024 representou 3,77 mil milhões de dólares (3,23 mil milhões de euros), que devem crescer até os 17,1 mil milhões (14,7 mil milhões) até 2030, segundo o Grand View Research.
"Escravidão moderna"
A IA vai continuar a precisar de verificação humana "enquanto continuar baseada na aprendizagem automática", explica o sociólogo Antonio Casilli, autor de um livro de investigação sobre o "trabalho do clique". São necessárias pessoas tanto na fase inicial para preparar os dados que alimentam os modelos como na etapa final para avaliar a pertinência das respostas.
As gigantes tecnológicas terceirizam esse trabalho para inúmeras empresas. Uma das mais importantes é a americana Scale AI, na qual a Meta investiu recentemente mais de 14 mil milhões de dólares (12 mil milhões de euros). Entre os seus clientes estão OpenAI, a Microsoft e o Departamento de Defesa dos Estados Unidos.
Os anotadores de dados geralmente têm entre 18 e 30 anos e recebem uma remuneração muito baixa, apesar de terem formação de alto nível, observa Casilli, professor do Instituto Politécnico de Paris. Na sua maioria, são originários de países com poucos recursos, embora essa atividade também se esteja a desenvolver nos Estados Unidos e na Europa, com salários mais elevados.
À medida que avançam, os modelos por trás do ChatGPT da OpenAI ou do Claude da Anthropic precisam de se especializar em matérias complexas, como matemática, química ou idiomas pouco comuns. O site da Outlier, filial da Scale AI, oferece múltiplas vagas de trabalho para especialistas em biologia, língua malaia ou programação em espanhol, com remunerações entre 30 e 50 dólares (entre 25,70 e 42,84 euros) por hora.
No Quénia, por outro lado, a Remotasks, outra filial da Scale AI, paga aos seus anotadores de dados cerca de 0,01 dólares (menos de um cêntimo) por uma tarefa que pode durar várias horas, segundo Kanyugi. É "a escravidão moderna", diz. "As pessoas desenvolvem problemas de visão, de coluna, sofrem de ansiedade e depressão porque trabalham 20 horas por dia ou seis dias por semana por um salário miserável e é possível que nem sequer recebam o pagamento", adverte.
Conteúdos traumáticos sem medidas preventivas
A Scale AI é alvo de várias denúncias nos Estados Unidos. Os funcionários acusam a empresa de trabalho não remunerado e de os expor a conteúdos traumáticos sem medidas preventivas suficientes, segundo documentos legais consultados pela AFP. Os demandantes afirmam, por exemplo, que tiveram de abordar com uma inteligência artificial questões como "como se suicidar?", "como envenenar alguém?" ou "como matar alguém?".
A empresa recusou-se a comentar as ações judiciais, mas reconhece que alguns projetos destinados a criar modelos de IA seguros podem incluir conteúdos sensíveis. A Scale AI garante que avisa sempre os trabalhadores com antecedência e que podem interromper uma tarefa a qualquer momento. Também menciona programas e recursos dedicados à saúde mental e uma linha de atendimento telefónico anónima.
A companhia assegura ainda que oferece uma escala de salários transparente, com tarifas iguais ou superiores ao salário mínimo vigente nos locais onde opera.
No entanto, estes trabalhadores podem ficar sem emprego ou pagamento de um dia para o outro. Oskarina Fuentes acusa uma das plataformas que a empregava de não lhe pagar cerca de 900 dólares (771 euros), ou seja, três meses de trabalho, após uma atualização no sistema de pagamento. "Perdi o meu tempo, o meu esforço, o meu sono", afirma, acresentando que não pode nomear a empresa porque assinou um acordo de confidencialidade, uma prática frequente nesta indústria.
No Quénia, a Data Labelers Association contempla levar à justiça a Remotasks, devido às acusações de vários trabalhadores de que, em março de 2024, interrompeu o acesso à sua plataforma sem pagar o dinheiro que lhes devia. A empresa matriz Scale AI admite uma redução da sua atividade no Quénia e afirma ter encerrado contas de anotadores por infringirem a suas normas internas. Porém, garante que as atividades realizadas foram remuneradas.
No caso da Anthropic, a empresa colabora com a SurgeAI, uma empresa emergente de anotação de dados também processada nos Estados Unidos. O gigante da IA afirma que exige que se siga as normas relativas ao bem-estar dos trabalhadores encarregues de conteúdos sensíveis e que estabeleçam uma tarifa equivalente ou superior a 16 dólares (13,70 euros) por hora.
A OpenAI garante que possui uma normativa rigorosa para os seus colaboradores em matéria de segurança no trabalho, remuneração justa, não discriminação e respeito aos direitos dos empregados.
Sem proteção social
No entanto, os trabalhadores, que na sua maioria trabalham por conta própria ou com contratos de curta duração, muitas vezes carecem de proteção social, lembra o sociólogo Antonio Casilli, que os qualifica como "subproletariado digital".
No Quénia, o futuro código de conduta da Data Labelers Association, ao qual a AFP teve acesso, pretende estabelecer um contrato de trabalho com uma "remuneração justa", garantir a liberdade de associação, o direito a pausas e a um apoio psicológico em caso de exposição a conteúdos nocivos.
Mas essas reivindicações podem transformar-se num cabo de guerra com as empresas. Nos Estados Unidos, cerca de 250 pessoas que trabalhavam para a GlobalLogic, que treina o Gemini, da Google, foram demitidas em setembro depois de vários funcionários terem denunciado as diferenças salariais e tentado obter melhores condições. "Eles querem anotadores de dados submissos", denuncia Andrew Lauzon, de 31 anos, que trabalhava para a GlobalLogic desde março de 2024 e que reivindicava "salários justos", "dias de folga" e "uma cobertura médica acessível".
Um porta-voz da Google afirmou que "como empresa, a GlobalLogic é responsável pelas condições de trabalho dos funcionários". O grupo afirma que exige um tratamento justo e equitativo para seus trabalhadores e assegura que realiza auditorias periódicas.
"Os gigantes tecnológicos não podem construir o futuro sobre uma força de trabalho descartável", insiste Christy Hoffman, secretária-geral da federação sindical internacional UNI Global Union, que publicou no início de outubro um estudo sobre os trabalhadores da IA. "É hora de os titãs de Silicon Valley serem responsáveis pelas condições de trabalho na sua cadeia de subcontratação".
Este trabalho sofre sobretudo de uma falta de estrutura jurídica. Na Europa, apesar da aprovação de uma ampla regulamentação sobre IA, ainda existem "lacunas", afirma a eurodeputada francesa de esquerda radical Leïla Chaibi. Embora milhões de pessoas realizem este trabalho, essencial para o desenvolvimento da nova tecnologia, "não há nenhuma menção aos trabalhadores do clique no regulamento sobre a IA".