Enquanto muitos directores-executivos vendem a ideia de um amanhã radioso com inteligência artificial (IA), há um outro lado quase invisível: um contingente de trabalhadores que enfrenta despedimentos súbitos, salários em queda e contratos frágeis.
Por trás de curvas optimistas de crescimento e de anúncios de investimentos de milhares de milhões, milhares de pessoas vivem uma rotina bem menos glamorosa: ritmos intensos, projectos temporários que podem terminar de um dia para o outro e rendimento instável, apesar de serem elas a sustentar, no terreno, a tecnologia que alimenta esta nova corrida económica.
Milhares de milhões em crescimento, despedimentos em massa
A indústria da inteligência artificial passou a ser sinónimo de capital fresco. Empresas cotadas, empresas emergentes e gigantes tecnológicos apostam o seu futuro na promessa de algoritmos capazes de aumentar a produtividade, reduzir custos e abrir mercados inteiros.
De acordo com números citados pelo sítio Futurism, os negócios ligados à IA terão representado cerca de 92% do crescimento do PIB dos Estados Unidos no primeiro semestre de 2025. Por outras palavras, quase todo o impulso recente da economia norte-americana terá vindo, directa ou indirectamente, desta área.
Em paralelo, o mundo do trabalho está a mexer-se no sentido inverso. A própria Amazon - que beneficia da automação e da escala - terá eliminado cerca de 14 mil postos de trabalho numa única vaga, apesar de apresentar resultados robustos. E Outubro de 2025 ficou registado como um dos meses mais severos em despedimentos no sector tecnológico desde 2003.
O brilho financeiro da IA convive com um subsolo de incerteza: recordes no topo, insegurança permanente na base.
Uma parte importante deste paradoxo tem um motor claro: a externalização em massa das tarefas que alimentam modelos de IA. Em vez de equipas internas com estabilidade, uma fatia grande do trabalho é empurrada para plataformas de trabalho a pedido, pagas à hora ou por tarefa, com pouca ou nenhuma protecção laboral.
Trabalhadores invisíveis da IA e o trabalho de anotação de dados
Para que um sistema de IA pareça “inteligente”, há trabalho humano antes - e muito. É feito por pessoas espalhadas pelo mundo a classificar imagens, rever respostas, avaliar a qualidade de textos, anotar dados sensíveis e assinalar conteúdo violento ou inadequado para ensinar a máquina a evitá-lo.
Estas actividades aparecem sob vários rótulos: rotulagem de dados, anotação, moderação, avaliação de conteúdo. Frequentemente, são desempenhadas por trabalhadores independentes ou por pessoas recrutadas através de agências subcontratadas. A remuneração costuma oscilar consoante a tarefa e o país.
- Baixa visibilidade: quase nunca surgem em relatórios anuais nem em apresentações a investidores.
- Pagamento volátil: os valores à hora mudam com pouca transparência.
- Zero estabilidade: projectos arrancam e param sem aviso consistente.
- Pressão constante: métricas rígidas de produtividade e risco de bloqueio por “baixo desempenho”.
Apesar de serem essenciais, estes trabalhadores raramente entram no debate público sobre o futuro da IA. Na prática, são tratados como peças facilmente substituíveis numa espécie de linha de montagem digital.
Há ainda um aspecto muitas vezes ignorado: parte da moderação e da avaliação de conteúdo implica contacto repetido com material perturbador. Sem apoio psicológico estruturado, pausas adequadas e regras claras de exposição, o risco de desgaste e de impactos na saúde mental cresce - o que agrava a rotatividade e a perda de qualidade no próprio processo.
Mercor: 5.000 pessoas desligadas de um dia para o outro
Um dos episódios recentes que mais chamou a atenção nos Estados Unidos envolve a Mercor, empresa parceira de nomes como a Meta e a OpenAI. A Mercor coordenava um projecto de grande escala, baptizado de Musen, que envolvia mais de 5.000 trabalhadores remotos.
Segundo relatos publicados pelo Business Insider, muitos participantes receberam indicações de que o trabalho se prolongaria até ao final do ano. Alguns reorganizaram o orçamento familiar e compromissos financeiros contando com essa entrada mensal.
Ainda assim, o projecto foi encerrado de forma abrupta. Sem período de transição, sem garantia de recolocação e com informação contraditória, milhares de pessoas ficaram sem remuneração no espaço de horas.
Pouco depois, a Mercor avançou com um novo projecto, chamado Nova. As tarefas mantinham-se praticamente iguais: avaliar respostas de modelos de IA, identificar falhas e sugerir melhorias. O que mudou de forma clara foi o pagamento.
Os relatos sugerem que o trabalho permaneceu quase idêntico, mas o valor à hora terá baixado cerca de cinco dólares (aprox. 4,5 €) de um projecto para o outro.
Para muitos, a mensagem foi simples: aceita-se menos ou volta-se para a fila. A desigualdade de poder entre plataformas e trabalhadores independentes deixa pouco espaço para negociação.
A lógica das “missões descartáveis”
O caso da Mercor não parece ser uma excepção. Plataformas que prestam serviços a empresas de IA têm vindo a normalizar um padrão: projectos curtos, sem compromisso de continuidade e com margem para reduzir tarifas a qualquer momento.
Nalgumas situações, equipas inteiras são desfeitas e substituídas por grupos mais pequenos e especializados (mais caros), enquanto o trabalho repetitivo passa para uma multidão global com rendimentos baixos. O resultado é uma descida do custo médio sem grande impacto nas margens das empresas que contratam.
Para quem permanece activo nestes circuitos, a pressão tende a aumentar. As horas estendem-se, os objectivos sobem e a ameaça de ficar sem tarefas paira sobre cada atraso ou erro. Muitos acabam por se resignar: aceitam as regras porque não encontram alternativas de emprego formal nas suas regiões.
Outra fragilidade frequente é a falta de mecanismos de recurso. Bloqueios de conta, penalizações por métricas e reprovações de tarefas surgem, por vezes, sem explicação compreensível - o que torna a precarização digital ainda mais dura, porque o “emprego” pode desaparecer por decisão automática e sem contraditório.
O discurso de utopia não combina com a realidade do chão de fábrica digital
Enquanto a precariedade se alarga, líderes de grandes tecnológicas continuam a sustentar uma narrativa de optimismo com cautelas. Satya Nadella, director-executivo da Microsoft, tem defendido que a IA pode elevar a qualidade de vida à escala global, desde que as decisões críticas permaneçam sob controlo humano. Sam Altman, à frente da OpenAI, também descreve avanços “espectaculares”, ainda que acompanhados de riscos.
A história contada por estes discursos assenta numa “utopia pragmática”: máquinas a absorver o trabalho pesado, pessoas concentradas em tarefas criativas e mais tempo livre para todos. No papel, soa atractivo.
No entanto, na prática, a promessa continua assente num pilar invisível: trabalho humano com remuneração baixa. A automação está na montra, mas o funcionamento diário das ferramentas depende de muita gente a apagar fogos, corrigir erros dos modelos e ajustar conteúdos para respeitar políticas de segurança.
Com regras de contratação frouxas, parte do progresso da IA assenta num terreno social instável, sujeito a falhas recorrentes.
O que esta transformação revela sobre o futuro do trabalho
A forma como a IA está a ser construída funciona, na prática, como um ensaio do que pode acontecer noutros sectores. Se este modelo se consolidar, tornam-se mais prováveis vários cenários:
| Tendência | O que significa na prática |
|---|---|
| Fragmentação de tarefas | Em vez de um emprego fixo, a pessoa vive de microtrabalhos, nem sempre contínuos. |
| Rendimento instável | Os ganhos mensais oscilam muito, dificultando o planeamento financeiro mais básico. |
| Baixa protecção | Sem vínculo formal, torna-se mais difícil aceder a benefícios como subsídio de desemprego ou cuidados de saúde. |
| Competição global | Trabalhadores em países com custo de vida mais baixo pressionam salários para baixo nos mercados centrais. |
Este desenho reforça um sistema em que poucas empresas concentram tecnologia, dados e capital, enquanto distribuem tarefas “brutas” por uma rede global de prestadores com fraca capacidade de negociação.
Riscos, brechas e possíveis alternativas
Se esta lógica avançar sem travões, o risco não é apenas social. A qualidade da própria IA pode degradar-se. Trabalhadores cansados, mal pagos e inseguros tendem a errar mais, a aceitar tarefas sem tempo suficiente de análise e a privilegiar quantidade em detrimento de rigor.
Para investidores e empresas, isso traduz-se em modelos menos fiáveis, mais enviesamentos incorporados e maior probabilidade de crises reputacionais associadas a conteúdos tóxicos, discriminatórios ou simplesmente incorrectos. O que hoje parece poupança pode tornar-se um custo elevado a médio prazo.
Entre as alternativas discutidas em meios académicos, políticos e sindicais surgem: certificações de boas práticas para plataformas, exigência de transparência na remuneração, criação de pisos mínimos por tarefa, incentivos fiscais condicionados a condições de trabalho e contratos híbridos que combinem flexibilidade com benefícios básicos.
Na Europa, a pressão regulatória pode ganhar peso, seja por via de regras sobre transparência e responsabilidade em sistemas de inteligência artificial, seja pela crescente atenção a direitos laborais em plataformas. Se a contratação continuar opaca, a confiança pública na tecnologia pode tornar-se um factor económico - e não apenas ético.
Conceitos que ajudam a entender este cenário
Alguns termos ajudam a ler o momento actual:
- Trabalho de anotação de dados: processo de rotular, marcar ou comentar informação (texto, imagem, áudio) para que modelos de IA aprendam padrões.
- Plataformas de microtarefas: serviços que dividem projectos grandes em actividades pequenas pagas por tarefa, muitas vezes por montantes muito baixos.
- Precarização digital: combinação de tecnologia com contratos frágeis, salários reduzidos e ausência de direitos, frequentemente mascarada por expressões como “flexibilidade” ou “oportunidade global”.
Nos próximos anos, é plausível que a automação continue a acelerar, ao mesmo tempo que crescem disputas regulatórias e exigências de transparência. Se governos apertarem a fiscalização e se consumidores começarem a valorizar a origem social da tecnologia que utilizam, as empresas poderão ser empurradas para modelos de contratação menos frágeis. Caso contrário, a economia de bastidores tende a aprofundar-se - e a promessa de um futuro brilhante continuará a ser sustentada por quem trabalha no escuro.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário