Num terça-feira chuvosa em Nairobi, um grupo de raparigas adolescentes aperta-se numa sala de aula demasiado pequena, com o olhar preso a um ecrã de projector rachado. A ligação Wi‑Fi falha de dez em dez minutos, a ventoinha treme como se estivesse prestes a desistir e, ainda assim, sente-se electricidade no ar. Numa parede, alguém escreveu a marcador: “Constrói algo que importe.” A aula de programação de hoje não é para lançar a próxima aplicação viral. O desafio é treinar um pequeno modelo de IA para ajudar agricultores da região a prever doenças nas plantas a partir de fotografias tiradas com o telemóvel.
Uma aluna levanta a mão e faz, num tom quase tímido, a pergunta que não sai da cabeça: “Se a IA pode ajudar as colheitas do meu pai, porque é que no TikTok toda a gente diz que vai roubar os nossos empregos?”
A professora pára por um instante. Depois sorri.
É aqui que começa a verdadeira história da inteligência artificial.
Viver com a IA: o impacto social nas escolhas do dia a dia
A parte mais desconcertante da inteligência artificial é que, muitas vezes, não vemos a decisão - só sentimos o efeito. O empréstimo que não foi aprovado. O vídeo que nunca apareceu no teu feed. O currículo que não chegou a ser lido por uma pessoa.
Por trás desses resultados instantâneos existe um modelo, treinado com dados imperfeitos e profundamente humanos, a decidir silenciosamente quem entra e quem fica na sala de espera.
Há quem descreva a IA como algo neutro: matemática em silício, fria e objectiva. Mas a experiência de quem é afectado conta outra história - feita de escolhas, omissões e consequências.
O poder invisível por detrás de cada decisão de IA
Um caso elucidativo aconteceu num hospital nos Estados Unidos, quando foi adoptada uma ferramenta de IA para sinalizar que doentes deveriam receber cuidados adicionais. À primeira vista, o sistema parecia exemplar: usava gastos passados em cuidados de saúde para estimar risco médico futuro. Soava lógico. Soava eficiente.
Quando investigadores analisaram o modelo com mais profundidade, descobriram um problema grave: a ferramenta subestimava de forma marcada as necessidades de doentes negros. Não porque o código estivesse “programado para ser racista” de forma óbvia, mas porque, historicamente, a despesa com esses doentes tinha sido menor - apesar de apresentarem condições de saúde semelhantes ou até piores. O sistema absorveu décadas de tratamento desigual e transformou-as num número com ar científico: “pontuação de risco”.
Ninguém acordou a querer construir uma máquina enviesada. Ainda assim, foi exactamente isso que apareceu.
Este exemplo aponta para um padrão maior: quando a IA se alimenta de dados históricos, também engole injustiças históricas.
Se o crédito à habitação foi distribuído de forma desigual, se as mulheres foram afastadas de cargos de liderança, se certos bairros foram policiados em excesso, essas marcas acabam nos conjuntos de treino. O algoritmo “aprende” regularidades que ficam bonitas num gráfico - e cruéis na vida real.
Este é o cruzamento discreto onde o impacto social e a IA colidem: no ponto em que os números se encontram com a memória.
Além disso, em contextos europeus - incluindo Portugal - há um segundo nível de invisibilidade: o da governação. Entre RGPD, regras setoriais e o debate em torno da regulação europeia da IA, a questão prática não é apenas “o modelo funciona?”, mas também “quem responde quando falha?” e “como é que as pessoas podem contestar uma decisão automatizada?”. Sem canais claros, a tecnologia torna-se uma caixa-preta com consequências muito reais.
Desenhar IA como um serviço público, não como um truque de magia
Uma mudança simples na abordagem altera tudo: tratar projectos de IA menos como um “hack” brilhante e mais como a construção de um serviço público. Isso obriga a começar por uma pergunta teimosa: “Quem ganha, quem perde e quem não está na sala?”
Antes de escrever uma única linha de código, as equipas podem mapear o percurso real das pessoas tocadas pelo sistema. Não “personas” bonitas num diapositivo, mas trabalhadores, estudantes, doentes, motoristas, inquilinos - gente concreta. É preciso falar com elas, observar como usam as ferramentas actuais e ouvir as preocupações sussurradas: “E se isto correr mal?”
O impacto social começa aí, muito antes de qualquer modelo terminar o treino.
Um erro recorrente é avançar a correr para métricas e painéis. Exactidão, precisão, F1 - a sopa de letras técnica. Enquanto engenheiros celebram uma melhoria de 2%, quem está na linha da frente preocupa-se com algo diferente: perder autonomia, dignidade ou capacidade de decisão.
Todos conhecemos essa sensação de uma ferramenta “descer” de cima, como se tivesse sido feita noutro planeta. Com IA, o risco é multiplicar esse distanciamento à escala.
E sejamos francos: ninguém lê, todos os dias, um guia ético com 60 páginas. As salvaguardas têm de viver nos fluxos de trabalho - não ficar estacionadas em PDFs.
“Os sistemas de IA não se limitam a prever comportamentos; eles mudam-nos. Se não desenharmos deliberadamente para o impacto social, continuamos a desenhá-lo - apenas por negligência.”
- Uma investigadora de políticas em Bruxelas, depois de mais uma negociação nocturna sobre regras para a IA
Pergunta quem está em falta
Traz pessoas de comunidades afectadas para workshops iniciais - não apenas para uma “revisão final” simbólica.Mapeia o dano, não só o benefício
Define cenários concretos de pior caso para cada grupo impactado e como os detetarias cedo.Partilha poder com vozes não técnicas
Dá espaço real para professores, enfermeiros, assistentes sociais e organizadores locais vetarem ou reformularem funcionalidades que alteram o seu trabalho.Testa casos-limite do mundo real
Faz pilotos com quem está nas margens: trabalhadores de plataformas, cuidadores informais, migrantes, pessoas com deficiência.Planeia reparação, não perfeição
Cria um processo explícito para queixas, correcções e reversões quando a IA falha no terreno.
Um ponto frequentemente esquecido é a monitorização contínua: o modelo pode começar “bem” e degradar-se com o tempo, quando mudam os dados, os incentivos ou o contexto social. Rever resultados por grupo, acompanhar reclamações e reavaliar critérios de optimização não é luxo - é manutenção essencial, como num serviço público que não pode “desligar” quando dá problemas.
Convivência com uma IA que serve mesmo as pessoas
Há uma revolução silenciosa a acontecer longe dos palcos e das apresentações reluzentes. Numa clínica rural na Índia, uma solução de IA de poucos recursos ajuda enfermeiros a identificar sinais precoces de doença ocular usando a câmara de um smartphone barato. No Brasil, activistas testam IA para detetar desflorestação ilegal com base em imagens de satélite.
Estes projectos não parecem ficção científica. Parecem portáteis remendados, internet instável e problemas profundamente locais. E o sucesso raramente depende apenas de modelos engenhosos; depende sobretudo de confiança: quem controla os dados, quem pode questionar o sistema, quem beneficia do resultado.
O cruzamento entre impacto social e IA vive nestes compromissos do dia a dia - não numa abstracção distante sobre o “futuro do trabalho”.
| Ponto-chave | Detalhe | Valor para quem lê |
|---|---|---|
| Começar pelas pessoas, não pelos modelos | Entrevistar grupos afectados antes de desenhar funcionalidades ou métricas | Criar ferramentas que são usadas - e não resistidas em silêncio |
| Interrogar os dados | Procurar grupos ausentes, históricos enviesados e variáveis-proxy de características sensíveis | Reduzir enviesamentos ocultos que prejudicam reputações e vidas reais |
| Desenhar para reparação | Montar canais de feedback, recursos/contestação e responsabilidade clara | Reforçar confiança, evitar reacções adversas e melhorar com o tempo |
Perguntas frequentes (FAQ)
Pergunta 1: Como pode uma pequena organização pensar no impacto social ao usar ferramentas de IA?
Resposta 1: Começa pequeno e concreto. Identifica por escrito quem pode ser ajudado, quem pode ser prejudicado e de onde vêm os dados. Fala com pelo menos cinco pessoas que vão usar a ferramenta - ou que serão afectadas por ela - e pergunta como seria, para elas, “um mau resultado”. Depois escolhe ou configura as soluções de IA com essas salvaguardas em mente, mesmo que uses serviços prontos no mercado.Pergunta 2: A IA é sempre enviesada, aconteça o que acontecer?
Resposta 2: Qualquer sistema reflecte escolhas: que dados entram, o que se optimiza e o que se ignora. O enviesamento não é binário; existe em graus. Não dá para o eliminar por completo, mas é possível reduzir os piores danos ao diversificar dados, auditar resultados e dar às pessoas formas reais de contestar decisões.Pergunta 3: A IA pode mesmo ajudar em problemas sociais como pobreza ou alterações climáticas?
Resposta 3: A IA pode apoiar - não substituir - o esforço humano. Pode detetar padrões em imagens de satélite, optimizar consumo de energia ou prever onde os serviços são mais necessários. Esses ganhos só contam quando estão ligados a vontade política, conhecimento local e políticas justas. A tecnologia, por si só, não resolve problemas estruturais.Pergunta 4: Que competências devo aprender se quiser trabalhar em IA socialmente responsável?
Resposta 4: Para além de programação ou ciência de dados, aprende estatística básica, ética e avaliação de impacto. Lê sobre desigualdade e história, não apenas sobre algoritmos. Treina a comunicação entre áreas - com juristas, professores, activistas e designers. Essa capacidade de criar pontes é rara e faz muita falta.Pergunta 5: Como utilizador comum, tenho algum poder sobre a forma como a IA é construída?
Resposta 5: Tens mais influência do que parece. Podes escolher serviços que expliquem como usam IA, apoiar organizações que exigem responsabilização e reagir quando sistemas automatizados te tratam de forma injusta. Quando muitos utilizadores contestam - ou abandonam -, as empresas reparam. A pressão social faz parte do processo de design, mesmo que não apareça nos planos de produto.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário