Por detrás do ecrã, está a acontecer algo muito menos glamoroso.
A inteligência artificial parece imaterial: um chatbot num navegador, uma funcionalidade no telemóvel, um botão na aplicação de e‑mail. No entanto, cada pedido feito à IA depende de enormes centros de dados, chips especializados e fluxos maciços de electricidade e água. Investigadores do Instituto de Tecnologia de Massachusetts estão agora a alertar para o facto de esta infraestrutura invisível poder alterar o uso global de energia e de recursos muito mais depressa do que reguladores e planeadores antecipam.
A pegada invisível da IA começa pela energia
A primeira coisa que a IA consome é electricidade. Não em pequenas quantidades, mas em volumes à escala da rede, medidos em megawatts e terawatts-hora.
Treinar um modelo generativo moderno significa executar milhares de milhões de cálculos repetidas vezes em chips potentes. Depois de o modelo entrar em funcionamento, a fase de “inferência” - todas as perguntas quotidianas colocadas pelos utilizadores - mantém esses chips permanentemente ocupados.
Os centros de dados em todo o mundo consumiram cerca de 460 terawatts-hora de electricidade em 2022, aproximadamente o mesmo que o consumo anual total de França, e essa cifra está a caminho de mais do que duplicar até 2026.
Só na América do Norte, a procura de energia dos centros de dados subiu de 2 688 megawatts no final de 2022 para 5 341 megawatts um ano depois. A IA não é o único motor desta subida, mas já é a principal razão pela qual estão a ser propostos novos parques de servidores nos Estados Unidos, na Irlanda, nos Países Baixos e noutros países.
A carga não é constante. As sessões de treino provocam picos acentuados de consumo que os operadores da rede têm de prever. Quando a produção renovável é baixa, estes picos podem levar as utilities a ligar centrais a gás ou até geradores a gasóleo, aumentando as emissões precisamente no momento em que o sector tecnológico afirma estar a tornar-se mais verde.
Uma consulta à IA versus uma pesquisa na Web
Para os utilizadores, parece que fazer uma pergunta a um chatbot não difere muito de procurar algo no Google. A factura energética conta outra história.
Estima-se que uma consulta média ao estilo do ChatGPT consuma cerca de cinco vezes mais electricidade do que uma pesquisa convencional na Web.
À medida que os modelos aumentam de escala e de capacidade, exigem ainda mais computação por cada resposta. Isso torna o impacto climático fortemente dependente da rapidez com que o sistema energético se descarboniza - e de saber se a procura da IA ultrapassa a oferta limpa.
A água: o outro recurso que a IA drena
A electricidade é apenas metade do problema. Manter dezenas de milhares de chips refrigerados cria uma sede enorme por água.
A maioria dos grandes centros de dados utiliza sistemas de arrefecimento com água. Essa água pode vir das redes municipais, de rios, de lagos ou de aquíferos. Cada quilowatt-hora consumido por um centro de dados típico está associado a um consumo relevante de água, desde as torres de arrefecimento no local até à água necessária a montante para as centrais eléctricas.
Os investigadores estimam que o funcionamento de um centro de dados pode consumir cerca de dois litros de água por cada quilowatt-hora de electricidade utilizada.
Em regiões com escassez de água ou com ecossistemas já sob pressão, isto cria trocas difíceis entre o crescimento digital e as necessidades locais. Um único novo campus com forte presença de IA numa zona seca pode competir com a agricultura ou com as habitações pelo mesmo recurso limitado.
Há ainda outro efeito pouco discutido: quando os centros de dados se instalam em zonas com temperaturas elevadas, o calor residual intensifica a pressão sobre as infra-estruturas locais. Em períodos de picos de procura, isso pode obrigar a reforços na rede e a novos investimentos que acabam por ser suportados, directa ou indirectamente, pelas comunidades vizinhas.
Onde a IA e a seca colidem
Países como Espanha, os Estados Unidos e partes da Índia já estão a lidar com ondas de calor e com a descida dos níveis das albufeiras. Instalar grandes centros de dados de IA nestas regiões pode amplificar a pressão, sobretudo no Verão, quando tanto o ar condicionado como o arrefecimento dos servidores atingem máximos.
- As temperaturas elevadas significam mais arrefecimento e, por isso, mais água.
- As secas reduzem a água superficial disponível, empurrando os operadores para a extracção de águas subterrâneas.
- Os ecossistemas locais podem sofrer quando rios e aquíferos são esgotados mais depressa do que se recarregam.
O hardware por detrás das emissões da IA
Para lá das operações diárias, as máquinas que alimentam a IA têm o seu próprio custo ambiental. Fabricar servidores e, sobretudo, chips de alto desempenho é intensivo em recursos e está muito concentrado num número reduzido de países.
As unidades de processamento gráfico são a base de trabalho da IA moderna. Foram concebidas para cálculo em paralelo e deixam os processadores centrais tradicionais muito para trás quando se trata de treinar redes neuronais.
Estima-se que a Nvidia, a AMD e a Intel tenham vendido cerca de 3,85 milhões de unidades de processamento gráfico a centros de dados em 2023, um aumento acentuado face aos 2,67 milhões de 2022, sendo provável que 2024 volte a registar um valor mais elevado.
Cada unidade envolve extracção e processamento de metais, fabrico semicondutor altamente complexo e transporte internacional. Em comparação com processadores standard, os chips de IA de topo são maiores, mais sofisticados e mais exigentes em termos energéticos para produzir, o que aumenta a sua pegada de carbono incorporado antes mesmo de chegarem a um rack.
Das minas às fábricas de semicondutores e aos resíduos electrónicos
A história do hardware de IA estende-se desde o cobre e os metais raros extraídos do subsolo até às fábricas de chips fortemente dependentes de químicos e, por fim, aos resíduos electrónicos.
Os riscos de poluição surgem em cada fase:
| Fase | Principais impactos |
|---|---|
| Mineração | Destruição de habitats, resíduos mineiros, contaminação da água, elevado consumo de energia |
| Fabrico de chips | Produtos químicos tóxicos, gases com efeito de estufa usados na gravação, grande procura de água e energia |
| Montagem e transporte | Emissões ligadas à logística, resíduos de embalagem |
| Fim de vida | Resíduos electrónicos, reciclagem limitada de componentes avançados, possível lixiviação de materiais perigosos |
Com a procura por IA em forte crescimento, os operadores de centros de dados substituem o hardware com maior frequência para se manterem competitivos, encurtando a vida útil efectiva destes dispositivos complexos e aumentando a rotação de materiais.
Uma consequência adicional é a pressão sobre a economia circular. Quanto mais depressa os chips e servidores são trocados, mais difícil se torna reaproveitar componentes, remanufaturar equipamentos e planear cadeias de fornecimento menos agressivas para o ambiente.
Porque é que o MIT diz que continuamos a navegar às cegas
Os investigadores do Instituto de Tecnologia de Massachusetts defendem que a sociedade está a subestimar o custo ambiental total da IA, em grande parte porque a tecnologia está a evoluir mais depressa do que os mecanismos de medição.
Chamam a atenção para vários pontos cegos:
- Os dados de treino e a metodologia raramente são publicados em detalhe, o que dificulta a estimativa do consumo energético total do treino.
- As empresas reportam muitas vezes as emissões globais de forma agregada, sem separar aquilo que é causado pela IA.
- As cadeias de fornecimento de chips e servidores são pouco transparentes, com poucos dados públicos sobre carbono incorporado e uso de água.
Os cientistas do MIT afirmam que faltam métodos “sistemáticos e abrangentes” para acompanhar, em tempo real, as trocas de compromisso associadas ao desenvolvimento rápido da IA.
Sem melhores dados, os decisores políticos e os planeadores energéticos têm dificuldade em prever quantas novas centrais eléctricas, actualizações da rede ou obras de infra-estruturas hídricas serão necessárias para alimentar o boom da IA.
A energia mais limpa pode salvar a consciência da IA?
As grandes empresas de tecnologia apontam para compras agressivas de energia renovável e para promessas de neutralidade carbónica como prova de que a IA pode crescer sem arruinar as metas climáticas. A realidade é mais ambígua.
Muitas empresas compram certificados ou financiam parques eólicos distantes, ao mesmo tempo que continuam a operar centros de dados intensivos em energia em regiões dominadas por combustíveis fósseis. Quando a procura de IA dispara durante a noite ou em períodos sem vento e com céu nublado, esses servidores recorrem ao que estiver disponível na rede local nesse momento.
Estão a surgir algumas ideias promissoras: localizar centros de dados perto de recursos hidroeléctricos ou geotérmicos, ligá-los a baterias de grande escala ou agendar sessões de treino para períodos de excesso de produção renovável. Ainda assim, estas abordagens estão longe de ser universais e raramente resolvem os impactos do uso da água e do fabrico do hardware.
O que “treino” e “inferência” realmente significam para as emissões
Vale a pena esclarecer dois termos da IA, porque estão directamente ligados ao impacto ambiental.
Treino é a fase única - ou ocasional - em que um modelo aprende a partir de conjuntos de dados gigantescos. Isto pode demorar semanas em milhares de unidades de processamento gráfico, consumindo grandes picos de energia e água. Nos modelos de vanguarda, o treino, por si só, pode libertar tanto CO₂ como as emissões ao longo da vida útil de centenas de automóveis.
Inferência é o que acontece sempre que escreve um pedido ou quando uma empresa utiliza IA nos dados dos clientes. Individualmente, cada interacção é pequena. Mas, quando milhões ou milhares de milhões de pedidos são processados diariamente em chatbots, ferramentas de correio electrónico, motores de busca e telemóveis, o consumo energético acumulado pode rivalizar com o treino ou até superá-lo.
Se os assistentes de IA se tornarem a interface predefinida para tudo, desde o trabalho de escritório até às recomendações de streaming, as emissões da inferência poderão tornar-se a parcela dominante da pegada da IA.
E se o uso da IA continuar a duplicar?
Imagine um cenário em que os pedidos à IA por pessoa duplicam todos os anos durante os próximos três anos, à medida que mais serviços integram ferramentas generativas por defeito:
- Ano um: a IA é usada apenas ocasionalmente, sobretudo por quem adere cedo à tecnologia.
- Ano dois: passa a estar integrada em software de escritório, pesquisa e mensagens; o uso diário torna-se comum.
- Ano três: muitas aplicações executam IA em segundo plano, gerando resumos, alertas e recomendações sem que exista um pedido directo.
Nesse mundo, mesmo que cada resposta da IA se torne ligeiramente mais eficiente, a procura total pode disparar. As redes eléctricas teriam de se expandir, novos centros de dados seriam aprovados mais depressa e as comunidades locais poderiam enfrentar nova concorrência por terra e água.
Ainda assim, há benefícios potenciais. Aplicações bem direccionadas de IA podem ajudar as utilities a prever a procura, integrar renováveis e reduzir desperdícios noutros sectores. Por exemplo, um controlo mais inteligente do aquecimento, da logística ou de processos industriais pode cortar emissões, compensando potencialmente parte da própria pegada da IA. O equilíbrio dependerá das escolhas feitas agora sobre onde a IA é aplicada e do grau de transparência das empresas tecnológicas quanto aos seus custos reais.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário