Saltar para o conteúdo

A pegada oculta da inteligência artificial: energia, água e hardware

Jovem a trabalhar num portátil numa sala, com vista para server farms e centrais industriais ao fundo.

Por detrás do ecrã, está a acontecer algo muito menos glamoroso.

A inteligência artificial parece imaterial: um chatbot num navegador, uma funcionalidade no telemóvel, um botão na aplicação de e‑mail. No entanto, cada pedido feito à IA depende de enormes centros de dados, chips especializados e fluxos maciços de electricidade e água. Investigadores do Instituto de Tecnologia de Massachusetts estão agora a alertar para o facto de esta infraestrutura invisível poder alterar o uso global de energia e de recursos muito mais depressa do que reguladores e planeadores antecipam.

A pegada invisível da IA começa pela energia

A primeira coisa que a IA consome é electricidade. Não em pequenas quantidades, mas em volumes à escala da rede, medidos em megawatts e terawatts-hora.

Treinar um modelo generativo moderno significa executar milhares de milhões de cálculos repetidas vezes em chips potentes. Depois de o modelo entrar em funcionamento, a fase de “inferência” - todas as perguntas quotidianas colocadas pelos utilizadores - mantém esses chips permanentemente ocupados.

Os centros de dados em todo o mundo consumiram cerca de 460 terawatts-hora de electricidade em 2022, aproximadamente o mesmo que o consumo anual total de França, e essa cifra está a caminho de mais do que duplicar até 2026.

Só na América do Norte, a procura de energia dos centros de dados subiu de 2 688 megawatts no final de 2022 para 5 341 megawatts um ano depois. A IA não é o único motor desta subida, mas já é a principal razão pela qual estão a ser propostos novos parques de servidores nos Estados Unidos, na Irlanda, nos Países Baixos e noutros países.

A carga não é constante. As sessões de treino provocam picos acentuados de consumo que os operadores da rede têm de prever. Quando a produção renovável é baixa, estes picos podem levar as utilities a ligar centrais a gás ou até geradores a gasóleo, aumentando as emissões precisamente no momento em que o sector tecnológico afirma estar a tornar-se mais verde.

Uma consulta à IA versus uma pesquisa na Web

Para os utilizadores, parece que fazer uma pergunta a um chatbot não difere muito de procurar algo no Google. A factura energética conta outra história.

Estima-se que uma consulta média ao estilo do ChatGPT consuma cerca de cinco vezes mais electricidade do que uma pesquisa convencional na Web.

À medida que os modelos aumentam de escala e de capacidade, exigem ainda mais computação por cada resposta. Isso torna o impacto climático fortemente dependente da rapidez com que o sistema energético se descarboniza - e de saber se a procura da IA ultrapassa a oferta limpa.

A água: o outro recurso que a IA drena

A electricidade é apenas metade do problema. Manter dezenas de milhares de chips refrigerados cria uma sede enorme por água.

A maioria dos grandes centros de dados utiliza sistemas de arrefecimento com água. Essa água pode vir das redes municipais, de rios, de lagos ou de aquíferos. Cada quilowatt-hora consumido por um centro de dados típico está associado a um consumo relevante de água, desde as torres de arrefecimento no local até à água necessária a montante para as centrais eléctricas.

Os investigadores estimam que o funcionamento de um centro de dados pode consumir cerca de dois litros de água por cada quilowatt-hora de electricidade utilizada.

Em regiões com escassez de água ou com ecossistemas já sob pressão, isto cria trocas difíceis entre o crescimento digital e as necessidades locais. Um único novo campus com forte presença de IA numa zona seca pode competir com a agricultura ou com as habitações pelo mesmo recurso limitado.

Há ainda outro efeito pouco discutido: quando os centros de dados se instalam em zonas com temperaturas elevadas, o calor residual intensifica a pressão sobre as infra-estruturas locais. Em períodos de picos de procura, isso pode obrigar a reforços na rede e a novos investimentos que acabam por ser suportados, directa ou indirectamente, pelas comunidades vizinhas.

Onde a IA e a seca colidem

Países como Espanha, os Estados Unidos e partes da Índia já estão a lidar com ondas de calor e com a descida dos níveis das albufeiras. Instalar grandes centros de dados de IA nestas regiões pode amplificar a pressão, sobretudo no Verão, quando tanto o ar condicionado como o arrefecimento dos servidores atingem máximos.

  • As temperaturas elevadas significam mais arrefecimento e, por isso, mais água.
  • As secas reduzem a água superficial disponível, empurrando os operadores para a extracção de águas subterrâneas.
  • Os ecossistemas locais podem sofrer quando rios e aquíferos são esgotados mais depressa do que se recarregam.

O hardware por detrás das emissões da IA

Para lá das operações diárias, as máquinas que alimentam a IA têm o seu próprio custo ambiental. Fabricar servidores e, sobretudo, chips de alto desempenho é intensivo em recursos e está muito concentrado num número reduzido de países.

As unidades de processamento gráfico são a base de trabalho da IA moderna. Foram concebidas para cálculo em paralelo e deixam os processadores centrais tradicionais muito para trás quando se trata de treinar redes neuronais.

Estima-se que a Nvidia, a AMD e a Intel tenham vendido cerca de 3,85 milhões de unidades de processamento gráfico a centros de dados em 2023, um aumento acentuado face aos 2,67 milhões de 2022, sendo provável que 2024 volte a registar um valor mais elevado.

Cada unidade envolve extracção e processamento de metais, fabrico semicondutor altamente complexo e transporte internacional. Em comparação com processadores standard, os chips de IA de topo são maiores, mais sofisticados e mais exigentes em termos energéticos para produzir, o que aumenta a sua pegada de carbono incorporado antes mesmo de chegarem a um rack.

Das minas às fábricas de semicondutores e aos resíduos electrónicos

A história do hardware de IA estende-se desde o cobre e os metais raros extraídos do subsolo até às fábricas de chips fortemente dependentes de químicos e, por fim, aos resíduos electrónicos.

Os riscos de poluição surgem em cada fase:

Fase Principais impactos
Mineração Destruição de habitats, resíduos mineiros, contaminação da água, elevado consumo de energia
Fabrico de chips Produtos químicos tóxicos, gases com efeito de estufa usados na gravação, grande procura de água e energia
Montagem e transporte Emissões ligadas à logística, resíduos de embalagem
Fim de vida Resíduos electrónicos, reciclagem limitada de componentes avançados, possível lixiviação de materiais perigosos

Com a procura por IA em forte crescimento, os operadores de centros de dados substituem o hardware com maior frequência para se manterem competitivos, encurtando a vida útil efectiva destes dispositivos complexos e aumentando a rotação de materiais.

Uma consequência adicional é a pressão sobre a economia circular. Quanto mais depressa os chips e servidores são trocados, mais difícil se torna reaproveitar componentes, remanufaturar equipamentos e planear cadeias de fornecimento menos agressivas para o ambiente.

Porque é que o MIT diz que continuamos a navegar às cegas

Os investigadores do Instituto de Tecnologia de Massachusetts defendem que a sociedade está a subestimar o custo ambiental total da IA, em grande parte porque a tecnologia está a evoluir mais depressa do que os mecanismos de medição.

Chamam a atenção para vários pontos cegos:

  • Os dados de treino e a metodologia raramente são publicados em detalhe, o que dificulta a estimativa do consumo energético total do treino.
  • As empresas reportam muitas vezes as emissões globais de forma agregada, sem separar aquilo que é causado pela IA.
  • As cadeias de fornecimento de chips e servidores são pouco transparentes, com poucos dados públicos sobre carbono incorporado e uso de água.

Os cientistas do MIT afirmam que faltam métodos “sistemáticos e abrangentes” para acompanhar, em tempo real, as trocas de compromisso associadas ao desenvolvimento rápido da IA.

Sem melhores dados, os decisores políticos e os planeadores energéticos têm dificuldade em prever quantas novas centrais eléctricas, actualizações da rede ou obras de infra-estruturas hídricas serão necessárias para alimentar o boom da IA.

A energia mais limpa pode salvar a consciência da IA?

As grandes empresas de tecnologia apontam para compras agressivas de energia renovável e para promessas de neutralidade carbónica como prova de que a IA pode crescer sem arruinar as metas climáticas. A realidade é mais ambígua.

Muitas empresas compram certificados ou financiam parques eólicos distantes, ao mesmo tempo que continuam a operar centros de dados intensivos em energia em regiões dominadas por combustíveis fósseis. Quando a procura de IA dispara durante a noite ou em períodos sem vento e com céu nublado, esses servidores recorrem ao que estiver disponível na rede local nesse momento.

Estão a surgir algumas ideias promissoras: localizar centros de dados perto de recursos hidroeléctricos ou geotérmicos, ligá-los a baterias de grande escala ou agendar sessões de treino para períodos de excesso de produção renovável. Ainda assim, estas abordagens estão longe de ser universais e raramente resolvem os impactos do uso da água e do fabrico do hardware.

O que “treino” e “inferência” realmente significam para as emissões

Vale a pena esclarecer dois termos da IA, porque estão directamente ligados ao impacto ambiental.

Treino é a fase única - ou ocasional - em que um modelo aprende a partir de conjuntos de dados gigantescos. Isto pode demorar semanas em milhares de unidades de processamento gráfico, consumindo grandes picos de energia e água. Nos modelos de vanguarda, o treino, por si só, pode libertar tanto CO₂ como as emissões ao longo da vida útil de centenas de automóveis.

Inferência é o que acontece sempre que escreve um pedido ou quando uma empresa utiliza IA nos dados dos clientes. Individualmente, cada interacção é pequena. Mas, quando milhões ou milhares de milhões de pedidos são processados diariamente em chatbots, ferramentas de correio electrónico, motores de busca e telemóveis, o consumo energético acumulado pode rivalizar com o treino ou até superá-lo.

Se os assistentes de IA se tornarem a interface predefinida para tudo, desde o trabalho de escritório até às recomendações de streaming, as emissões da inferência poderão tornar-se a parcela dominante da pegada da IA.

E se o uso da IA continuar a duplicar?

Imagine um cenário em que os pedidos à IA por pessoa duplicam todos os anos durante os próximos três anos, à medida que mais serviços integram ferramentas generativas por defeito:

  • Ano um: a IA é usada apenas ocasionalmente, sobretudo por quem adere cedo à tecnologia.
  • Ano dois: passa a estar integrada em software de escritório, pesquisa e mensagens; o uso diário torna-se comum.
  • Ano três: muitas aplicações executam IA em segundo plano, gerando resumos, alertas e recomendações sem que exista um pedido directo.

Nesse mundo, mesmo que cada resposta da IA se torne ligeiramente mais eficiente, a procura total pode disparar. As redes eléctricas teriam de se expandir, novos centros de dados seriam aprovados mais depressa e as comunidades locais poderiam enfrentar nova concorrência por terra e água.

Ainda assim, há benefícios potenciais. Aplicações bem direccionadas de IA podem ajudar as utilities a prever a procura, integrar renováveis e reduzir desperdícios noutros sectores. Por exemplo, um controlo mais inteligente do aquecimento, da logística ou de processos industriais pode cortar emissões, compensando potencialmente parte da própria pegada da IA. O equilíbrio dependerá das escolhas feitas agora sobre onde a IA é aplicada e do grau de transparência das empresas tecnológicas quanto aos seus custos reais.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário