Saltar para o conteúdo

China recupera tecnologia de 50 anos que consome 200 vezes menos energia do que a eletrónica digital.

Cientista em laboratório analisa componente eletrônico usando pinça com esquemas técnicos sobre a mesa.

Os centros de dados estão cada vez mais quentes e as redes eléctricas ressentem-se. Nesse contexto, começa a ganhar forma uma mudança discreta em laboratórios chineses.

Em vez de apostarem apenas em mais do mesmo, equipas de engenharia na China estão a recuperar uma tecnologia analógica popularizada nos anos 1970, a modernizá-la com lasers e circuitos integrados, e a apresentá-la como uma via radical para reduzir a pegada energética da computação.

A aposta da China na computação analógica de baixo consumo de energia

A procura chinesa por capacidade de computação está a disparar. Treino de IA, mineração de criptomoedas, transmissão contínua de vídeo e serviços de nuvem exigem parques de servidores cada vez maiores - infra-estruturas que já hoje gastam quantidades enormes de electricidade e água para arrefecimento.

Durante décadas, a electrónica digital - assente em transístores que comutam entre 0 e 1 - foi optimizada até ao limite. Os chips tornam-se mais pequenos e mais rápidos de ano para ano, mas as melhorias na eficiência energética estão a abrandar. Ao mesmo tempo, os modelos de IA crescem e o tráfego de dados continua a aumentar.

Investigadores chineses estão a virar-se para a computação analógica, uma abordagem mais antiga que, em algumas tarefas, pode consumir até 200 vezes menos energia do que chips digitais convencionais.

Esta tecnologia “ressuscitada” não é uma curiosidade de museu. Trata-se de processar informação com sinais eléctricos ou ópticos contínuos, em vez de bits discretos. A ideia tem mais de meio século: os primeiros computadores analógicos resolviam equações para engenharia e aplicações aeroespaciais.

Essas máquinas perderam espaço quando os microprocessadores digitais baratos dominaram o mercado. Agora, princípios semelhantes regressam, apoiados por hardware moderno e pelas necessidades impostas pela IA.

O que é, afinal, esta tecnologia com 50 anos

A computação analógica não funciona como o portátil em cima da secretária. Em vez de codificar números como longas cadeias binárias, representa valores através de tensões, correntes ou intensidades de luz. As operações matemáticas surgem “naturalmente” pela própria física dos componentes.

Nos anos 1970, isso significava bastidores com amplificadores operacionais, condensadores e resistências. Hoje, equipas chinesas estão a testar, entre outras linhas:

  • Aceleradores de IA analógicos baseados em matrizes de células de memória
  • Chips ópticos/fotónicos que usam luz em vez de electrões
  • Processadores de sinal misto que combinam blocos analógicos e digitais

O princípio central mantém-se: em vez de executar milhares de milhões de operações digitais exactas, fazer operações aproximadas num único passo físico. Em aprendizagem automática - que tolera, por natureza, pequenos desvios - esta troca pode ser extremamente vantajosa.

Ao permitir cálculos “suficientemente bons” directamente no hardware, os chips analógicos podem reduzir drasticamente o número de operações e a energia exigida por cada uma.

Dos amplificadores operacionais aos aceleradores de IA

Historicamente, computadores analógicos eram usados para resolver equações diferenciais em tempo real: controlo de aeronaves, orientação de mísseis, simulações nucleares. Os engenheiros montavam circuitos que espelhavam fisicamente as equações que pretendiam resolver.

As versões modernas, na China e noutros países, exploram matrizes de células de memória - como RAM resistiva - em que a condutância de cada célula codifica um número. Assim, as multiplicações de matrizes (o trabalho pesado das redes neuronais) podem ocorrer por simples fluxos de corrente, regidos pela lei de Ohm.

Em vez de iterar multiplicação a multiplicação no domínio digital, o circuito realiza a operação matricial inteira de uma vez. É aqui que se torna plausível, para certas cargas de trabalho de IA, falar em poupanças de energia superiores a 100×.

Porque é que 200 vezes menos energia é crítico agora

O problema energético da IA não é teórico. Treinar um único modelo de ponta pode gastar tanta electricidade quanto uma pequena localidade consome num ano. E mesmo tarefas quotidianas - recomendações de vídeo, assistentes de voz - dependem de enormes clusters de servidores.

China, EUA e países da UE começam a preocupar-se com o choque entre a expansão de centros de dados, as metas climáticas e os limites das redes locais. Chips de IA muito consumidores agravam esta tensão.

Tecnologia Consumo típico de energia por operação de IA Principal compromisso
GPU digital convencional Elevado Muito precisa, ecossistema maduro
Chip de IA digital de baixa precisão Médio Menor exactidão, continua amigável para software
Acelerador analógico / de sinal misto Muito baixo (até 200× menos) Mais ruído, programação e calibração mais difíceis

Para a China, com uma base industrial vasta e política tecnológica fortemente coordenada, faz sentido atacar cedo este estrangulamento. Além disso, computação energeticamente eficiente encaixa tanto nos compromissos climáticos públicos de Pequim como no objectivo de reduzir a dependência de tecnologia estrangeira de semicondutores.

Um efeito colateral relevante - muitas vezes subestimado - é o impacto no arrefecimento. Menos energia eléctrica transformada em calor significa, em muitos casos, menos necessidade de refrigeração activa e menor consumo de água em circuitos de arrefecimento, algo particularmente importante em regiões onde a disponibilidade hídrica já é pressionada.

Como os laboratórios chineses estão a modernizar a computação analógica

Várias frentes de investigação convergem na estratégia chinesa.

Chips ópticos e fotónicos

Uma área muito mediática é a computação fotónica, em que a informação viaja como luz através de guias de onda e interferómetros num chip. A luz pode executar operações de álgebra linear com enorme rapidez e com perdas energéticas reduzidas.

Universidades e startups chinesas estão a construir aceleradores ópticos para tratar partes da inferência em redes neuronais. A ambição é ligar estes módulos a centros de dados, descarregando tarefas energeticamente pesadas, como motores de recomendação e classificação de imagens.

Computação analógica na memória

Outra linha aposta na computação na memória. Em sistemas digitais clássicos, os dados circulam continuamente entre memória e processador, desperdiçando tempo e energia. Em arquitecturas de computação na memória, é a própria matriz de memória que executa operações.

Projectos de chips na China usam RAM resistiva e memória de mudança de fase para guardar os pesos das redes neuronais como condutâncias. Ao aplicar uma tensão, a corrente resultante efectua intrinsecamente a multiplicação e acumulação necessárias para cada neurónio.

Ao juntar armazenamento e cálculo nos mesmos dispositivos microscópicos, chips analógicos na memória reduzem a movimentação de dados - uma das maiores fontes de consumo energético no hardware de IA.

Os obstáculos: ruído, precisão e software

Sistemas analógicos não são soluções mágicas. Implicam desafios de engenharia consideráveis:

  • Ruído: variações pequenas de temperatura ou de fabrico podem perturbar sinais analógicos
  • Precisão limitada: é difícil obter mais do que alguns bits fiáveis a partir de um circuito analógico
  • Calibração: cada chip pode exigir afinação específica para cumprir metas de desempenho
  • Programação: os programadores estão habituados a abstracções digitais, não à física de valores contínuos

Equipas chinesas tentam contornar estas limitações com esquemas de correcção de erro, arquitecturas híbridas digital-analógicas e modelos de IA desenhados para operar em hardware ruidoso. O objectivo não é eliminar chips digitais, mas combiná-los com blocos analógicos onde isso fizer sentido.

Há ainda um ponto adicional: normalização e validação. Para que centros de dados adoptem aceleradores analógicos em larga escala, será necessário provar repetibilidade, criar procedimentos de teste e estabelecer métricas comuns de desempenho e fiabilidade - caso contrário, o risco operacional pode travar a adopção, mesmo que a poupança energética seja atractiva.

Onde esta tecnologia poderá aparecer primeiro

A primeira vaga de aplicações comerciais deverá surgir em ambientes controlados, e não em gadgets de consumo.

Centros de dados e redes de telecomunicações

Fornecedores de nuvem podem integrar aceleradores analógicos como placas especializadas nos bastidores de servidores. Essas placas visariam tarefas que aceitam resultados aproximados, como classificação de resultados de pesquisa ou filtragem de spam.

Operadores de telecomunicações - incluindo fornecedores chineses de redes 5G - também olham para processamento analógico de sinais para baixar consumos em estações base. Como estes sistemas já dependem de componentes analógicos para sinais de rádio, acrescentar processamento de IA analógico é uma extensão natural.

Dispositivos na periferia e sensores

Mais à frente, chips analógicos de ultra-baixo consumo podem surgir em câmaras, drones ou sensores industriais. Processar IA localmente, sem dependência constante da nuvem, aumenta a autonomia de bateria e reduz custos de transmissão de dados.

Imagine câmaras inteligentes que reconhecem objectos ou detectam problemas de segurança no próprio dispositivo, em milissegundos e miliwatts, em vez de segundos e watts.

Porque é que um conceito com 50 anos serve um futuro dominado pela IA

O regresso do analógico insere-se numa tendência mais ampla: usar a física de forma mais directa para calcular, em vez de forçar tudo através da lógica digital padrão. Computadores quânticos, chips neuromórficos e processadores fotónicos posicionam-se em diferentes pontos desse mesmo espectro.

O movimento da China sugere que a “velha” caixa de ferramentas analógica mantém potencial quando combinada com fabrico moderno e algoritmos de IA. Em vez de combater a natureza imperfeita dos sinais analógicos, investigadores procuram aproveitá-la.

Para quem pensa sobretudo em uns e zeros, um modelo mental útil é este: a computação analógica troca alguma exactidão por ganhos muito grandes de eficiência. Muitas tarefas de IA não exigem quinze casas decimais; precisam de reconhecimento de padrões rápido e de baixo consumo, que esteja certo na maioria das vezes.

Essa troca traz riscos e benefícios. Por um lado, enviesamentos ocultos do hardware ou deriva ao longo do tempo podem afectar decisões de forma subtil, desde pontuação de crédito até análises médicas. Por outro, reduzir consumos em 100× (ou mais) em cargas de trabalho comuns pode baixar a pegada de carbono dos serviços digitais e libertar capacidade nas redes eléctricas para outros usos.

À medida que laboratórios chineses avançam nesta fronteira híbrida analógico-digital, é provável que mude a conversa sobre IA verde e geopolítica dos chips. O próximo salto de eficiência pode não vir de transístores ainda mais pequenos, mas de revisitar uma ideia anterior ao próprio boom do microprocessador.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário