À medida que os centros de dados aquecem e as redes eléctricas se aproximam do limite, começa a desenhar-se uma mudança discreta em laboratórios de investigação na China.
Engenheiros estão a recuperar uma tecnologia analógica popularizada nos anos 1970, a modernizá-la com lasers e circuitos integrados e a apresentá-la como uma via radical para reduzir a pegada energética da computação.
Porque é que a China aposta em tecnologia analógica de baixo consumo
A necessidade chinesa de capacidade de computação está a disparar. O treino de modelos de IA, a mineração de criptomoedas, a transmissão em contínuo e os serviços na nuvem exigem parques de servidores cada vez maiores. Essas infra-estruturas já consomem quantidades impressionantes de electricidade e de água para arrefecimento.
Durante décadas, a electrónica digital - baseada em transístores que alternam entre 0 e 1 - foi optimizada ao limite. Todos os anos os chips ficam mais pequenos e mais rápidos, mas o ritmo de melhoria da eficiência energética abranda. Ao mesmo tempo, os modelos de IA aumentam de tamanho e o tráfego de dados continua a crescer.
Investigadores chineses estão a virar-se para a computação analógica, uma abordagem mais antiga que, em determinadas tarefas, pode gastar até 200 vezes menos energia do que chips digitais convencionais.
Esta tecnologia “ressuscitada” não é um artefacto perdido no tempo. Trata-se de processar informação com sinais eléctricos ou ópticos contínuos, em vez de bits discretos. A ideia tem mais de meio século: os primeiros computadores analógicos resolviam equações para engenharia e aeroespacial.
Essas máquinas desapareceram quando os microprocessadores digitais baratos tomaram conta do mercado. Agora, princípios semelhantes regressam, apoiados por fabrico moderno e impulsionados por necessidades específicas da IA.
O que é, na prática, esta tecnologia com 50 anos
A computação analógica funciona de forma distinta do computador portátil numa secretária. Em vez de representar números como longas cadeias binárias, codifica valores como tensões, correntes ou intensidades de luz. Muitas operações matemáticas “acontecem” através da própria física dos componentes.
Nos anos 1970, isto significava bastidores cheios de amplificadores operacionais, condensadores e resistências. Hoje, equipas chinesas estão a testar, entre outras abordagens:
- Aceleradores de IA analógicos baseados em matrizes de células de memória
- Chips ópticos e fotónicos, onde a luz substitui os electrões
- Processadores de sinal misto, que combinam blocos analógicos e digitais
O princípio central mantém-se: em vez de executar milhares de milhões de operações digitais exactas, faz-se uma operação aproximada num único passo físico. Como a aprendizagem automática tolera pequenos erros, esta troca pode ser extremamente vantajosa.
Ao aceitar cálculos “suficientemente bons” directamente no hardware, chips analógicos reduzem drasticamente o número de operações e a energia necessária por operação.
De amplificadores operacionais a aceleradores de IA
Historicamente, os computadores analógicos eram usados para resolver equações diferenciais em tempo real: controlo de aeronaves, orientação de mísseis, simulações nucleares. Os engenheiros ligavam circuitos de modo a reproduzir fisicamente as equações que pretendiam resolver.
As versões modernas, na China e noutros países, recorrem a matrizes de células de memória, como RAM resistiva (ReRAM), em que a condutância de cada célula representa um número. As multiplicações de matrizes - o “trabalho pesado” das redes neuronais - podem então ocorrer por simples fluxos de corrente e pela lei de Ohm.
Em vez de percorrer digitalmente multiplicação a multiplicação, o circuito realiza a operação matricial completa de uma só vez. É aqui que, para certas cargas de trabalho de IA, se torna plausível falar em poupanças energéticas superiores a 100 vezes.
Porque é que “200 vezes menos energia” é crítico agora
O problema energético da IA não é teórico. Treinar um único modelo de fronteira pode consumir tanta electricidade quanto uma pequena localidade ao longo de um ano. E tarefas quotidianas como recomendações de vídeo e assistentes de voz dependem de enormes clusters de servidores.
Vários países - incluindo a China, os EUA e membros da União Europeia - começam a recear que os centros de dados choquem com metas climáticas e pressionem as redes locais. Chips de IA muito consumidores agravam essa tensão.
| Tecnologia | Consumo típico de energia por operação de IA | Principal compromisso |
|---|---|---|
| GPU digital convencional | Elevado | Muito precisa, ecossistema maduro |
| Chip de IA digital de baixa precisão | Médio | Precisão reduzida, continua compatível com software |
| Acelerador analógico/de sinal misto | Muito baixo (até 200× menos) | Mais ruído, mais difícil de programar e calibrar |
Para a China, com uma base industrial vasta e uma política industrial mais centralizada, faz sentido enfrentar cedo este estrangulamento. A computação eficiente em energia também encaixa nos compromissos públicos de Pequim em matéria de clima e no objectivo de reduzir a dependência de tecnologia de chips estrangeira.
Um ponto adicional, muitas vezes subestimado, é a medição: para que “até 200×” se traduza em adopção real, será necessário padronizar métricas e benchmarks de eficiência por tarefa (treino vs. inferência, latência, precisão final do modelo). Sem esse enquadramento, comparar protótipos analógicos com plataformas digitais consolidadas torna-se ambíguo.
Como os laboratórios chineses estão a modernizar a computação analógica (computação analógica)
Várias linhas de investigação convergem na estratégia chinesa.
Chips ópticos e fotónicos
Uma área particularmente visível é a computação fotónica, em que a informação circula como luz através de guias de onda e interferómetros num chip. A luz consegue executar operações de álgebra linear com grande rapidez e com baixas perdas energéticas.
Universidades e start-ups chinesas estão a desenvolver aceleradores ópticos para executar partes da inferência em redes neuronais. A ambição é integrar estes módulos em centros de dados para descarregar tarefas energeticamente pesadas, como motores de recomendação e classificação de imagens.
Computação analógica na memória
Outra vertente centra-se na computação na memória. Em sistemas digitais clássicos, os dados circulam constantemente entre memória e processador, desperdiçando tempo e energia. Em arquitecturas de computação analógica na memória, a própria matriz de memória realiza cálculos.
Projectos chineses de chips utilizam ReRAM e memória de mudança de fase (PCM) para armazenar pesos de redes neuronais como condutâncias. Ao aplicar-se uma tensão, a corrente resultante efectua, de forma inerente, a multiplicação e acumulação necessárias a cada neurónio.
Ao juntar armazenamento e cálculo nos mesmos dispositivos microscópicos, chips analógicos na memória reduzem a movimentação de dados - uma das maiores fontes de consumo energético em hardware de IA.
Há ainda um segundo desafio prático, para lá do chip: a pilha de desenvolvimento. Ferramentas de compilação, bibliotecas e métodos de treino terão de incorporar modelos de ruído e variação, para que a programação de aceleradores analógicos seja repetível e industrializável.
Os obstáculos: ruído, precisão e software
Sistemas analógicos não são uma solução milagrosa. Trazem problemas de engenharia significativos.
- Ruído: pequenas variações de temperatura ou de fabrico podem perturbar sinais analógicos.
- Precisão limitada: extrair mais do que alguns bits “fiéis” de um circuito analógico é difícil.
- Calibração: cada chip pode necessitar de afinações específicas para cumprir metas de desempenho.
- Programação: os programadores estão habituados a abstracções digitais, não à física de valores contínuos.
Equipas chinesas procuram mitigar estes pontos com esquemas de correcção de erro, designs híbridos digital-analógico e modelos de IA adaptados a hardware ruidoso. O objectivo não é substituir chips digitais em toda a linha, mas combiná-los com blocos analógicos onde a relação custo/benefício seja melhor.
Onde é mais provável ver esta tecnologia primeiro
A primeira vaga de aplicações comerciais deverá surgir em ambientes controlados, e não em dispositivos de consumo.
Centros de dados e redes de telecomunicações
Fornecedores de nuvem podem integrar aceleradores analógicos como placas especializadas nos bastidores de servidores. Essas placas seriam orientadas para tarefas que aceitam resultados aproximados, como ordenar resultados de pesquisa ou filtrar mensagens indesejadas.
Operadores de telecomunicações - incluindo fornecedores chineses de redes 5G - também avaliam o processamento de sinal analógico para reduzir o consumo energético em estações base. Como esses sistemas já dependem de componentes analógicos para rádio, acrescentar processamento de IA analógico é uma extensão natural.
Equipamentos na periferia e sensores
Mais adiante, chips analógicos de consumo ultra-baixo poderão surgir em câmaras, drones ou sensores industriais. Fazer IA localmente, sem acesso constante à nuvem, prolonga a autonomia das baterias e reduz custos de transmissão de dados.
Pense em câmaras inteligentes que reconhecem objectos ou detectam riscos de segurança no próprio dispositivo, consumindo milissegundos e miliwatts em vez de segundos e watts.
Porque é que um conceito com 50 anos se encaixa num futuro dominado pela IA
O regresso do analógico integra uma tendência mais ampla: usar a física de forma mais directa para computar, em vez de forçar tudo através de lógica digital padrão. Computadores quânticos, chips neuromórficos e processadores fotónicos posicionam-se algures nesse espectro.
A decisão chinesa sugere que a “caixa de ferramentas” analógica continua a ter potencial quando combinada com fabrico moderno e algoritmos de IA. Em vez de combater a natureza imperfeita dos sinais analógicos, os investigadores procuram tirar partido dela.
Para quem pensa em uns e zeros, um modelo mental útil é este: a computação analógica troca parte da exactidão por ganhos enormes de eficiência. Muitas tarefas de IA não exigem quinze casas decimais; exigem reconhecimento de padrões rápido e de baixo consumo energético, com uma taxa de acerto elevada na maioria dos casos.
Essa troca envolve riscos e benefícios. Por um lado, enviesamentos subtis do hardware ou deriva ao longo do tempo podem afectar decisões, da avaliação de risco de crédito à análise médica. Por outro, cortar o consumo energético por um factor de 100 ou mais em cargas de trabalho comuns reduziria a pegada de carbono dos serviços digitais e libertaria capacidade nas redes eléctricas para outras utilizações.
À medida que laboratórios chineses avançam nesta fronteira híbrida analógico-digital, é provável que a conversa sobre IA verde e geopolítica dos chips mude de tom. O próximo salto de eficiência pode não vir de transístores mais pequenos, mas de uma ideia anterior ao próprio boom dos microprocessadores.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário