Saltar para o conteúdo

IA de Defesa: Dassault Aviation e Thales apostam na cortAIx

Piloto militar no cockpit de um avião a controlar o painel, com esquadrilha de jatos a voar à frente sobre campos.

A Dassault Aviation e a Thales, as duas maiores referências francesas em electrónica de defesa, decidiram unir esforços em torno do acelerador cortAIx para repensar a forma como o combate aéreo funciona numa era marcada por algoritmos e por uma sobrecarga constante de sensores.

Uma aposta estratégica da Dassault e da Thales na IA de combate supervisionada (cortAIx)

As duas empresas anunciaram uma parceria estratégica, através do cortAIx, para desenvolver inteligência artificial “controlada e supervisionada” aplicada ao combate aéreo. A escolha destas palavras não é inocente: não se trata de prometer armas autónomas sem controlo humano, mas sim de criar cabines e centros de comando mais lúcidos e eficazes.

O foco está nos futuros sistemas de defesa franceses - caças Rafale, drones de combate e plataformas de comando e controlo (C2). Todos estes meios produzem volumes massivos de informação. A meta é transformar dados brutos em decisões operacionais em tempo útil, mantendo a decisão final nas mãos de pessoas.

No centro do cortAIx está uma ideia simples: a IA deve reforçar o discernimento humano, não substituí-lo.

Esta abordagem também procura alinhar-se com o Regulamento Europeu da IA (AI Act), que impõe requisitos rigorosos a sistemas de IA de alto risco, incluindo aplicações no domínio da defesa. Isso implica algoritmos rastreáveis, supervisão humana contínua e uma cadeia de responsabilidade bem definida quando algo corre mal.

Da saturação de sensores à clareza tática em segundos

Os aviões de combate e drones atuais integram radares, sensores infravermelhos, suites de guerra eletrónica, ligações de comunicações, entre muitos outros. Cada subsistema gera fluxos permanentes de dados. Para pilotos e operadores, o desafio é converter essa avalanche num quadro coerente antes de tomarem decisões de vida ou morte.

O cortAIx pretende atacar precisamente este estrangulamento. Os “blocos” de IA desenvolvidos no programa deverão ser capazes de:

  • Fundir dados de múltiplos sensores, distribuídos por vários aviões e/ou drones
  • Construir uma imagem única e atualizada do campo de batalha em poucos segundos
  • Sinalizar ameaças, lacunas e oportunidades que podem escapar ao olhar humano
  • Sugerir manobras táticas e opções de armamento adequadas a cada plataforma
  • Apoiar o planeamento de missão antes da descolagem e a replanificação em voo

Esta ambição acompanha a evolução do combate aéreo: já não é, por natureza, um duelo isolado. Rafale, drones, aeronaves de alerta aéreo e centros de comando terrestres observam parcelas diferentes do mesmo combate. A IA surge como o elemento de ligação que ajuda a manter o “mosaico” alinhado.

Em vez de um único piloto a alternar entre ecrãs, a visão do cortAIx aproxima-se de uma equipa distribuída, onde a IA funciona como assistente tático permanente.

Como a França se posiciona face aos EUA, à China e ao Reino Unido

A iniciativa francesa aparece no meio de uma corrida global que está a acelerar rapidamente.

Nos Estados Unidos, os programas de aeronaves de combate colaborativas (CCA) procuram colocar em operação drones altamente autónomos a voar em conjunto com caças tripulados. As grandes empresas tecnológicas têm um papel relevante, fornecendo infraestrutura de nuvem e modelos avançados de aprendizagem automática ao Departamento de Defesa.

A China investe fortemente em enxames de drones e em automação agressiva, com pouca transparência sobre as salvaguardas e sobre as cadeias de comando incorporadas. Em capitais ocidentais, existe preocupação de que Pequim esteja mais disponível para deixar algoritmos assumir decisões letais com menos restrições.

O Reino Unido, o Japão e a Itália avançam pelo seu próprio caminho no âmbito do Global Combat Air Programme (GCAP), onde a IA é central num sistema de combate de nova geração assente no caça Tempest. Também aí, o fator decisivo tenderá a ser tanto o código como a estrutura aeronáutica.

A França, por seu lado, não quer ficar a observar. Com a experiência da Dassault em caças e o peso da Thales em radares, guerra eletrónica e aviónica, Paris acredita ter base industrial para desenvolver IA de defesa competitiva sem depender de importações.

A disputa crucial já não é apenas sobre aeronaves; é sobre quem controla a pilha de software que as faz funcionar.

cortAIx e a questão europeia: autonomia tecnológica ou dependência externa?

Por detrás das promessas técnicas está um debate estratégico maior: deve a Europa construir uma pilha completa de IA de combate, do início ao fim, ou continuar fortemente dependente de tecnologia norte-americana?

Muitas forças aéreas europeias tendem a preferir equipamento e software dos EUA por razões de interoperabilidade na NATO e por relações históricas com fornecedores norte-americanos. A pressão industrial também pesa, com empresas dos EUA a procurarem impor os seus sistemas como padrões de facto.

A parceria no cortAIx funciona como sinal político: a França quer uma opção europeia autónoma - não apenas uma licença de utilização para algoritmos externos. Resta saber até que ponto parceiros de programas futuros, como o Sistema de Combate Aéreo do Futuro franco-germano-espanhol (SCAF/FCAS), irão aderir plenamente a esta lógica.

Interveniente Principal enfoque de IA no combate aéreo
Estados Unidos Aeronaves de combate colaborativas (CCA), elevada autonomia, forte envolvimento das grandes tecnológicas
China Enxames de drones, automação intensa, salvaguardas pouco transparentes
Reino Unido / GCAP Caça de nova geração com IA integrada e guerra centrada em dados
França / cortAIx IA supervisionada, com humano no circuito, integrada no Rafale, em drones e em C2

Como pode funcionar, na prática, o “humano no circuito”

Responsáveis franceses e líderes industriais repetem que o controlo permanecerá humano. Como a expressão pode soar abstrata, vale a pena concretizar em cenários onde o cortAIx poderá atuar.

Triagem de ameaças em tempo real para equipas de Rafale

Imagine uma patrulha de Rafale a entrar em espaço aéreo contestado. Vários radares detetam aeronaves, baterias de mísseis terra-ar e iscos. Sensores de guerra eletrónica identificam interferências. As comunicações trazem informação fragmentada de meios aliados.

Em vez de um ecrã saturado e confuso, um software baseado no cortAIx poderia priorizar ameaças, agrupar contactos e antecipar comportamentos hostis prováveis. O piloto veria um quadro simplificado, por exemplo: “estes são os três lançadores de mísseis mais prováveis; este é o corredor mais seguro; recomenda-se alterar a formação”. A autoridade para aceitar ou ignorar as sugestões continuaria a ser do piloto.

Drones “ala leal” com autonomia limitada e regras rígidas

Noutro cenário, um caça tripulado coordena vários drones “ala leal”. Uma IA ao estilo cortAIx poderia permitir que esses drones mantivessem formação, partilhassem dados de sensores e executassem manobras evasivas básicas dentro de limites predefinidos.

A utilização de armamento não seria autoautorizada. A aprovação de engajamento continuaria a caber à tripulação do avião líder, ou a um controlador humano remoto, com base em avaliações geradas pela IA. O sistema apoia, mas não inicia ação letal.

Porque a IA “feita na Europa” é relevante na defesa

Desenvolver IA na Europa não é apenas uma questão de emprego ou orgulho industrial; afeta diretamente o controlo legal, ético e operacional.

  • Soberania de dados: treinar IA de combate exige dados operacionais altamente sensíveis. Manter essa informação em infraestrutura europeia reduz exposição a exigências legais externas e a espionagem.
  • Explicabilidade e auditoria: reguladores europeus exigem cada vez mais IA auditável. Na defesa, também é crítico perceber porque é que um algoritmo sinalizou um alvo ou recomendou uma rota, sobretudo quando há investigações após incidentes.
  • Doutrina e regras de empenhamento: as regras francesas e europeias podem divergir das práticas dos EUA ou da China. Uma IA desenvolvida localmente pode incorporar essas doutrinas desde o início, em vez de adaptar código alheio.

Uma pilha europeia de IA de combate dá aos Estados maior controlo sobre a ética, os dados e os ciclos de modernização dos seus sistemas de armas.

Riscos, salvaguardas e o que pode falhar

A introdução de IA no combate aéreo traz promessas, mas também riscos significativos.

Um deles é o excesso de confiança. Em stress, equipas podem apoiar-se demasiado nas recomendações, aceitando sugestões que se ajustam ao modelo do software mas não à realidade do momento - sobretudo se a formação e os procedimentos não forem sólidos.

Outro risco é o da manipulação adversária. O oponente vai estudar como sistemas com IA reagem e tentará enganar sensores ou injetar dados enganadores nas redes. A robustez contra este tipo de ataques torna-se tão importante quanto a performance algorítmica.

Existe ainda um risco político-operacional: quando forças aéreas começarem a ver ganhos com IA supervisionada, aumentará a tentação de avançar para níveis superiores de autonomia, especialmente se enfrentarem adversários aparentemente menos condicionados. A fricção entre quadros legais, preocupações éticas e exigências operacionais é provável.

Conceitos-chave por detrás de uma IA de defesa ao estilo cortAIx

Três noções técnicas ajudam a compreender a iniciativa sem se perder em terminologia excessiva:

  • Fusão de sensores: métodos para combinar trajetórias de radar, imagens infravermelhas, sinais rádio e outros dados numa imagem única e mais limpa, reduzindo contradições entre sensores.
  • Combate colaborativo: doutrina em que plataformas tripuladas e não tripuladas trocam dados continuamente, permitindo que a “equipa” combata como um todo e não como aeronaves isoladas.
  • Humano na supervisão (humano sobre o circuito): modelo em que pessoas supervisionam sistemas de IA que atuam dentro de limites predefinidos, com capacidade de intervenção ou desligamento rápido.

À medida que o cortAIx evoluir, é provável que estes conceitos passem a fazer parte dos programas de treino de pilotos, operadores de drones e comandantes. Dominar a relação homem-máquina pode tornar-se tão determinante quanto dominar manobras clássicas de voo.

Dois pontos adicionais que serão decisivos: validação e cibersegurança

Um aspeto frequentemente subestimado é a validação e certificação operacional. Para que a IA seja aceite em missões reais, terá de provar comportamentos consistentes em simulação, em exercícios e em avaliações formais, incluindo a gestão de casos-limite e falhas parciais de sensores. A “confiança” não será um slogan: terá de ser construída com métricas, ensaios repetíveis e regras claras de emprego.

Em paralelo, a cibersegurança passa a ser parte do desempenho de combate. Uma IA que depende de redes e de partilha de dados precisa de resistir a intrusões, falsificação de mensagens e comprometimento de cadeias de fornecimento. Proteger modelos, atualizações e interfaces torna-se uma condição base para que a assistência em tempo real não se transforme num novo vetor de vulnerabilidade.

Para já, a direção definida pela Dassault e pela Thales é nítida: assistência rápida e orientada por dados para equipas aéreas, desenvolvida na Europa e enquadrada por regras europeias. A velocidade com que esta ambição se traduzirá em software efetivamente instalado em Rafale, drones e postos de comando ditará se a França conseguirá influenciar as normas emergentes do combate aéreo com IA - ou se acabará por se adaptar a padrões definidos noutros centros de poder.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário