A Dassault Aviation e a Thales, as duas maiores referências francesas em electrónica de defesa, decidiram unir esforços em torno do acelerador cortAIx para repensar a forma como o combate aéreo funciona numa era marcada por algoritmos e por uma sobrecarga constante de sensores.
Uma aposta estratégica da Dassault e da Thales na IA de combate supervisionada (cortAIx)
As duas empresas anunciaram uma parceria estratégica, através do cortAIx, para desenvolver inteligência artificial “controlada e supervisionada” aplicada ao combate aéreo. A escolha destas palavras não é inocente: não se trata de prometer armas autónomas sem controlo humano, mas sim de criar cabines e centros de comando mais lúcidos e eficazes.
O foco está nos futuros sistemas de defesa franceses - caças Rafale, drones de combate e plataformas de comando e controlo (C2). Todos estes meios produzem volumes massivos de informação. A meta é transformar dados brutos em decisões operacionais em tempo útil, mantendo a decisão final nas mãos de pessoas.
No centro do cortAIx está uma ideia simples: a IA deve reforçar o discernimento humano, não substituí-lo.
Esta abordagem também procura alinhar-se com o Regulamento Europeu da IA (AI Act), que impõe requisitos rigorosos a sistemas de IA de alto risco, incluindo aplicações no domínio da defesa. Isso implica algoritmos rastreáveis, supervisão humana contínua e uma cadeia de responsabilidade bem definida quando algo corre mal.
Da saturação de sensores à clareza tática em segundos
Os aviões de combate e drones atuais integram radares, sensores infravermelhos, suites de guerra eletrónica, ligações de comunicações, entre muitos outros. Cada subsistema gera fluxos permanentes de dados. Para pilotos e operadores, o desafio é converter essa avalanche num quadro coerente antes de tomarem decisões de vida ou morte.
O cortAIx pretende atacar precisamente este estrangulamento. Os “blocos” de IA desenvolvidos no programa deverão ser capazes de:
- Fundir dados de múltiplos sensores, distribuídos por vários aviões e/ou drones
- Construir uma imagem única e atualizada do campo de batalha em poucos segundos
- Sinalizar ameaças, lacunas e oportunidades que podem escapar ao olhar humano
- Sugerir manobras táticas e opções de armamento adequadas a cada plataforma
- Apoiar o planeamento de missão antes da descolagem e a replanificação em voo
Esta ambição acompanha a evolução do combate aéreo: já não é, por natureza, um duelo isolado. Rafale, drones, aeronaves de alerta aéreo e centros de comando terrestres observam parcelas diferentes do mesmo combate. A IA surge como o elemento de ligação que ajuda a manter o “mosaico” alinhado.
Em vez de um único piloto a alternar entre ecrãs, a visão do cortAIx aproxima-se de uma equipa distribuída, onde a IA funciona como assistente tático permanente.
Como a França se posiciona face aos EUA, à China e ao Reino Unido
A iniciativa francesa aparece no meio de uma corrida global que está a acelerar rapidamente.
Nos Estados Unidos, os programas de aeronaves de combate colaborativas (CCA) procuram colocar em operação drones altamente autónomos a voar em conjunto com caças tripulados. As grandes empresas tecnológicas têm um papel relevante, fornecendo infraestrutura de nuvem e modelos avançados de aprendizagem automática ao Departamento de Defesa.
A China investe fortemente em enxames de drones e em automação agressiva, com pouca transparência sobre as salvaguardas e sobre as cadeias de comando incorporadas. Em capitais ocidentais, existe preocupação de que Pequim esteja mais disponível para deixar algoritmos assumir decisões letais com menos restrições.
O Reino Unido, o Japão e a Itália avançam pelo seu próprio caminho no âmbito do Global Combat Air Programme (GCAP), onde a IA é central num sistema de combate de nova geração assente no caça Tempest. Também aí, o fator decisivo tenderá a ser tanto o código como a estrutura aeronáutica.
A França, por seu lado, não quer ficar a observar. Com a experiência da Dassault em caças e o peso da Thales em radares, guerra eletrónica e aviónica, Paris acredita ter base industrial para desenvolver IA de defesa competitiva sem depender de importações.
A disputa crucial já não é apenas sobre aeronaves; é sobre quem controla a pilha de software que as faz funcionar.
cortAIx e a questão europeia: autonomia tecnológica ou dependência externa?
Por detrás das promessas técnicas está um debate estratégico maior: deve a Europa construir uma pilha completa de IA de combate, do início ao fim, ou continuar fortemente dependente de tecnologia norte-americana?
Muitas forças aéreas europeias tendem a preferir equipamento e software dos EUA por razões de interoperabilidade na NATO e por relações históricas com fornecedores norte-americanos. A pressão industrial também pesa, com empresas dos EUA a procurarem impor os seus sistemas como padrões de facto.
A parceria no cortAIx funciona como sinal político: a França quer uma opção europeia autónoma - não apenas uma licença de utilização para algoritmos externos. Resta saber até que ponto parceiros de programas futuros, como o Sistema de Combate Aéreo do Futuro franco-germano-espanhol (SCAF/FCAS), irão aderir plenamente a esta lógica.
| Interveniente | Principal enfoque de IA no combate aéreo |
|---|---|
| Estados Unidos | Aeronaves de combate colaborativas (CCA), elevada autonomia, forte envolvimento das grandes tecnológicas |
| China | Enxames de drones, automação intensa, salvaguardas pouco transparentes |
| Reino Unido / GCAP | Caça de nova geração com IA integrada e guerra centrada em dados |
| França / cortAIx | IA supervisionada, com humano no circuito, integrada no Rafale, em drones e em C2 |
Como pode funcionar, na prática, o “humano no circuito”
Responsáveis franceses e líderes industriais repetem que o controlo permanecerá humano. Como a expressão pode soar abstrata, vale a pena concretizar em cenários onde o cortAIx poderá atuar.
Triagem de ameaças em tempo real para equipas de Rafale
Imagine uma patrulha de Rafale a entrar em espaço aéreo contestado. Vários radares detetam aeronaves, baterias de mísseis terra-ar e iscos. Sensores de guerra eletrónica identificam interferências. As comunicações trazem informação fragmentada de meios aliados.
Em vez de um ecrã saturado e confuso, um software baseado no cortAIx poderia priorizar ameaças, agrupar contactos e antecipar comportamentos hostis prováveis. O piloto veria um quadro simplificado, por exemplo: “estes são os três lançadores de mísseis mais prováveis; este é o corredor mais seguro; recomenda-se alterar a formação”. A autoridade para aceitar ou ignorar as sugestões continuaria a ser do piloto.
Drones “ala leal” com autonomia limitada e regras rígidas
Noutro cenário, um caça tripulado coordena vários drones “ala leal”. Uma IA ao estilo cortAIx poderia permitir que esses drones mantivessem formação, partilhassem dados de sensores e executassem manobras evasivas básicas dentro de limites predefinidos.
A utilização de armamento não seria autoautorizada. A aprovação de engajamento continuaria a caber à tripulação do avião líder, ou a um controlador humano remoto, com base em avaliações geradas pela IA. O sistema apoia, mas não inicia ação letal.
Porque a IA “feita na Europa” é relevante na defesa
Desenvolver IA na Europa não é apenas uma questão de emprego ou orgulho industrial; afeta diretamente o controlo legal, ético e operacional.
- Soberania de dados: treinar IA de combate exige dados operacionais altamente sensíveis. Manter essa informação em infraestrutura europeia reduz exposição a exigências legais externas e a espionagem.
- Explicabilidade e auditoria: reguladores europeus exigem cada vez mais IA auditável. Na defesa, também é crítico perceber porque é que um algoritmo sinalizou um alvo ou recomendou uma rota, sobretudo quando há investigações após incidentes.
- Doutrina e regras de empenhamento: as regras francesas e europeias podem divergir das práticas dos EUA ou da China. Uma IA desenvolvida localmente pode incorporar essas doutrinas desde o início, em vez de adaptar código alheio.
Uma pilha europeia de IA de combate dá aos Estados maior controlo sobre a ética, os dados e os ciclos de modernização dos seus sistemas de armas.
Riscos, salvaguardas e o que pode falhar
A introdução de IA no combate aéreo traz promessas, mas também riscos significativos.
Um deles é o excesso de confiança. Em stress, equipas podem apoiar-se demasiado nas recomendações, aceitando sugestões que se ajustam ao modelo do software mas não à realidade do momento - sobretudo se a formação e os procedimentos não forem sólidos.
Outro risco é o da manipulação adversária. O oponente vai estudar como sistemas com IA reagem e tentará enganar sensores ou injetar dados enganadores nas redes. A robustez contra este tipo de ataques torna-se tão importante quanto a performance algorítmica.
Existe ainda um risco político-operacional: quando forças aéreas começarem a ver ganhos com IA supervisionada, aumentará a tentação de avançar para níveis superiores de autonomia, especialmente se enfrentarem adversários aparentemente menos condicionados. A fricção entre quadros legais, preocupações éticas e exigências operacionais é provável.
Conceitos-chave por detrás de uma IA de defesa ao estilo cortAIx
Três noções técnicas ajudam a compreender a iniciativa sem se perder em terminologia excessiva:
- Fusão de sensores: métodos para combinar trajetórias de radar, imagens infravermelhas, sinais rádio e outros dados numa imagem única e mais limpa, reduzindo contradições entre sensores.
- Combate colaborativo: doutrina em que plataformas tripuladas e não tripuladas trocam dados continuamente, permitindo que a “equipa” combata como um todo e não como aeronaves isoladas.
- Humano na supervisão (humano sobre o circuito): modelo em que pessoas supervisionam sistemas de IA que atuam dentro de limites predefinidos, com capacidade de intervenção ou desligamento rápido.
À medida que o cortAIx evoluir, é provável que estes conceitos passem a fazer parte dos programas de treino de pilotos, operadores de drones e comandantes. Dominar a relação homem-máquina pode tornar-se tão determinante quanto dominar manobras clássicas de voo.
Dois pontos adicionais que serão decisivos: validação e cibersegurança
Um aspeto frequentemente subestimado é a validação e certificação operacional. Para que a IA seja aceite em missões reais, terá de provar comportamentos consistentes em simulação, em exercícios e em avaliações formais, incluindo a gestão de casos-limite e falhas parciais de sensores. A “confiança” não será um slogan: terá de ser construída com métricas, ensaios repetíveis e regras claras de emprego.
Em paralelo, a cibersegurança passa a ser parte do desempenho de combate. Uma IA que depende de redes e de partilha de dados precisa de resistir a intrusões, falsificação de mensagens e comprometimento de cadeias de fornecimento. Proteger modelos, atualizações e interfaces torna-se uma condição base para que a assistência em tempo real não se transforme num novo vetor de vulnerabilidade.
Para já, a direção definida pela Dassault e pela Thales é nítida: assistência rápida e orientada por dados para equipas aéreas, desenvolvida na Europa e enquadrada por regras europeias. A velocidade com que esta ambição se traduzirá em software efetivamente instalado em Rafale, drones e postos de comando ditará se a França conseguirá influenciar as normas emergentes do combate aéreo com IA - ou se acabará por se adaptar a padrões definidos noutros centros de poder.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário