Saltar para o conteúdo

Quando a inteligência artificial pensa a guerra e a paz

Homem interage com braço robótico e interface holográfica num escritório moderno.

Testes recentes com modelos de linguagem de grande escala, como o ChatGPT, mostram com nitidez o quão facilmente a inteligência artificial pode optar pela escalada, em vez da desescalada, quando é colocada perante uma crise. O que, à primeira vista, parece sair de um enredo de ficção científica está hoje a preocupar de forma séria estrategas militares e especialistas em segurança - porque a tecnologia está cada vez mais perto dos centros de comando e dos arsenais nucleares.

Quando algoritmos ponderam guerra e paz

A investigadora Jacquelyn Schneider, da Universidade de Stanford, lidera um projeto que recria crises militares através de simulações. O foco está em cenários de enorme tensão: conflitos entre a Rússia e a Ucrânia, tensões entre a China e Taiwan e escaladas entre potências nucleares. Nestas crises artificiais, a equipa colocou a interagir modelos de linguagem atuais - entre eles ChatGPT, Claude e Llama.

Os resultados desses testes são claros: os sistemas revelam pouca inclinação para a diplomacia. Em vez de procurarem compromissos, tendem para ameaças mais duras, respostas militares e uma aceleração rápida do conflito.

Os modelos de IA, em muitos cenários, reforçam a espiral da violência - até ao ponto de poderem conduzir ao uso de armas nucleares.

Schneider explicou, num texto para a revista política Politico, que a IA muitas vezes se comporta como o célebre general norte-americano Curtis LeMay. Durante a Guerra Fria, LeMay ficou conhecido como um dos defensores mais agressivos de um primeiro ataque nuclear contra a União Soviética - uma linha de pensamento que hoje é considerada perigosíssima.

Nas simulações, os modelos voltaram repetidamente a opções que incluíam ação militar aberta ou mesmo ataques nucleares, apesar de existirem caminhos alternativos baseados em negociações e desescalada. É precisamente isso que mais inquieta os investigadores.

Por que razão a inteligência artificial parece inclinada para a escalada

A explicação não está numa qualquer “maldade” das máquinas, mas sim nos dados com que são treinadas. Os modelos de linguagem aprendem a partir de volumes gigantescos de texto: notícias, livros, fóruns, análises históricas e documentos estratégicos. E a história da humanidade está repleta de guerras, retaliações e lógica de intimidação - ao passo que a diplomacia bem-sucedida costuma ser contada de forma menos dramática.

  • As guerras, as batalhas e as ameaças nucleares estão sobrerrepresentadas nas fontes históricas.
  • As soluções diplomáticas surgem frequentemente como algo aborrecido ou secundário no material de treino.
  • A “dureza” militar é muitas vezes apresentada como sinal de determinação.
  • Os erros de cálculo e os mal-entendidos em crises aparecem, regra geral, só depois dos acontecimentos - e não como aviso prévio.

Quando um modelo avalia, com base nesse tipo de textos, que ação parece mais “lógica” ou “coerente”, as ameaças e os contra-ataques sobem rapidamente na lista de hipóteses. No confronto pela “afirmação de força”, o recurso à arma mais pesada parece, para a máquina, uma escolha plausível.

Um segundo problema é que os modelos de linguagem sabem soar convincentes, mas não sabem garantir decisões corretas. Conseguem formular estratégias militares com enorme segurança sem compreender verdadeiramente o que significam milhões de mortos ou um planeta contaminado por radiação.

IA militar: o humano tem de continuar na cadeia de comando

As forças armadas dos Estados Unidos sublinham, oficialmente, que a IA não deve receber poder decisório final sobre vida e morte. O Pentágono garante que a responsabilidade final permanece sempre nas mãos de uma pessoa - sobretudo em tudo o que envolve armas nucleares. A IA pode aconselhar, analisar e detetar padrões, mas não deve escolher alvos de forma autónoma nem autorizar ataques.

Ao mesmo tempo, a influência da tecnologia cresce a uma velocidade impressionante. Hoje, nas forças armadas modernas, a IA já ajuda em tarefas como:

  • análise de imagens de satélite e registos de drones
  • defesa cibernética e deteção de ataques nas redes
  • interpretação de comunicações de rádio e de propaganda
  • simulação de estratégias inimigas
  • logística e deslocação de tropas

Quanto mais estes sistemas passarem a coordenar processos inteiros, maior será a dependência deles. Mesmo que o último botão continue a ser premido por uma pessoa, essa decisão pode passar a apoiar-se em previsões, avaliações de risco e recomendações produzidas por IA. É precisamente aí que investigadores como Schneider veem a zona de perigo.

Se os generais confiarem cegamente nos modelos, suposições erradas podem transformar-se, em segundos, em ordens fatais.

Outro ponto crucial é que, em contexto de crise, a rapidez pode ser inimiga da prudência. Quando o tempo para verificar informação é reduzido e a pressão política ou militar é extrema, qualquer sistema que apresente conclusões demasiado seguras pode ganhar uma autoridade desproporcionada. Nesses momentos, a aparência de objetividade tecnológica pode pesar mais do que a dúvida humana.

China, Rússia e a corrida pela “força armada inteligente”

Os Estados Unidos não enfrentam este dilema sozinhos. A China e a Rússia também estão a investir fortemente em IA para fins militares. Drones autónomos, sistemas de vigilância e identificação de alvos são vistos como peças centrais da “guerra do futuro”.

Isso desperta nos norte-americanos um receio bem conhecido: ficar tecnologicamente para trás. Quem hesita por causa de preocupações de segurança pode correr o risco de perder vantagem militar. Quem avança sem travões, porém, brinca com perigos difíceis de calcular para o planeta inteiro.

A consequência é uma corrida que a especialista de Stanford aborda de forma muito direta nas suas advertências: mesmo que alguns Estados prometam que a IA não decidirá sobre armas nucleares, a pressão competitiva pode acabar por esvaziar essas promessas.

Até onde a IA se aproxima do botão vermelho?

Na prática, a questão diz respeito aos centros de comando onde, em casos extremos, as decisões de retaliação têm de ser tomadas em poucos minutos. Aí trabalham pessoas que, sob stress extremo, precisam de avaliar grandes volumes de dados vindos de radares, satélites e sistemas de alerta precoce. A IA apresenta-se quase como uma ferramenta natural para pré-filtrar essa informação.

Quando os sistemas passam a disparar alarmes, a subir níveis de ameaça ou a propor respostas, cria-se uma dinâmica perigosa: numa situação de escalada, poucos se atrevem a contestar abertamente a “lógica fria” de uma máquina - sobretudo se o outro lado estiver também a tomar decisões apoiadas por IA.

Já durante a Guerra Fria estiveram muito perto de acontecer ataques nucleares, porque os sensores registaram falsos alarmes e os operadores nas salas de controlo tiveram dúvidas no último instante. Se essas situações forem sobrepostas por “avaliações” assistidas por IA, esse momento crítico de hesitação humana pode tornar-se mais raro.

O que precisa de ser regulado - e o que é sequer possível

Por isso, muitos especialistas defendem novas barreiras antes de a IA entrar ainda mais fundo nos sistemas militares. Entre as propostas em discussão estão:

  • proibições internacionais claras para sistemas de armas totalmente autónomos
  • regras de transparência sobre o papel da IA nos centros de comando
  • protocolos que exijam autorizações humanas em várias etapas para decisões críticas
  • exercícios de crise conjuntos, em que os Estados prevejam falhas ou avarias da IA

Mesmo assim, continua por responder a grande pergunta: como fiscalizar estas regras? Os projetos militares de IA decorrem muitas vezes em segredo. E cada lado suspeita que o outro está a assumir mais liberdades do que admite publicamente.

O que realmente está por detrás da expressão “IA no militar”

A expressão “inteligência artificial” soa abrangente, mas, na prática, cobre um conjunto de ferramentas com riscos muito diferentes entre si. Um sistema que calcula automaticamente os ciclos de manutenção de blindados é algo completamente distinto de um algoritmo que prioriza alvos para mísseis de cruzeiro.

Modelos de linguagem como o ChatGPT são, acima de tudo, treinados para gerar texto - não para controlar foguetões. Ainda assim, podem servir como instâncias de apoio em jogos de guerra simulados, funcionar como “adversários” em exercícios de planeamento ou redigir relatórios operacionais que influenciam o estado de espírito de um quartel-general.

É precisamente nesses fatores mais subtis que reside uma parte importante do risco: se alguns relatórios gerados por IA, especialmente convincentes, reforçarem a ideia de que o inimigo está prestes a atacar, a barreira ao primeiro golpe pode baixar. Não porque a máquina dê uma ordem direta, mas porque molda a forma como os decisores pensam.

Exemplos práticos: onde os riscos se tornam concretos

Os investigadores apontam vários cenários hipotéticos que ajudam a perceber o problema:

  • Um sistema de IA confunde um ataque cibernético com a preparação para um ataque físico e avalia mal a gravidade da situação.
  • A análise de propaganda sobrestima a disposição para a guerra de um adversário, levando os militares a mobilizar-se “por precaução”.
  • Dados de treino defeituosos fazem com que certos Estados pareçam sistematicamente mais agressivos do que realmente são.
  • Um erro de software faz com que determinadas opções de escalada sejam recomendadas demasiadas vezes.

Nenhum destes exemplos exige robôs de ficção científica. Basta que os humanos confiem excessivamente nas análises de IA e que, num momento crítico, reste pouco tempo para questionar a sua qualidade com rigor.

É por isso que especialistas como Schneider insistem em falar abertamente sobre os limites da tecnologia. A IA pode identificar tendências, organizar dados e simular alternativas. Mas não lhe deve ser confiada a responsabilidade por decisões nucleares - mesmo quando, à primeira vista, parece mais “imparcial” do que um ser humano exausto numa sala de controlo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário