Saltar para o conteúdo

Após acordo com o Pentágono, OpenAI enfrenta críticas e utilizadores mudam-se para o Claude.

Pessoa à mesa a usar portátil com ecrã a mostrar ChatGPT e Claude, com café, jornais e óculos na mesa.

Um contrato, um fim de semana e uma viragem abrupta de perceção pública: a OpenAI decidiu aproximar o ChatGPT do Departamento de Defesa dos EUA (o Pentágono) - e desencadeou um backlash que obrigou a empresa a correções apressadas. Em paralelo, a até aqui vista como “outsider” Anthropic está a viver uma subida inesperada graças ao seu modelo Claude, beneficiando de uma imagem de maior contenção ética.

Como nasceu o polémico acordo da OpenAI com o Pentágono (ChatGPT)

A origem da controvérsia é um contrato de cooperação entre a OpenAI e o Departamento de Defesa dos EUA. De acordo com o enquadramento divulgado, o ChatGPT passaria a ser utilizado em tarefas ligadas à segurança e a contextos militares - por exemplo, para analisar grandes volumes de dados e apoiar analistas na síntese e interpretação de informação.

O ponto mais sensível é que, pouco antes, a concorrente Anthropic tinha recusado uma proposta de contornos semelhantes. A empresa afirma seguir um código de ética particularmente rígido e define “linhas vermelhas” quando estão em causa aplicações militares.

Enquanto a Anthropic diz “não” a armas autónomas e à vigilância em massa, a OpenAI avançou - e pouco depois teve de recuar.

O anúncio do contrato foi feito a uma sexta-feira, um timing frequentemente associado a tentativas de “enterrar” notícias incómodas. Para muitos observadores, soou a um clássico “Bad-News Friday”, reforçando a suspeita de que a OpenAI queria diluir as críticas no ruído do fim de semana.

Anthropic e Claude mantêm a linha: sem armas autónomas, sem vigilância em massa

A Anthropic tem vindo a posicionar-se, há algum tempo, como um ator especialmente cauteloso na corrida da IA. A prioridade declarada é evitar que o Claude seja colocado em cadeias de decisão potencialmente letais - sobretudo em cenários onde a tecnologia possa influenciar decisões críticas sem supervisão significativa.

De forma muito concreta, a Anthropic rejeita dois cenários de utilização:

  • Sistemas de armas totalmente autónomos: o Claude não deve integrar sistemas em que, no fim do processo, já não exista uma instância humana a decidir sobre vida e morte.
  • Vigilância de populações inteiras: a utilização para monitorização generalizada e sem motivo específico de cidadãos consta explicitamente da lista de exclusões.

Esta postura tem custos. Segundo relatos da imprensa, a Anthropic terá sido colocada numa lista negra informal em Washington e, neste momento, não está a receber novos contratos governamentais. Ao mesmo tempo, a mesma firmeza aumenta a confiança de utilizadores que receiam a captura da indústria de IA por interesses militares.

Ainda assim, circulam indícios de que o Claude poderá estar a ser usado por vias indiretas em contextos de segurança, incluindo em torno de conflitos no Médio Oriente. Não há confirmação pública - e o silêncio oficial tem alimentado o debate sobre transparência, controlo e prestação de contas.

OpenAI sob fogo: desinstalações disparam e Sam Altman recua

Para a OpenAI, o acordo com o Pentágono não trouxe um ganho imediato de reputação - bem pelo contrário. Dados da empresa de análise Sensor Tower indicam que, logo após a divulgação, o número de desinstalações diárias do ChatGPT aumentou drasticamente, cerca de 295% acima do nível normal.

Nas redes sociais multiplicaram-se hashtags como CancelChatGPT e QuitGPT. Vários utilizadores anunciaram que deixariam de usar produtos da OpenAI enquanto a empresa promovesse aplicações militares.

Numa primeira resposta, o CEO Sam Altman tentou reduzir a tensão. Defendeu que o contrato incluía mais salvaguardas do que acordos comparáveis e que seria até mais exigente do que compromissos anteriores de outros fornecedores. Para muitos, a mensagem teve o efeito inverso: soou como uma comparação implícita em que a Anthropic seria menos consequente - apesar de ter sido precisamente a Anthropic a recusar o tipo de contrato em causa.

Na segunda-feira seguinte chegou a meia capitulação. Altman admitiu que a empresa avançou depressa demais e de forma “descuidada”. E reconheceu, em termos gerais, na plataforma X, que a publicação à sexta-feira pareceu oportunista em retrospetiva. A situação seria complexa e a OpenAI teria subestimado a dimensão do problema de comunicação.

OpenAI altera o acordo: promessa explícita contra vigilância interna e limites para a NSA

Sob pressão pública, a OpenAI ajustou pontos centrais do entendimento com o Pentágono. A alteração mais relevante foi a inclusão de um compromisso explícito: os modelos da empresa não deverão ser usados de forma direcionada para vigiar cidadãos dos EUA.

Também foram descritas barreiras adicionais para agências de informações norte-americanas como a NSA. A ideia, segundo fontes ligadas à empresa, é que essas entidades não possam “ligar” os sistemas da OpenAI diretamente sem mais: seriam necessárias alterações contratuais adicionais e aprovadas previamente.

A OpenAI tenta traçar uma linha: apoio em contexto militar, sim - mas sem vigilância generalizada da própria população através do ChatGPT.

Resta perceber se estas garantias chegam para recuperar a confiança. Muitos ativistas e utilizadores falam num problema estrutural de credibilidade e pedem transparência total sobre todas as parcerias relevantes em matéria de segurança.

Claude sobe aos primeiros lugares e o ChatGPT perde terreno nas novas instalações

Enquanto a OpenAI gere crise e dano reputacional, a Anthropic colhe dividendos. Já no primeiro fim de semana após o anúncio do Pentágono, o Claude terá chegado ao topo das tabelas de downloads na App Store da Apple. A partir de dados públicos, a aplicação manteve-se vários dias no primeiro lugar.

Meios de comunicação nos EUA referem que, em novas instalações, o Claude chegou a ultrapassar o ChatGPT de forma clara em certos períodos. Para muitos utilizadores prontos a mudar, a Anthropic surge como a alternativa “mais ética” - um posicionamento que a empresa tem trabalhado de forma deliberada.

Em paralelo, organizam-se campanhas de boicote à OpenAI. Ativistas apelam a uma recusa prolongada de produtos da empresa enquanto existirem cooperações militares, descrevendo a situação como um “ponto de não retorno” que esbate a fronteira entre IA civil e militar.

Porque é que a política deve intervir (OpenAI, Anthropic, ChatGPT e Claude no centro do debate)

O conflito já saiu do domínio tecnológico e entrou no campo político. O think tank Center for American Progress interpreta esta disputa como um sinal claro para o Congresso dos EUA: não deve caber exclusivamente a empresas privadas decidir até onde a IA pode ir em contextos militares.

Também a academia tem levantado alertas. A especialista em ética Mariarosaria Taddeo, da Universidade de Oxford, considera problemático que o fornecedor mais prudente seja afastado de negociações. Quando as vozes mais cautelosas deixam de estar à mesa, o limite do “aceitável” tende a subir de forma discreta - e quase sempre sem debate público proporcional.

Parágrafo adicional (contexto e regras): Este tipo de controvérsia também reforça a pressão para regras mais claras fora dos EUA. Na Europa, o enquadramento do AI Act e as exigências de avaliação de risco, documentação e governação podem tornar-se uma referência indireta para práticas de transparência, mesmo em empresas norte-americanas. Ainda que o núcleo do caso seja o Pentágono, a discussão está a influenciar expectativas globais sobre auditorias, responsabilização e limites de uso em cenários de dual-use (uso civil e militar).

Como a IA militar já funciona - e onde estão os riscos

As forças armadas de vários países trabalham há anos com sistemas suportados por IA. O objetivo é processar, em tempo quase real, volumes gigantescos de dados vindos de imagens de satélite, drones, comunicações por rádio e relatórios de serviços de informações. Quanto mais rápido e preciso for o tratamento dessa informação, mais cedo as estruturas de comando conseguem reagir.

Empresas como a Palantir fornecem plataformas desenhadas precisamente para esse tipo de trabalho. Segundo um gestor britânico da empresa, estes sistemas ajudam a acelerar decisões e, em certas circunstâncias, a torná-las mais letais. A IA passa assim a atuar como um multiplicador de velocidade nos processos militares.

Apesar disso, há um risco técnico que se mantém com modelos de linguagem de grande escala como o ChatGPT ou o Claude: a tendência para “alucinações”. Ou seja, inventar detalhes, extrair conclusões erradas ou apresentar informação incerta com enorme convicção. Numa utilização quotidiana, isto pode ser apenas incómodo; num contexto militar, pode tornar-se perigosamente decisivo.

Por isso, responsáveis militares insistem repetidamente no princípio de que o ser humano permanece “human-in-the-loop” (o humano “na linha” de decisão). Uma oficial norte-americana responsável por dados num grupo de trabalho da NATO aponta para controlos humanos em cada etapa. Os críticos, no entanto, questionam até quando este princípio se aguenta num cenário real de conflito, quando a pressão do tempo e o incentivo à eficiência aumentam.

Parágrafo adicional (medidas técnicas e controlo): Para além de promessas contratuais, começa a ganhar força a exigência de mecanismos técnicos verificáveis: registos de auditoria (audit logs), limites de acesso, equipas de red teaming, testes de robustez e rastreabilidade sobre quais dados e prompts foram usados. Sem este tipo de controlos, compromissos como “não usar para vigilância” tornam-se difíceis de fiscalizar por terceiros - e a discussão acaba por depender apenas de confiança.

O que este conflito significa para utilizadores e para a sociedade

A discussão atual marca um ponto de viragem. Muitos utilizadores viam os chatbots de IA sobretudo como ferramentas práticas para emails, trabalhos escolares ou snippets de código. Agora torna-se mais evidente que os mesmos modelos podem também ser puxados para interesses de segurança e estratégia militar.

Para consumidores e utilizadores, surgem perguntas inevitáveis:

  • Em que condições pode um fornecedor de IA trabalhar com forças armadas ou serviços de informações?
  • Que utilizações são divulgadas e quais ficam fora do escrutínio público?
  • Até que ponto promessas éticas são vinculativas quando estão em jogo contratos de milhares de milhões?

Juristas e conselhos de ética defendem regras claras para IA militar - numa lógica semelhante a acordos de controlo e limitação que existem para armas nucleares ou químicas. Entre as medidas discutidas estão proibições de armas totalmente autónomas, obrigações de transparência para empresas e mecanismos internacionais de controlo.

Para as tecnológicas, coloca-se um dilema estratégico: conseguem recusar contratos governamentais muito lucrativos para manterem credibilidade e confiança no mercado de massas? A corrida recente ao Claude sugere que uma linha mais restritiva pode compensar, pelo menos no curto prazo. O teste real virá quando mais países e alianças militares lançarem projetos próprios de IA.

Para quem utiliza estas ferramentas, vale a pena ler com atenção termos de serviço e guias de uso. Conceitos como “human-in-the-loop”, sistemas autónomos e dual-use aparecem cada vez mais. Compreender estes termos ajuda a decidir, de forma mais consciente, a que IA se confiam determinadas tarefas - e onde está a linha vermelha pessoal.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário