*Por Brian Iselin, via LinkedIn – 18/09/2025
Separando fatos de manchetes nos testes do Saab Gripen E com o Centaur, da empresa Helsing — e por que o ritmo de atualização de software agora vence guerras.
A manchete parece ficção científica: um “piloto” de IA assumiu o controle de um Gripen E sueco e combateu contra um caça pilotado por humano. Mas, além do sensacionalismo, há um marco real: uma aeronave de combate em padrão de produção entregando tarefas-chave de combate a um software — em voo real, sob céus reais, com um piloto humano pronto para retomar os comandos. Eis o que a Suécia testou, o que não testou e por que isso importa.
O teste, em termos claros
De 28 de maio a 3 de junho de 2025, a Saab e a empresa alemã
de IA de defesa Helsing realizaram uma série de voos reais no âmbito do Projeto
Beyond.
Um Gripen E de desenvolvimento levou a bordo o agente de IA Centaur. Em
janelas específicas do voo, o piloto entregava ao sistema o controle da parte tática
— detecção de ameaças, geometria de combate e indicação de disparo de mísseis.
Um segundo Gripen atuava como aeronave adversária. Um piloto de segurança
humano permaneceu sempre a bordo do jato conduzido pela IA, podendo assumir
instantaneamente.
Esses foram voos reais sobre o Báltico, não apenas simulações. Os efeitos das armas foram simulados — prática-padrão em testes iniciais de autonomia. O objetivo foi coletar dados e caracterizar comportamentos, não encenar um dogfight definitivo.
O que o Centaur realmente fez
O combate aéreo além do alcance visual (BVR) é um
jogo de xadrez de alta velocidade, guiado por sensores. O papel da IA:
- acompanhar posições relativas,
- gerenciar sensores e emissões da aeronave,
- escolher manobras energeticamente eficientes,
- decidir quando um disparo de míssil é taticamente viável.
Segundo Saab e Helsing, o Centaur foi treinado em larga escala em simulações de alta fidelidade e depois transferido para a aeronave para validação no mundo real — “anos” de voo virtual comprimidos em dias ou semanas. O Gripen E facilita isso: sua arquitetura separa o software de controle de voo do software tático, permitindo que novos códigos rodem no computador de missão sem afetar os sistemas críticos de voo.
O resultado: a IA conduziu manobras táticas reais contra um adversário humano, com o piloto pronto para intervir.
O que não foi
- Não foi uma missão de combate sem piloto: um humano permaneceu no cockpit, responsável e capaz de intervir.
- O emprego real de armas não ocorreu, apenas simulado.
- Os cenários foram controlados: combate aproximado (dogfight WVR), táticas multi-aeronave, guerra eletrônica pesada, sensores degradados ou clima adverso permanecem pontos futuros de teste.
Por que a demonstração importa
- Rodou
em um caça de linha de frente – não em drones ou plataformas
experimentais. A IA assumiu controle tático dentro de um Gripen E em
padrão de produção.
- Prova
a cadência acelerada de software – novas capacidades podem evoluir por
meio de código, sem esperar por upgrades de bloco de décadas.
- Sinaliza intenção europeia – EUA, China e Rússia correm na autonomia. A Suécia mostrou publicamente que pretende competir, inserindo a IA no estudo do Conceito de Aviação de Combate Futuro, que prevê frotas mistas de aeronaves tripuladas e não tripuladas.
Segurança, certificação e confiança
- A
arquitetura do Gripen E mantém a IA isolada dos controles de voo, rodando
em um “sandbox” tático.
- Engenheiros
impõem barreiras de segurança e expandem a envelope de testes
gradualmente.
- Reguladores ainda exigirão provas extensas antes de permitir autonomia no disparo de armas reais.
O fator humano é a confiança: pilotos aceitarão as recomendações da IA quando perceberem que ela gera resultados superiores de forma consistente. A construção dessa confiança dependerá da cadência de atualizações.
Como deve ser aplicado
A autonomia chegará primeiro como multiplicador de força, não substituto do piloto:
- Copiloto
tático: classifica ameaças, otimiza rotas, sugere planos de guerra
eletrônica e indica disparos.
- “Anjo
da guarda”: impede manobras suicidas (ex.: entrar em zona de defesa
antiaérea) ou alerta sobre emboscadas prováveis.
- Equipes homem-máquina: caças tripulados coordenando “ala” autônoma com sensores e armas. Europa, EUA e Austrália já seguem essa linha.
Perguntas em aberto
- Repetibilidade:
a IA pode superar humanos de forma consistente em cenários BVR, ou apenas
sob condições específicas?
- Dados
e viés: a simulação em larga escala é útil apenas se refletir a
realidade. A transição “sim-para-real” é o maior desafio.
- Política de exportação: quem controla atualizações da IA se vendida com o Gripen E? Como clientes nacionais a certificariam?
Veredito
A Suécia não implantou um caça fantasma que dispara sozinho, mas sim, um agente de IA executou manobras táticas reais em um caça real, contra um adversário real, com um piloto humano pronto para assumir.
Essa combinação — credível, segura e em plataforma operacional — marca um passo significativo rumo ao combate aéreo centrado em software.
Os próximos avanços não serão dramáticos aos olhos de quem assiste do solo: virão em atualizações discretas, que farão o caça “pensar diferente”.
*Brian Iselin é consultor de confiança em segurança, defesa e relações internacionais; redator de propostas estratégicas; corretor de produtos com foco em inteligência; defensor da integração dos direitos humanos nos negócios. "Meu trabalho é financiado pelos leitores — sem anúncios, sem patrocinadores, sem algoritmos. Se isso te interessou, você pode impulsionar o próximo com uma gorjeta. Mesmo € 2 me ajudam a encontrar tempo para histórias mais profundas. Apoie-me pagando um café Pense nisso como financiar a escrita instigante e informativa que você gostaria que existisse com mais frequência."
Nenhum comentário:
Postar um comentário
Seu comentário será submetido ao Administrador. Não serão publicados comentários ofensivos ou que visem desabonar a imagem das empresas (críticas destrutivas).