Você, leitor, que em 2026 talvez nunca tenha assistido a um filme tosco de 1983 chamado Jogos de Guerra, com Matthew Broderick, fez muito bem, e por dois motivos. O primeiro é que os temas que o filme levantou nunca foram tão reais. O segundo é um spoiler: até a inteligência artificial daquele filme operava sob uma lógica de preservação que parece ausente nos algoritmos de otimização de alvos utilizados hoje em teatros de guerra como Gaza e o Irã. Por outro lado, quem, como eu, assistiu a essa ficção algumas vezes talvez fique ainda mais chocado com o que vem a seguir.
Desde 2023, Israel e, por ora em menor escala, os Estados Unidos* vêm se destacando pelo uso massivo de inteligência artificial em operações militares. Isso não é conspiração, muito pelo contrário, é uma prática nova que merece muito mais debates, porque toca em questões profundas de precisão, ética e no futuro das guerras. No já citado filme, o supercomputador WOPR foi criado para eliminar a “hesitação humana” no comando nuclear e operar com pura lógica matemática. A realidade, porém, não elimina ansiedades geradas pela ficção. Muito pelo contrário, sistemas como Lavender e o Gospel, desenvolvidos pelas Forças de Defesa de Israel, são a versão real dessa tecnologia.

Revelados por investigações jornalísticas, esses algoritmos processam volumes absurdos de dados de vigilância e geram listas quase infinitas de alvos em poucas horas, algo que antigamente levaria semanas de trabalho de analistas humanos. O resultado? Uma aceleração sem precedentes nos bombardeios e um número alarmante de vítimas civis, conforme observado, o que coloca em xeque princípios básicos do direito internacional e de convenções de guerra.

O Lavender foi o primeiro desses sistemas a ser utilizado. Projetado para classificar dezenas de milhares de palestinos como potenciais soldados do Hamas, ele atribui uma pontuação de 1 a 100 baseada em padrões comportamentais: deslocamentos e rotinas diárias, pedidos de delivery, conversas em apps, comentários em redes sociais, fotos, vídeos privados ou de câmeras de segurança… tudo vira dado, e a partir dali uma aproximação com terroristas conhecidos é estabelecida. Por fim, pessoas que podem ser familiares indo visitar, meros profissionais prestando serviços ou de fato terroristas recebem pontuações. Relatos indicam que o sistema chegou a identificar 37 mil alvos, com uma taxa de erro estimada em 10%. É aqui que começa o perigo. No início, analistas humanos ainda revisavam as recomendações dos relatórios. Mas a confiança na precisão estatística do sistema acabou gerando uma automação do consentimento.

Já o Gospel é um pouco diferente. Ele cuida dos alvos “inanimados”, como armazéns, depósitos, fábricas, lançadores de mísseis e assim por diante. Ele analisa imagens de satélite, câmeras de segurança, estabelece rotinas de troca de guarda, chegada de caminhões suspeitos e gera milhares de recomendações por dia. O que antes exigia equipes de espiões no terreno agora é feito por um algoritmo. Assim como o Lavender, com o tempo os relatórios pararam de ser revisados e viraram, na prática, manuais de ataque. Aqui entra a diferença crucial em relação ao filme do Matthew Broderick: enquanto o WOPR, no final, aprendia que “a única jogada vencedora é não jogar”, os algoritmos do Lavender e do Gospel não têm filtro moral nem noção de “futilidade estratégica”. Eles simplesmente continuam gerando alvos, sem parar. Especialistas começaram a chamar isso de “industrialização da guerra” ou “alvos infinitos”.

Tem ainda um terceiro sistema, apelidado de “Where’s Daddy?” (Onde está o Papai?) Ele rastreia os alvos identificados pelas outras IAs, notificando a presença do alvo em ambientes civis ou residenciais e gerando “mapas de calor”. Essa funcionalidade eleva exponencialmente o risco de danos colaterais, desafiando o princípio da proporcionalidade previsto no Direito Internacional. As Forças de Defesa de Israel defendem essas ferramentas como “suporte que aumenta a precisão” de suas ações. Afinal, a tecnologia é nova e não é coberta por nenhuma convenção internacional. Fica a dúvida se essa será a tese de defesa de vários acusados de crimes de guerra, diluindo a cadeia de responsabilidade através da tecnologia. Ainda assim, o uso desses recursos é objeto de intenso debate jurídico. Especialistas do Instituto Lieber, de West Point, alertam que essa automação cria uma perigosa lacuna de responsabilização (accountability gap) em casos de crimes de guerra.

A extensão dessa metodologia imediatamente para o conflito com o Irã mostra como tudo evoluiu rápido demais em menos de três anos. Nesta semana, o podcast do jornal Haaretz entrevistou o especialista Sebastian Ben-Daniel, do Departamento de Ciências da Computação da Universidade Ben-Gurion. Conhecido por suas análises críticas sobre infraestrutura digital em conflitos armados, ele contou que a IA não só repetiu tudo o que fez em Gaza como agora também está integrada a operações cibernéticas: mapeamento em tempo real de líderes, geração de falsos ataques para revelar origens de lançamentos de mísseis e veículos não tripulados como os Shahed, cálculo de tempo de resposta militar e assim por diante.

Não que o Irã seja apenas vítima nessa história. Segundo Sebastian, o país tem grupos como o APT33 que usam uma IA própria para phishing avançado e análise de dados roubados. Recentemente, eles hackearam sistemas israelenses para prever movimentos militares, o que forçou mudanças de rotinas e atrasos de operações. O Irã também utiliza a IA para otimizar trajetórias baseadas em dados de satélite hackeados. Logo, o uso dessa tecnologia de machine learning revela uma corrida armamentista digital, onde se busca eficiência através da análise massiva de dados, tornando o conflito matematicamente mais letal e menos previsível.

As implicações éticas, claro, são enormes: do viés algorítmico à desumanização total apontada pela campanha “Stop Killer Robots“. À medida que a IA se torna ubíqua nos campos de batalha, o debate sobre regulamentação internacional requer urgência. Infelizmente é impossível fazer isso enquanto houver conflitos. Seja em Gaza ou no Irã, esses sistemas mostram um novo paradigma da eficiência tecnológica contra imperativos humanitários. Enquanto isso, em 2026 o computador não parece disposto a parar de jogar, diferente de 1983.

* ainda não é o Projeto Maven.

Algumas referências e sugestões de leitura:

1- Abraham, Yuval. “‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza.” +972 Magazine, 3 Apr. 2024, www.972mag.com/lavender-ai-israeli-army-gaza.
2- Badham, John, director. WarGames. Metro-Goldwyn-Mayer, 1983.
3- Barrett, Brian. “Israel’s Use of AI in Gaza May Be Setting a New Warfare Precedent.” Time, 18 Dec. 2024, time.com/7202584/gaza-ukraine-ai-warfare.
4- Bender, Eric M., et al. “Israel Is Using an AI System to Find Targets in Gaza. Experts Say It’s Just the Start.” NPR, 14 Dec. 2023, www.npr.org/2023/12/14/1218643254/israel-is-using-an-ai-system-to-find-targets-in-gaza-experts-say-its-just-the-st.
5- Blumenthal, Paul, and Sam Stein. “‘The Machine Did It Coldly’: Israel Used AI to Identify 37,000 Hamas Targets.” The Guardian, 3 Apr. 2024, www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes.
6- Schmitt, Michael N. “Israel – Hamas 2024 Symposium – The Gospel, Lavender, and the Law of Armed Conflict.” Articles of War, 28 June 2024, lieber.westpoint.edu/gospel-lavender-law-armed-conflict.
7- “Use of Lavender Data Processing System in Gaza.” Stop Killer Robots, 4 Apr. 2024, www.stopkillerrobots.org/news/use-of-lavender-data-processing-system-in-gaza.
8- Benvenisti, Meron. “Israel: How Gospel and Lavender Select Targets in Gaza.” Fly a Jet Fighter, 3 Mar. 2026, www.flyajetfighter.com/israel-how-gospel-and-lavender-select-targets-in-gaza.
9- “‘Lavender’ and ‘The Gospel’ AI Systems Reportedly Used in Gaza Targeting Operations with Civilian Harm Allegations.” AI Incident Database, incidentdatabase.ai/cite/672. Accessed 9 Mar. 2026.
10- Abraham, Yuval. “‘AI-Assisted Genocide’: Israel Reportedly Used Database for Gaza Kill Lists.” Al Jazeera, 4 Apr. 2024, www.aljazeera.com/news/2024/4/4/ai-assisted-genocide-israel-reportedly-used-database-for-gaza-kill-lists.
11- Rahman, Amber. “Explainer: The Role of AI in Israel’s Genocidal Campaign Against Palestinians.” Institute for Palestine Studies, 16 Oct. 2024, www.palestine-studies.org/en/node/1656285.
12- Bender, Eric M., et al. “Israel Is Using an AI System to Find Targets in Gaza. Experts Say It’s Just the Start.” NPR, 14 Dec. 2023, www.npr.org/2023/12/14/1218643254/israel-is-using-an-ai-system-to-find-targets-in-gaza-experts-say-its-just-the-st.
13- Goodfriend, Sophia. “Gaza: Israel’s AI Human Laboratory.” The Cairo Review of Global Affairs, www.thecairoreview.com/essays/gaza-israels-ai-human-laboratory. Accessed 9 Mar. 2026.
14- “How Will Cyber Warfare Shape the U.S.-Israel Conflict with Iran?” Center for Strategic and International Studies, 3 Mar. 2026, www.csis.org/analysis/how-will-cyber-warfare-shape-us-israel-conflict-iran.
15- “Cyber Threat Bulletin: Iranian Cyber Threat Response to US/Israel Strikes, February 2026.” Canadian Centre for Cyber Security, 1 Mar. 2026, www.cyber.gc.ca/en/guidance/cyber-threat-bulletin-iranian-cyber-threat-response-usisrael-strikes-february-2026.
16- Schwarz, Elke. “The Ethical Implications of AI in Warfare.” Queen Mary University of London, www.qmul.ac.uk/research/featured-research/the-ethical-implications-of-ai-in-warfare. Accessed 9 Mar. 2026.
17- “IA na Guerra: De Gaza ao Irã.” Haaretz Podcast, hosted by Allison Kaplan Sommer, Haaretz, 9 Mar. 2026, open.spotify.com/episode/7ms8zcufGE5aELSozmGbMx?si=KJxOobeeRKeH02a5Xmp0Yw. Accessed 9 Mar. 2026.