Injured Palestinians taken at Khan Yunis hospital as Israel continues to strike Gaza

En un desarrollo preocupante, una investigación conjunta de los medios +972 Magazine y Local Call ha revelado que Israel ha empleado un programa de inteligencia artificial (IA) para identificar a unos 37,000 palestinos como presuntos militantes de Hamás como objetivos de asesinato. Seis oficiales de los servicios de inteligencia israelí han desvelado este hecho, y han añadido que el ejército autorizó el asesinato de «un gran número» de civiles.

El sistema, conocido internamente como ‘Lavender’, ha sido diseñado y desarrollado para detectar de forma automatizada presuntos operativos de la rama militar de Hamás y de la Yihad Islámica Palestina (YIP) como objetivos para los bombardeos. Durante las primeras semanas de guerra en la Franja de Gaza, las fuerzas armadas israelíes se apoyaron casi por completo en esta IA y trataron sus resultados «como si fuera una decisión humana», a pesar de la habitual falta de precisión de este tipo de máquinas.

Los agentes de la inteligencia israelí denuncian el uso «sin precedentes» de un «mecanismo estadístico» en el que los miembros del ejército confiaban ciegamente para elegir a sus víctimas. «Invertía 20 segundos por cada objetivo y hacía docenas de ellos cada día. No tenía ningún valor añadido como humano, aparte de ser un sello de aprobación», declaró uno de ellos.

La Unidad 8200, el cuerpo de la inteligencia militar de Israel que desarrolló esta herramienta de IA, aseguró que tenía una tasa de precisión del 90%, lo que llevó al ejército a adoptarla de forma normalizada. Con el recrudecimiento de la guerra, el ejército aceleró la identificación algorítmica de objetivos humanos y la aprobación de ataques contra ellos. «Nos presionaban constantemente: ‘Traednos más objetivos’. Realmente nos gritaban», asegura una de las fuentes.

‘Lavender’ creó una base de datos de decenas de miles de ciudadanos. La gran mayoría de los 37,000 palestinos identificados como miembros de Hamás o de la YIP eran de bajo rango. Esa base, cita la investigación, se juntó con los datos generados por otro sistema de IA conocido como ‘Gospel’ que identifica edificios y otras estructuras como potenciales objetivos de los bombardeos.

Israel ha negado que las fuerzas armadas usen una IA «para identificar objetivos terroristas o para intentar predecir si una persona es terrorista». En un comunicado, han asegurado que se trata de un sistema para «producir capas actualizadas de información sobre los operativos militares de las organizaciones terroristas».

La investigación también revela que Israel permitió el asesinato de «un gran número de palestinos» civiles durante los primeros meses de la ofensiva. Para los ataques aéreos contra presuntos miembros de Hamás de bajo rango, los mandos militares israelíes contaban con un número estimado de bajas civiles. En las primeras semanas, se autorizó matar entre 15 y 20 ciudadanos por bombardeo.

En esos casos, además, los ataques contra las casas de los supuestos paramilitares palestinos se realizaban con bombas «tontas», aquellas sin guía ni precisión que ocasionan muchas más muertes de civiles, vistas como «daños colaterales». «No se quieren desperdiciar bombas caras en gente sin importancia», remarca un oficial de inteligencia. «Es muy caro para el país y hay escasez de esas bombas».