La ciudad de Beit Lahia, al norte de la Franja de Gaza, en diciembre de 2023, tras un ataque israelí. / Yonatan Sindel /Flash90
Israel ha dado un paso más en la automatización de la guerra. Ahora, sus Fuerzas Armadas han desarrollado un programa de inteligencia artificial (IA) llamado Lavender (lavanda), capaz de detectar objetivos humanos potenciales que después atacarán los militares. En declaraciones a The Guardian, los seis oficiales de inteligencia que trabajaron en la IA afirmaron que Lavender ha realizado un trabajo esencial durante el conflicto. Según estos oficiales, la IA habría procesado grandes cantidades de datos para identificar rápidamente a posibles agentes “jóvenes a los que atacar”.
Uno de ellos declaró también tener más fe en un “mecanismo estadístico” que en un soldado afligido. “Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”, explicó.
En total, la herramienta señaló hasta 37.000 hombres palestinos que habían sido vinculados con Hamás y se usó en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasión de Gaza, según revela una investigación periodística de dos medios israelíes, +972 Magazine y Local Call.
La IA ha generado controversia porque entra dentro de sus parámetros que, por cada alto cargo de Hamás o la Yihad Islámica, muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios.
Tras salir a la luz este reportaje, las Fuerzas Armadas israelíes negaron en un comunicado oficial que se esté dejando a la máquina determinar “si alguien es un terrorista”. El escrito dice que los sistemas de información “son meras herramientas para los analistas en el proceso de identificación de objetivos”.
El error del 10%
La investigación periodística no revela qué parámetros se usan para determinar si un objetivo tiene o no relación con Hamás o Yihad Islámica. Se usan algunos, como que la persona cambie frecuentemente de teléfono o que sea varón.
Sin embargo, lo que sí que se sabe es que la IA trabaja con estimaciones y que, como todas las máquinas, tiene sus errores. En total, al menos un 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales del reportaje.
Ese margen de error, más las muertes colaterales aceptadas por el ejército, arroja un saldo de miles de palestinos asesinados por la indicación del software, que no tenían vínculos con ninguna de las organizaciones mencionadas.
¿Cómo sabe la IA a quién atacar?
Los expertos que han participado en la investigación han contado que, desde el punto de vista de la IA militar, lo más fácil es localizar a los objetivos en sus viviendas particulares. Ante esta dificultad, Lavender rastrea mediante sistemas automatizados comunicaciones en las que se detecta la pregunta «¿dónde está papá?» lo que apuntaba a una vivienda particular que inmediatamente era bombardeada.
Según los expertos, ha habido numerosas bajas colaterales debido a este algoritmo y al margen de error de la IA. No obstante, también aseguran que «Israel intenta reducir el daño a los civiles en la medida de lo posible según las circunstancias operativas imperantes en el momento del ataque».