Hércules

Registrarse

|

Search
Close this search box.
Search
Close this search box.

|

27 Nov 2024
27 Nov 2024
EN VIVO

La IA de Israel que decide el rumbo de la guerra

Las Fuerzas Armadas de Israel recurren a una inteligencia artificial para seleccionar seres humanos que pudiesen estar vinculados a Hamás y autorizar ataques

La ciudad de Beit Lahia, al norte de la Franja de Gaza, en diciembre de 2023, tras un ataque israelí. / Yonatan Sindel /Flash90

Uno de ellos declaró también tener más fe en un “mecanismo estadístico” que en un soldado afligido. “Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”, explicó.

En total, la herramienta señaló hasta 37.000 hombres palestinos que habían sido vinculados con Hamás y se usó en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasión de Gaza, según revela una investigación periodística de dos medios israelíes, +972 Magazine y Local Call.

La IA ha generado controversia porque entra dentro de sus parámetros que, por cada alto cargo de Hamás o la Yihad Islámica, muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios.

Tras salir a la luz este reportaje, las Fuerzas Armadas israelíes negaron en un comunicado oficial que se esté dejando a la máquina determinar “si alguien es un terrorista”. El escrito dice que los sistemas de información “son meras herramientas para los analistas en el proceso de identificación de objetivos”.

El error del 10%

La investigación periodística no revela qué parámetros se usan para determinar si un objetivo tiene o no relación con Hamás o Yihad Islámica. Se usan algunos, como que la persona cambie frecuentemente de teléfono o que sea varón.

Sin embargo, lo que sí que se sabe es que la IA trabaja con estimaciones y que, como todas las máquinas, tiene sus errores. En total, al menos un 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales del reportaje.

Ese margen de error, más las muertes colaterales aceptadas por el ejército, arroja un saldo de miles de palestinos asesinados por la indicación del software, que no tenían vínculos con ninguna de las organizaciones mencionadas.

¿Cómo sabe la IA a quién atacar?

Los expertos que han participado en la investigación han contado que, desde el punto de vista de la IA militar, lo más fácil es localizar a los objetivos en sus viviendas particulares. Ante esta dificultad, Lavender rastrea mediante sistemas automatizados comunicaciones en las que se detecta la pregunta «¿dónde está papá?» lo que apuntaba a una vivienda particular que inmediatamente era bombardeada.

Según los expertos, ha habido numerosas bajas colaterales debido a este algoritmo y al margen de error de la IA. No obstante, también aseguran que «Israel intenta reducir el daño a los civiles en la medida de lo posible según las circunstancias operativas imperantes en el momento del ataque».

Comparte la nota

Deja un comentario

Noticias relacionadas

Móvil con aplicaciones

La UE controlará los excesos en redes sociales

El Centro de Apelaciones Europeo es un organismo independiente que ofrece a los usuarios la...
Centro comercial Atlantis (Nantes)

Un argelino agrede sexualmente a un discapacitado en Nantes (Francia)

La víctima, un chico de 25 años con una discapacidad mental grave, sufrió la agresión...
No hay más noticias
Scroll al inicio

Secciones

Secciones