IA aplicada a la guerra.
Durante los seis meses de ofensiva contra Gaza, el Ejército de Israel ha estado usando una base de datos desconocida hasta el momento, que emplea la Inteligencia Artificial (IA) y que sugirió el nombre de 37.000 personas como posibles objetivos por sus vínculos aparentes con el grupo palestino Hamás, según fuentes de la inteligencia israelí vinculadas a la actual guerra sobre Gaza.
Esas fuentes de inteligencia, además de hablar sobre el sistema 'Lavender', sostienen que oficiales del Ejército israelí han permitido la muerte de un número importante de civiles palestinos, especialmente durante los primeros meses del conflicto.
Israel, con el empleo de potentes sistemas de Inteligencia Artificial en su enfrentamiento con Hamás, ha entrado en un terreno desconocido para la guerra moderna, generando nuevas cuestiones jurídicas y morales, y transformando al mismo tiempo la relación entre las máquinas y el personal militar.
“Esto no tiene parangón en mi memoria”, afirma un agente de inteligencia que usó Lavender. En su opinión, un “mecanismo estadístico” es más fiable que los soldados en duelo. “El 7 de octubre todo el mundo perdió a seres queridos, yo también; la máquina lo hacía fríamente y eso lo hacía más fácil”, explica.
Otro agente que usó Lavender cuestiona que los seres humanos fueran mejores en el proceso de selección de objetivos: “Yo le dedicaba veinte segundos a cada objetivo y hacía docenas de evaluaciones por día; como ser humano no aportaba ningún valor añadido, más allá del sello de aprobación; [Lavender] ha ahorrado mucho tiempo”.
Los agentes confirman el papel central que ha jugado Lavender durante la guerra analizando grandes cantidades de datos para identificar rápidamente posibles combatientes júnior de Hamás a los que atacar. Al inicio de la guerra, y según cuatro de las personas entrevistadas, el sistema de IA vinculó con Hamás o con la YIP el nombre de hasta 37.000 varones gazatíes.
Lavender fue desarrollado por la Unidad 8200, cuerpo de espionaje de elite de las Fuerzas de Defensa de Israel (FDI), comparable a la Agencia de Seguridad Nacional de Estados Unidos.
Según varias de las fuentes, para autorizar el ataque contra varias categorías de objetivos, las FDI autorizaban de antemano un número estimado de muertes civiles considerado permisible y proporcionado. Dos de las personas que dieron su testimonio señalan que, en las primeras semanas de la guerra tenían permitido matar a 15 o a 20 civiles durante ataques aéreos contra militantes de bajo rango. Por lo general, los ataques contra ese tipo de objetivos se ejecutaban con municiones no guiadas, denominadas bombas tontas, que destruían casas enteras y mataban a todos los que se encontraban en su interior.
“No quieres gastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, afirma uno de los agentes de la inteligencia israelí. Según otro de los agentes entrevistados, la cuestión clave era determinar los “daños colaterales” a civiles permitidos en un ataque. “Normalmente ejecutábamos los ataques con bombas tontas y eso significaba dejar que la casa entera se desplomara literalmente sobre sus ocupantes”, explica. “Pero incluso si un ataque es evitado, no te importa. Pasas inmediatamente al objetivo siguiente: con el sistema [de IA], los objetivos no se terminan nunca. Tienes a otros 36.000 esperando”.
Según expertos en conflictos, si Israel ha usado bombas tontas y destruido las casas de miles de palestinos de Gaza después de que la IA los vinculara con grupos armados, eso podría ayudar a explicar el número escandalosamente alto de muertos civiles en la guerra actual. Según el Ministerio de Sanidad de Gaza, más de 33.000 palestinos han muerto desde octubre. Según datos de la ONU, 1.340 familias sufrieron múltiples pérdidas solo en el primer mes de guerra; de ellas, 312 perdieron a más de diez de sus miembros.
En respuesta a la publicación del reportaje en +972 Magazine y en Local Call, las FDI difundieron un comunicadoen el que defendían que habían respetado las normas de proporcionalidad del derecho internacional y que las bombas tontas eran un “armamento estándar” usado por los pilotos de las FDI de manera que tengan “un nivel alto de precisión”. El comunicado destacaba que Lavender era una base de datos “para cruzar fuentes de inteligencia, con el fin de producir varias capas de información actualizada relacionada con miembros militares de organizaciones terroristas”.
Bethan McKernan/Harry Davies, Israel emplea la IA en la masacre en Gaza y el combate con Hamás..., eldiario.es 04/04/2024
Comentaris