Ya era conocido que las FDI hace unos pocos años estaban a la vanguardia de la aplicación de las tecnologías de Inteligencia Artificial para usos militares. El debut de esa tecnología en combate se dió en 2021. Pero lo que vemos ahora es una escala completamente diferente. Ya escribimos hace varios meses acerca del uso en combate de la IA Habsorá (´El Evangelio´), que se encarga de generar objetivos a través del procesamiento masivo de datos provenientes de todos los sensores conectados en red y distribuirlos automáticamente entre los “efectores” (que pueden ser un soldado individual, un tanque, un avión, etc.) para su destrucción, calculando la máxima eficiencia en términos de efecto deseado y tiempo de respuesta. Esta tecnología es clave para lograr una superioridad aplastante contra las unidades de combate palestinas.
Las revelaciones publicadas por +972 sorprenden por el nivel de detalle y la gravedad. Por un lado, las capacidades de otros programas de IA usadas por las FDI y, por el otro, el tipo de uso que se les dió especialmente en las primeras semanas de la guerra.
La primera de las IA reveladas es Lavender (´Lavanda´). El propósito de esta es identificar posibles sospechosos de integrar las organizaciones militares palestinas. Fusiona y procesa datos masivos provenientes del extensísimo programa de espionaje israelí a la sociedad palestina a través de todos los dispositivos y medios digitales. Hablamos de las cámaras de seguridad en Gaza, los celulares de uso diario, las redes sociales, absolutamente todo lo que pueda dejar un registro digital. Esos datos los compara con perfiles armados de miembros de organizaciones y arroja resultados probabilísticos de pertenencia. Los criterios pueden hacerse más estrictos o más laxos dependiendo de los criterios determinados por los operadores humanos; para la actual guerra se escogió un margen de probabilidad del 90 por ciento, lo cual ya implica un margen de error. Advertimos del peligro de esta IA en oportunidad de su segurísima venta a fuerzas policiales y servicios de inteligencia para “aplicaciones civiles” en algún momento del futuro próximo.
La segunda IA se conoce con el nombre de Where is daddy? (¿Dónde está papi?). En base al banco de objetivos generados por Lavender, esta IA se encarga de rastrearlos en preparación de un bombardeo aéreo. El carácter siniestro del nombre está relacionado a la preferencia israelí de realizar el bombardeo cuando el objetivo se encuentre en su hogar, casi siempre acompañado de su familia. Esta preferencia se debe a que la dirección del hogar es conocida mientras que la localización del supuesto combatiente, mientras pasa de una base clandestina a otra, no siempre es conocida. La IA fácilmente puede saber cuando el sospechoso vuelve a su hogar, aunque no siempre resulta preciso. En +972 los testimonios de oficiales de la Unidad 8200 relatan que ciertos criterios utilizados no resultaron aplicables luego del comienzo de la campaña de bombardeos y resultaron en que varias veces se bombardeaba a la familia sin que el objetivo se encontrase en su casa.
Otra denuncia importante que realiza el artículo es acerca del uso concreto de las IA. Es importante destacar que durante las primeras 6 semanas de la guerra, cuando el uso de las IA fue más intenso, es cuando fueron asesinados la mitad de la cantidad total de palestinos asesinados hasta el día de hoy, la mitad de ellos, menores. Dos decisiones del mando israelí posibilitaron esto. Primero, se decidió relajar los criterios de daño colateral aceptables por cada asesinato selectivo. En otras palabras, se aceptó una cantidad mucho mayor de civiles muertos por cada supuesto combatiente: 15 por cada (supuesto) militante ´junior´ y hasta 100 por comandantes de jerarquía, abandonando completamente el principio de proporcionalidad.
Segundo, que la campaña de bombardeo aéreo no se limitaría, como en el pasado, a eliminar comandantes y otros militantes de jerarquía sino que iba a abarcar también hasta el combatiente de rango más bajo. Para esta última masa se dependió mucho más de Lavender para su identificación, ya que quienes ocupan una posición de jerarquía en general ya eran conocidos con nombre y apellido. En otras palabras, se proyectó una campaña de bombardeo en una escala completamente nueva. Los oficiales no podían tener tiempo de verificar si los resultados arrojados por Lavender eran correctos antes de aprobarlos para bombardeo. En vez de mantener un control humano sobre la IA, el humano simplemente funcionó como sello de goma para aprobar nuevos objetivos en cuestión de segundos, Lavender sentenció a muerte a miles de palestinos sin control externo alguno. Detrás de estas decisiones, los oficiales de la Unidad 8200 que dieron testimonio perciben una voluntad completamente revanchista del gobierno y el mando militar a la luz del ataque de Hamás el 7 de octubre del año pasado.
Al revés de lo que aseguran los empresarios de la industria militar, la aplicación de nuevas tecnologías no contribuyó a restringir el daño y la muerte estrictamente sobre los objetivos militares legítimos (desde el punto de vista de las leyes de la guerra) sino que produjo una carnicería de un nivel sin precedentes.
Leib Erlej
06/04/2024
No hay comentarios.:
Publicar un comentario