Los seis meses de guerra en Gaza, que se cumplirán este domingo, han puesto a la humanidad “al borde de una pérdida absoluta de fe en las normas y los estándares globales”, dijo este viernes el secretario general de la ONU, António Guterres, en una declaración ante los periodistas.
Guterres dijo que sería “imperdonable” que no se apliquen las dos únicas resoluciones que el Consejo de Seguridad ha aprobado al respecto: una para pedir acelerar la entrada de ayuda humanitaria, que data de diciembre, y otra para pedir un alto el fuego inmediato, aprobada en marzo tras varios vetos de Estados Unidos.
SEPA MÁS: Ejército israelí dice que atacó a cooperantes en Gaza porque creyó ver a “un hombre armado de Hamás”
Recordó que en su último viaje a la frontera con Gaza, en Rafah, hace ahora diez días, los trabajadores humanitarios le recordaron que el sufrimiento y la destrucción registrados en Gaza “es lo peor que han visto nunca”.
El líder de la ONU volvió a reclamar ese alto el fuego, así como la liberación de los rehenes en manos de Hamás, la protección de la población civil, el libre acceso de los periodistas a Gaza -su ausencia “conduce a la desinformación y las falsas narrativas”- y el respeto por el trabajo de los activistas humanitarios.
Sobre el asesinato de siete trabajadores de World Central Kitchen y el reconocimiento de Israel de que se trató de un error, Guterres fue tajante: “El problema no es quién cometió los errores, es el procedimiento militar vigente que permite que esos errores se multipliquen una y otra vez”.
Para resolver esos fallos, insistió “se necesitan investigaciones independientes y cambios significativos sobre el terreno”.
LEE TAMBIÉN: Israel permitirá entrega “temporal” de ayuda por un paso en el norte de la Franja de Gaza
La muerte por algoritmo
Por vez primera desde que empezó la guerra, Guterres expresó además su grave preocupación por la posibilidad de que el Ejército israelí esté usando la inteligencia artificial (IA) para identificar objetivos de guerra.
“Ninguna parte de las decisiones de vida y muerte que impactan en familias enteras puede delegarse en el frío cálculo de los algoritmos”, expresó el secretario general.
Aunque no lo precisó, se refería a un informe conocido el miércoles de que en los primeros días de la guerra en Gaza, el Ejército israelí dependió casi por completo de un sistema algorítmico que determinó 37.000 palestinos como presuntos milicianos de Hamás, convirtiéndoles tanto a ellos como a sus residencias en objetivos militares.
De acuerdo con una investigación divulgada por el diario israelí Sicha Mekomit (llamado en su versión en inglés +972) y basada en fuentes de inteligencia, los soldados adoptaron sin cuestionarse las “listas de matar” recomendadas por un sistema de inteligencia artificial, no usado hasta ahora, apodado Lavender.
Una vez los nombres eran sugeridos, “el personal humano” dedicaba unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, con el fin de asegurarse simplemente de que el potencial miliciano era un hombre, detalla la investigación, aunque según el diario Lavender conlleva un margen de error del 10 %.
Contenido sugerido
Contenido GEC