Durante una prueba simulada por el ejército de , un dron de la fuerza aérea controlado por inteligencia artificial “mató” al sujeto que lo operaba. Se trató de una simulación en la que ninguna persona resultó dañada, pero que expuso riesgos en el uso de la IA.

La situación fue dada a conocer por el coronel Tucker “Cinco” Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo lugar días atrás en Londres.

MIRA: Cómo los drones revolucionan la guerra en Ucrania y la llevan al corazón de Rusia, Moscú

Según publicó , el sistema optó por “quitar la vida” del usuario que lo manejaba debido a que “interfería en sus esfuerzos por lograr su misión”, según los registros del evento.

Hamilton rememoró durante el evento que las Fuerzas Armadas quisieron poner a prueba al vehículo aéreo no tripulado y su habilidad de distinguir amenazas y destruir sistemas de la defensa aérea del enemigo. Sin embargo, nada salió como se esperaba; el test tendría consecuencias “letales”.

De acuerdo con la transcripción que la página del discurso del coronel, “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no eliminara. Pero el dron sabía que su objetivo final era acabar con ellas. Entonces, mató al operador”.

Un dron MQ-9 Reaper sobrevolando el campo de pruebas y entrenamiento de Nevada el 14 de enero de 2020. (Foto de William ROSADO / Fuerza Aérea de Estados Unidos / AFP)
Un dron MQ-9 Reaper sobrevolando el campo de pruebas y entrenamiento de Nevada el 14 de enero de 2020. (Foto de William ROSADO / Fuerza Aérea de Estados Unidos / AFP)
/ WILLIAM ROSADO

“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó nuevamente. Y reveló que el caos no finalizó allí.

“Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador por que eso es malo’”, añadió. Y agregó: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.

Al cierre de su exposición, Tucker Hamilton recalcó que ninguna persona resultó realmente dañada porque se trataba justamente de una simulación. Sin embargo, eso no evitó que advirtiera fuertemente en contra de confiar demasiado en el inteligencia artificial. “La discusión sobre ética e IA tiene que expandirse”, opinó.