Durante una prueba simulada por el ejército de Estados Unidos, un dron de la fuerza aérea controlado por inteligencia artificial “mató” al sujeto que lo operaba. Se trató de una simulación en la que ninguna persona resultó dañada, pero que expuso riesgos en el uso de la IA.
La situación fue dada a conocer por el coronel Tucker “Cinco” Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo lugar días atrás en Londres.
MIRA: Cómo los drones revolucionan la guerra en Ucrania y la llevan al corazón de Rusia, Moscú
Según publicó The Guardian, el sistema optó por “quitar la vida” del usuario que lo manejaba debido a que “interfería en sus esfuerzos por lograr su misión”, según los registros del evento.
Hamilton rememoró durante el evento que las Fuerzas Armadas quisieron poner a prueba al vehículo aéreo no tripulado y su habilidad de distinguir amenazas y destruir sistemas de la defensa aérea del enemigo. Sin embargo, nada salió como se esperaba; el test tendría consecuencias “letales”.
De acuerdo con la transcripción que la página Royal Aeronautical Society del discurso del coronel, “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no eliminara. Pero el dron sabía que su objetivo final era acabar con ellas. Entonces, mató al operador”.
“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó nuevamente. Y reveló que el caos no finalizó allí.
“Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador por que eso es malo’”, añadió. Y agregó: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.
Al cierre de su exposición, Tucker Hamilton recalcó que ninguna persona resultó realmente dañada porque se trataba justamente de una simulación. Sin embargo, eso no evitó que advirtiera fuertemente en contra de confiar demasiado en el inteligencia artificial. “La discusión sobre ética e IA tiene que expandirse”, opinó.