El desarrollo de este tipo de IA ha creado un debate sobre su uso y el racismo.
El desarrollo de este tipo de IA ha creado un debate sobre su uso y el racismo.
/ Pixabay
Redacción EC

Investigadores de la Universidad de Chicago crearon una capaz de predecir crímenes, tras analizar la información histórica de la ciudad, . Los resultados fueron predicciones con una semana de anticipación y un 90% de precisión. Sin embargo, surgen cuestionamientos debido al posible maluso de este sistema.

Ishanu Chattopadhyay de la Universidad de Chicago y sus colegas crearon un modelo de IA que analizó datos históricos de delincuencia de Chicago, Illinois, desde 2014 hasta finales de 2016, y luego predijeron los niveles de delincuencia para las semanas que siguieron a este período de capacitación”, indicó la revista londinense.

MIRA: Petvation, el dispositivo de reconocimiento facial que identifica a tu mascota para dejar que ingrese tu casa

Los resultados fueron favorables, incluso con información de otras ciudades. “El modelo predijo la probabilidad de que ocurrieran ciertos delitos en toda la ciudad, que se dividió en cuadrs de unos 300 metros de ancho, con una semana de anticipación y con una precisión de hasta el 90%. También se entrenó y probó con datos de otras siete ciudades importantes de EE. UU., con un nivel de rendimiento similar”, añadió.

Chattopadhyay, por su parte, aseguró que este tipo de sistema podría ayudar a la policía. “Los recursos de las fuerzas del orden no son infinitos. Así que quieres usar eso de manera óptima. Sería genial si pudieras saber dónde van a ocurrir los homicidios”, señaló a la revista.

MIRA: ¿Listo para el 2040? Sky Cruise, el hotel volador propulsado por energía nuclear y que utiliza una IA para navegar

¿Cómo podría la IA perpetuar prejuicios raciales y sociales?

La inclusión de la información que tiene la policía puede influir en lo que esta IA estaría prediciendo. Esto se debe a que no solo incluyen los reportes reales, juicios y demás archivos de los casos, sino también las denuncias que realizan los ciudadanos, las cuales muchas veces están basadas en prejuicios o mentiras.

El Departamento de Policía de Chicago, en los últimos años, probó un algoritmo que creaba una lista de personas consideradas en mayor riesgo de estar involucradas en un tiroteo, ya sea como víctima o como perpetrador, . Los detalles de ambos inicialmente estuvieron bajo secreto, pero cuando se publicó la lista, el resultado fue que 56% de los hombres afroamericanos de entre 20 y 29 años figuraban en ella.

Por este motivo, los prejuicios de las personas pueden influir en los resultados de la predicción de la inteligencia artificial. Al ser un “hecho”, un resultado que ha otorgado una máquina, la cual carece de estos prejuicios, se tomaría como verdadero, pese a que está basado en los reportes humanos.

Conforme a los criterios de

Trust Project
Saber más