La inteligencia artificial es usada actualmente para mejorar el desempeño de los robots. (Foto: Pixabay)
La inteligencia artificial es usada actualmente para mejorar el desempeño de los robots. (Foto: Pixabay)
Agencia Europa Press

Investigadores del MIT han desarrollado un modelo de aprendizaje de máquina para permitir a los comprender las relaciones subyacentes entre los objetos en una escena.

MIRA: Ametralladora robot: crean un sistema para estabilizar y perfeccionar el disparo de un francotirador

Cuando los humanos miran una escena, ven objetos y las relaciones entre ellos. En la parte superior de su escritorio, puede haber un ordenador portátil que se encuentra a la izquierda de un teléfono, que está frente a un monitor de ordenador, explica el MIT (Massachusetts Institute of Technology) en un comunicado.

Muchos modelos de aprendizaje profundo luchan por ver el mundo de esta manera porque no comprenden las relaciones entrelazadas entre objetos individuales. Sin el conocimiento de estas relaciones, un robot diseñado para ayudar a alguien en una cocina tendría dificultades para seguir un comando como “coge la paleta que está a la izquierda del fogón y colócala encima de la tabla de cortar”.

MIRA: LEO, el robot que puede caminar en la cuerda floja | VIDEO

El nuevo modelo representa las relaciones individuales de una en una, luego combina estas representaciones para describir la escena general. Esto permite que el modelo genere imágenes más precisas a partir de descripciones de texto, incluso cuando la escena incluye varios objetos que están dispuestos en diferentes relaciones entre sí.

Este trabajo podría aplicarse en situaciones en las que los robots industriales deban realizar tareas complejas de manipulación de varios pasos, como apilar artículos en un almacén o ensamblar electrodomésticos. También mueve el campo un paso más cerca de habilitar máquinas que puedan aprender e interactuar con sus entornos más como lo hacen los humanos.

MIRA: “Es ciencia ficción hecha realidad”: Amazon lanza Astro, su primer robot asistente | VIDEO

“Cuando miro una mesa, no puedo decir que haya un objeto en la ubicación XYZ. Nuestras mentes no funcionan así. En nuestras mentes, cuando entendemos una escena, realmente la entendemos basándonos en las relaciones entre los objetos. Creemos que al construir un sistema que pueda comprender las relaciones entre los objetos, podríamos usar ese sistema para manipular y cambiar nuestros entornos de manera más efectiva”, dice Yilun Du, estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y coautor principal del artículo.

La investigación se presentará en la Conferencia sobre sistemas de procesamiento de información neuronal en diciembre.

VIDEO RELACIONADO

Presentan en Tailandia el primer robot asistente quirúrgico
Médicos tailandeses presentaron el primer robot asistente quirúrgico diseñado con el apoyo del Ministerio de Salud del país.

TE PUEDE INTERESAR:

Síguenos en Twitter:

Contenido sugerido

Contenido GEC