Investigadores del Laboratorio de Imaginación Computacional de Standford han desarrollado una nueva tecnología de imágenes holográficas que, impulsada por Inteligencia Artificial (IA), permite superponer imágenes en movimiento tridimensionales en color en las lentes de gafas normales, suponiendo un avance en las gafas de Realidad Aumentada (RA).
MIRA: Cine a través de la realidad mixta: ¿podremos estar dentro de nuestras películas favoritas?
Los actuales dispositivos de Realidad Aumentada, como pueden ser las gafas Magic Leap 2 o las AirVision M1 de Asus, disponen de un diseño con tamaño voluminoso debido a las necesidades de espacio que requiere su tecnología, lo que resulta incómodo a la hora de utilizarlas de forma continua.
De cara a mejorar esta tecnología y “desbloquear todo su potencial en aplicaciones de consumo”, un grupo de investigadores del Laboratorio de Imaginación Computacional de Standford (SCI) han desarrollado un prototipo de visor RA impulsado por IA, que es capaz de utilizar imágenes holográficas para superponer imágenes 3D en movimiento y a color en las lentes de unas gafas normales.
De esta forma, la nueva tecnología permitiría que, en lugar de utilizar los actuales visores de gran tamaño, los usuarios podrían integrar este sistema RA den sus propias gafas, gracias a su formato compacto y cómodo.
Tal y como lo define el profesor de ingeniería eléctrica asociado al proyecto Gordon Wetzstein, en declaraciones al medio Stanford News, lo que el usuario ve a través de las lentes gracias a esta nueva tecnología es “un mundo enriquecido superpuesto con imágenes computarizadas en 3D vibrantes y a todo color”.
En concreto, el amplio tamaño de los dispositivos RA actuales se debe al voluminoso sistema óptico de proyección de sus motores de luz y a su “incapacidad para representar con precisión señales de profundidad tridimensionales para contenido virtual”, según han detallado los investigadores en un artículo publicado en la revista Nature.
De hecho, estos sistemas no permiten que el usuario vea el mundo real a través de las lentes del visor, si no que las cámaras que utilizan estos dispositivos capturan el entorno del mundo real y combinan esas imágenes con las imágenes computarizadas.
Además, según ha matizado Wetzstein, este sistema utiliza lentes de aumento entre el ojo del usuario y las pantallas de proyección. Esto requiere que haya una distancia mínima entre el ojo, las lentes y las pantallas de proyección, aumentando aún más el volumen.
Sin embargo, la holografía es una técnica fotográfica que permite crear imágenes tridimendionales basadas en el empleo de la luz. Teniendo esto en cuenta y según han explicado los investigadores, la nueva tecnología de imágenes holográficas para el sistema de RA, utiliza una combinación de “rejillas de metasuperficie a todo color de diseño inverso, una geometría de guía de onda compacta con compensación de dispersión y algoritmos de holografía impulsados por IA”.
Todo ello se traduce en que se elimina la necesidad de utilizar lentes ópticas voluminosas entre el modulador de luz espacial y la guía de ondas para poder representar contenido de realidad aumentada en 3D con movimiento y a color desde un dispositivo mucho más compacto.
Funcionamiento de las imágenes holográficas
Para ello, los investigadores han utilizado la IA para mejorar las señales de profundidad en las imágenes holográficas. Siguiendo esta línea, han logrado avances en nanofotónica y tecnologías de visualización de guías de ondas, lo que ha permitido que se puedan proyectar hologramas computarizados en las lentes de las gafas sin depender de sistemas ópticos adicionales.
El funcionamiento de esta tecnología se basa en un sistema de guía de ondas que graba patrones a escala nanométrica en la superficie de la lente. Además, utilizan pequeñas pantallas holográficas que proyectan las imágenes computarizadas a través de patrones grabados, que provocan que la luz rebote dentro de la lente antes de que llegue directamente al ojo del espectador.
Así, al mirar a través de las gafas, los usuarios visualizarán el mundo real junto con las imágenes computarizadas en 3D, que ofrecen movimiento y se muestran en color.
Con todo ello, los investigadores han subrayado que esta nueva tecnología se podría implementar para usos relacionados con la medicina a la hora de realizar cirugías, o con la mecánica para, por ejemplo, aprender a trabajar sobre un motor. Igualmente, también se prevén campos de uso como los videojuegos, el entretenimiento y la educación.
VIDEO RECOMENDADO
TE PUEDE INTERESAR
- Día de la Madre: las más célebres mamás en el mundo de los videojuegos
- Ciberterrorismo, cuando los ataques informáticos aumentan la tensión en los conflictos internacionales
- ¿Cómo es una TV potenciada por inteligencia artificial? Probamos la Neo QLED 8K QN800D de Samsung y te contamos los resultados | RESEÑA
- Gama alta, media o versión de entrada: ¿cómo se diferencian los celulares según su calidad?
- La trampa del quishing: ¿cómo identificar y evitar estafas con códigos QR? Los consejos de los expertos en ciberseguridad
Contenido Sugerido
Contenido GEC