Visualización del radar Soli identificando el movimiento de una mano con ondas de radiofrecuencia. (Foto: Google)
Visualización del radar Soli identificando el movimiento de una mano con ondas de radiofrecuencia. (Foto: Google)
Redacción EC

Hace 4 años, presentó una de sus apuestas más ambiciosas, una tecnología sensible al movimiento con la que usted podría apagar una luz sin decir una palabra ni tocar un interruptor. Ahora, esos sensores están por llegar a las manos de los usuarios, con el anuncio de que el , la nueva generación de celulares de la firma, incluirá funciones de control por gestos.

Le contamos por qué es tan innovadora esta tecnología y cuál puede ser su potencial.

[ - ]
[ - ]
[ - ]

Soli parece fruto del universo cinematográfico de Marvel. Gracias al sistema, cosas como ajustar el volumen de su equipo, establecer la hora en su reloj inteligente o prender las luces en su casa, no necesitarían de 'switches', botones o toques, ni siquiera de una orden de voz. Todo estaría controlado por gestos, al mejor estilo de Ironman.

Hace meses para cuando el regulador de telecomunicaciones en EE. UU. (FCC) habilitó una serie de frecuencias para Google destinadas al desarrollo de una innovadora tecnología, el Proyecto Soli ya tenía la capacidad de reconocer movimientos de presión (como dar clic), de rotación y de deslizamiento.

De acuerdo al líder del Proyecto Soli en Google, Ivan Popurev, el sensor es capaz de capturar movimientos en un espacio tridimensional utilizando frecuencias del espectro para detectar movimientos manuales. Lo más impresionante es el control del reconocimiento que 've' movimientos submilimétricos con gran precisión.

El resultado es que el usuario puede presionar un botón invisible entre el pulgar y el índice o el girar un dial virtual al frotar un dedo contra el dedo índice.

Soli es un sistema que emite ondas electromagnéticas en niveles amplios y es capaz de reconoce objetos dentro de un rango. Básicamente el sensor 've' su mano porque ésta choca con las ondas, dispersa la energía y refleja una parte de la onda hacia una antena del radar.

Esa señal que regresa a la antena se suma al cálculo del tiempo que toma el movimiento y la variación de la frecuencia. Gracias a ello, Soli entiende el tamaño del objeto y la dirección del movimiento. En detalle, el sensor puede 'ver' el tamaño, la forma y el material de un objeto, pero también la orientación de la mano que se mueve, la distancia a la que está ubicada y la velocidad con la que ocurre el movimiento.

En el terreno de las posibilidades entra el cambiar la música o contestar una llamada mientras conduce o tocar un instrumento sin hacer mucho más que mover sus manos rítmicamente en el aire. Con Soli, Google también creó "un nuevo paradigma de detección de radar con hardware, software y algoritmos personalizados" que pueden derivar en lo que denomina un "lenguaje de interacción de gestos universal".

Foto del hardware del Sensor Soli, que usa un radar de baja potencia totalmente integrado que opera en la banda de 60 GHz. (Foto: Google)
Foto del hardware del Sensor Soli, que usa un radar de baja potencia totalmente integrado que opera en la banda de 60 GHz. (Foto: Google)

Imagine las posibilidades de comunicación e interacción para personas con discapacidad auditiva, por ejemplo. Si los usuarios, sin importar el tipo de dispositivo, pueden controlar funcionalidades con el mismo conjunto de gestos, estamos llevando la lengua de señas al mundo digital desde otra perspectiva.

Como lo describían los investigadores hace años, "Soli no tiene partes móviles, cabe en un chip y consume poca energía. No se ve afectado por las condiciones de luz y funciona a través de la mayoría de los materiales... imagine las posibilidades".

Fuente: El Tiempo / GDA.

Síguenos en Twitter:

TAGS RELACIONADOS