La realidad aumentada basada en teléfonos inteligentes, en la que los elementos visuales se superponen a la imagen de la cámara de un teléfono inteligente, son aplicaciones extremadamente populares. Estas aplicaciones permiten a los usuarios visualizar cómo se verán los muebles en su hogar, navegar mejor por mapas o jugar juegos interactivos. El fenómeno global Pokémon GO, que anima a los jugadores a capturar criaturas digitales con sus teléfonos, es un ejemplo bien conocido.

Sin embargo, si desea utilizar aplicaciones de realidad aumentada dentro de un edificio, prepárese para reducir sus expectativas. Las tecnologías ahora disponibles para implementar la realidad aumentada luchan cuando no pueden acceder a una señal GPS clara. Pero después de una serie de experimentos extensos y cuidadosos con teléfonos inteligentes y usuarios, investigadores de la Universidad de Osaka identificaron las causas de estos problemas e identificaron una posible solución. Este trabajo se presentó recientemente en la 30ª Conferencia Internacional Anual sobre Computación Móvil y Redes.

“Para aumentar la realidad, un teléfono inteligente necesita saber dos cosas”, afirma Shunpei Yamaguchi, autor principal del estudio. “Es decir, dónde está, se llama localización, y cómo se mueve, se llama seguimiento”.

Para ello, el smartphone utiliza dos sistemas principales: sensores visuales (cámara y LiDAR) para detectar señales en el entorno como códigos QR o etiquetas de abril, y su unidad de medida inercial (IMU), un pequeño sensor en su interior que mide el movimiento. . .

Para comprender cómo funcionan estos sistemas, el equipo de investigación creó estudios de casos, como aulas virtuales, en una sala de conferencias vacía y pidió a los participantes que organizaran de manera óptima escritorios y sillas virtuales. En total, se realizaron 113 horas de experimentos y estudios de casos en 316 muestras en entornos del mundo real. El objetivo era aislar y probar los modos de falla de AR desactivando algunos sensores y cambiando el entorno y la iluminación.

“Descubrimos que los elementos virtuales tienden a ‘crecer’ en la escena, lo que puede provocar mareos y reducir la sensación de realidad”, explica Shunsuke Sarwatari, autor principal del estudio. Los resultados resaltaron que las señales visuales pueden ser difíciles de detectar desde la distancia, desde ángulos extremos o en habitaciones oscuras. Ese LiDAR no siempre funciona bien. Y que la IMU tiene errores a altas y bajas velocidades que aumentan con el tiempo.

Para abordar estos problemas, el equipo recomienda como posible solución la localización basada en radiofrecuencia, como la detección basada en banda ultraancha (UWB). UWB funciona como Wi-Fi o Bluetooth, y sus aplicaciones más populares son Apple AirTag y Galaxy SmartTag+. La localización de radiofrecuencia se ve menos afectada por la luz, la distancia o la línea de visión, lo que evita problemas con los códigos QR basados ​​en la visión o las etiquetas APR. En el futuro, los investigadores creen que UWB o ultrasonido, Wi-Fi, BLE o métodos de detección alternativos como como RFID tienen el potencial de integrarse con técnicas basadas en la visión, lo que conduciría a aplicaciones de realidad aumentada mucho mejores.

Source link