Un equipo dirigido por informáticos de la Universidad de Maryland ha inventado un mecanismo de cámara que mejora la forma en que los robots ven y reaccionan ante el mundo que los rodea. Inspirándose en la forma en que funciona el ojo humano, su innovador sistema de cámara imita los pequeños movimientos involuntarios que utiliza el ojo para mantener una visión clara y estable a lo largo del tiempo. La creación de prototipos y las pruebas de la cámara por parte del equipo, llamada Cámara de Eventos Artificiales Mejorada por Microsegundos (AMI-EV), se detallan en un artículo publicado en la revista. Robótica científica En mayo de 2024.

“Las cámaras de eventos son una tecnología relativamente nueva para rastrear objetos en movimiento en comparación con las cámaras tradicionales, pero las cámaras de eventos actuales tienen dificultades para capturar imágenes nítidas y nítidas cuando hay mucho movimiento”, dijo el autor principal del estudio, Botao He, de Pepper’s A. Estudiante de Doctorado en Ciencias en la UMD. “Este es un gran problema porque los robots y muchas otras tecnologías, como los vehículos autónomos, dependen de imágenes precisas y oportunas para responder correctamente a los entornos cambiantes. Entonces, nos preguntamos: ¿Cómo garantizan los humanos y los animales su visión? ¿Permanece enfocado en un objeto en movimiento?

Para su equipo, la respuesta fueron las microsacadas, pequeños movimientos oculares rápidos que ocurren involuntariamente cuando una persona intenta concentrarse en su visión. A través de estos movimientos diminutos pero continuos, el ojo humano puede enfocar un objeto y su textura visual (como el color, la profundidad y la sombra) con precisión a lo largo del tiempo.

“Pensamos que así como nuestros ojos necesitan estos pequeños movimientos para enfocar, una cámara podría usar un principio similar para producir imágenes nítidas y claras sin desenfoque de movimiento”, dijo.

El equipo replicó con éxito microsacádicas insertando un prisma giratorio dentro del AMI-EV para redirigir los rayos de luz capturados por la lente. El movimiento giratorio constante del prisma imita los movimientos que ocurren naturalmente dentro del ojo humano, permitiendo a la cámara estabilizar la composición de un objeto grabado de la misma manera que lo haría un humano. Luego, el equipo desarrolló un software para compensar el movimiento del prisma dentro del AMI-EV para estabilizar las imágenes de las luces transmitidas.

El coautor del estudio, Yannis Alemonos, profesor de informática en la UMD, considera que la invención del equipo es un gran paso adelante en el campo de la visión robótica.

“Nuestros ojos toman fotografías del mundo que nos rodea y esas imágenes se envían a nuestro cerebro, donde se analizan. La percepción ocurre a través de este proceso y así es como entendemos el mundo”, explicó Eloemons, quien también es director de Computadora. Visión. Laboratorio del Instituto de Estudios Avanzados en Computación de la Universidad de Maryland (UMIACS). “Cuando trabajes con robots, reemplaza los ojos con una cámara y el cerebro con una computadora. Mejores cámaras significan mejor percepción y respuesta para los robots”.

Los investigadores también creen que su innovación podría tener implicaciones importantes más allá de la robótica y la defensa nacional. Los científicos que trabajan en industrias que dependen de la precisión de la imagen y la detección de formas buscan constantemente formas de mejorar sus cámaras, y AMI-EV podría ser una solución clave para muchos de los problemas que enfrentan.

“Con sus características únicas, los sensores de eventos y AMI-EV están preparados para ocupar un lugar central en el ámbito de los dispositivos portátiles inteligentes”, afirmó la científica investigadora Cornelia Formular. “Tienen claras ventajas sobre las cámaras clásicas, como un alto rendimiento en condiciones de iluminación extremas, baja latencia y bajo consumo de energía. Estas características son ideales para aplicaciones de realidad virtual, por ejemplo, donde no se requieren experiencias impeditivas y movimientos rápidos de la cabeza y el cuerpo. básico.”

En las pruebas iniciales, AMI-EV pudo capturar y mostrar con precisión el movimiento en una variedad de contextos, incluida la detección del pulso humano y el reconocimiento de formas de movimiento rápido. Los investigadores también descubrieron que el AMI-EV puede capturar movimiento en decenas de miles de cuadros por segundo, superando a las cámaras comerciales comúnmente disponibles, que capturan un promedio de 30 a 1000 cuadros por segundo. Esta representación más fluida y realista del movimiento podría ser importante en cualquier ámbito, desde experiencias de realidad aumentada más inmersivas y una mejor vigilancia de seguridad hasta mejorar la forma en que los astrónomos toman imágenes en el espacio.

“Nuestro nuevo sistema de cámaras puede resolver muchos problemas específicos, como ayudar a un automóvil autónomo a detectar qué es y qué no es un humano en la carretera”, dijo Alemonos. “Como resultado, tiene muchas aplicaciones con las que la gente común ya interactúa, como sistemas de conducción autónoma o incluso cámaras de teléfonos inteligentes. Creemos que nuestro nuevo sistema de cámaras será más avanzado y allanará el camino para los sistemas competentes que vendrán”.

Source link