Seminarios 2023/24

Explorando las Fronteras de la Navegación Aérea con Visión y Autopilotos Integrados

(martes 23 de enero de 2024)

Planificación

El martes 23 de enero de 2024 a las 17:00, se impartirá la conferencia «Explorando las fronteras de la navegación aérea con visión y autopilotos integrados» a cargo de John Castro.

La sesión se desarrollará de forma presencial en el salón de Grados del edificio INNOVA y se podrá seguir online a través del siguiente enlace:

https://meet.google.com/hnr-mrrj-uyx

 

Abstract

John Castro

En este seminario, abordaremos la relevancia crucial de la visión por computador en la localización precisa en entornos aéreos así como la detección de obstáculos. La capacidad de situarnos con precisión en el aire es fundamental para una variedad de aplicaciones, desde drones de entrega hasta aeronaves tripuladas, destacando la necesidad de soluciones innovadoras y confiables. Exploraremos cómo la fusión de sensores mediante autopilotos se convierte en una herramienta esencial para mejorar la eficiencia y la precisión de los algoritmos de Simultaneous Localization and Mapping (SLAM). Este enfoque no solo optimiza la navegación, sino que también proporciona una plataforma sólida para la integración de sistemas autónomos en diversas aplicaciones aéreas.
Al presentar nuestras soluciones basadas en visión, es imperativo ser realistas en las expectativas generadas por este tipo de tecnologías. Aunque hemos avanzado significativamente en la investigación en áreas de robótica y navegación aérea, es crucial comprender que estos productos han sido objeto de estudio durante un tiempo considerable. Nos sumergiremos en las capacidades y limitaciones actuales, reconociendo la constante evolución de la tecnología y la necesidad de seguir mejorando.
Este seminario ofrece una visión integral de la intersección entre visión, autopilotos y algoritmos de SLAM, explorando cómo estas tecnologías trabajan en conjunto para mejorar la navegación aérea. Al ser conscientes de las complejidades inherentes y las limitaciones actuales, estamos preparados para avanzar hacia un futuro donde la visión y la autonomía transformen la forma en que nos movemos en el espacio aéreo.

Ponente invitado

John Castro es miembro del equipo GNC (Guiado, Navegación y Control) de Embention como Ingeniero en visión por computador. Los objetivos de este equipo es el desarrollo de soluciones que permita que los drones poblen nuestros cielos. Es Graduado en Ingeniería Informática por la UA (Universidad de Alicante, 2016) y Doctor en Informática por la UA (2023)..

Observación del modo de ensamblado de robots paralelos mediante Redes Neuronales

(viernes 20 de octubre de 2023)

Planificación

El viernes 20 de octubre de 2023 a las 17:00, se impartirá la conferencia «Observación del modo de ensamblado de robots paralelos mediante Redes Neuronales» a cargo del Dr. Adrián Peidró Vidal.

La sesión se desarrollará online a través del siguiente enlace:

https://meet.google.com/kun-gsvm-ybe

Abstract

Adrian PeidroLos robots paralelos controlan el movimiento de su pinza o efector final mediante dos o más cadenas cinemáticas conectadas en paralelo entre dicha pinza y la base fija del robot. Cuando se conocen los desplazamientos de las articulaciones actuadas del robot, el problema cinemático directo consiste en determinar la posición y orientación de su pinza. Por lo general, para robots paralelos este problema admite diversas soluciones, es decir, existen distintas poses de la pinza que son compatibles con los desplazamientos de las articulaciones actuadas. Cada una de estas soluciones se conoce como un “modo de ensamblado” del robot. Sin embargo, solo una de dichas soluciones es la adoptada realmente por el robot. En este seminario se revisan diversos métodos para determinar cuál de las posibles soluciones es la adoptada por el robot, comenzando por métodos basados en sensores redundantes como cámaras, y proponiendo un nuevo método basado en inteligencia artificial para estimar la pose de la pinza sin requerir sensores redundantes. El método propuesto consiste en entrenar una red neuronal para que actúe como observador del estado del robot paralelo, considerando éste como un sistema dinámico no-lineal. Este trabajo forma parte del proyecto “Aprendizaje móvil de Inteligencia Artificial y Visión por Computador mediante un laboratorio remoto de robots” financiado por el Centro de Inteligencia Digital de la Diputación de Alicante (CENID).

Ponente invitado

Adrián Peidró es Profesor Ayudante Doctor en el Departamento de Ingeniería de Sistemas y Automática de la Universidad Miguel Hernández (UMH), y miembro del grupo de investigación en Automatización, Robótica y Visión por Computador (ARVC) del Instituto de Investigación en Ingeniería de Elche (I3E-UMH). Es Ingeniero Industrial por la UMH (2013, Primer Premio Nacional), y Doctor en Tecnologías Industriales y de Telecomunicación por la UMH (2018). Ha sido investigador visitante en el Instituto de Sistemas y Robótica (ISR) de la Universidad de Coímbra (septiembre-noviembre 2016) y en la Asociación para el Desarrollo de la Aerodinámica Industrial (ADAI) de la Universidad de Coímbra (julio-agosto 2019). Sus intereses de investigación son los robots paralelos, robots trepadores, robots redundantes, inteligencia artificial y visión por computador.