Fusion de sensores con redes neuronales para aplicaciones de realidad virtual
sensor fusión with neural networks for augmented reality aplications
Ver/ Abrir
Identificadores
URI: http://hdl.handle.net/10902/23276Registro completo
Mostrar el registro completo DCAutoría
Urquijo Álvarez, Sergio
Fecha
2021-08-25Director/es
Derechos
Atribución-NoComercial-SinDerivadas 3.0 España
Palabras clave
UMI
MPU
inercial
realidad virtual
realidad aumentada
aprendizaje autónomo
inteligencia artificial
posicionamiento
sensórica
fusión de sensores
kalman
red neuronal
IMU
inercial measurement unit
motion processing unit
augmented reality
virtual reality
machine learning
artificial intelligence
AI
positioning
sensor fusión
neural network
Resumen/Abstract
RESUMEN: En este trabajo se pretende explorar la posibilidad de usar redes neuronales para realizar la fusión sensorica de los datos crudos de una imu y así calcular la posición de un objeto en el espacio. Partiendo de un sistema de posicionamiento basado en cámaras y balizas luminosas en el entorno, ya desarrollado por otros alumnos [2][5] ,mi objetivo con este trabajo es explorar la posibilidad de usar redes neuronales junto con una unidad de medida inercial para mejorar la precisión de dicho sistema, reducir su gitter o aumentar su tasa de refresco.
ABSTRACT: This paper will explore the possibility of using neural networks to perform the sensor fusion of an IMU`s raw data to calculate the position of an object in space. Starting from an already developed positioning system based on cameras and light beacons on the walls [2][5] i will be exploring the possibility of using neural networks together with an inertial measurement unit to improve precision of the system, reduce the gitter and or increase the refresh rate of the result.