Publicación: Estimación de la pose mediante sensores inerciales, técnicas de aprendizaje profundo y mediciones de un sistema óptico de captura de movimiento
| dc.contributor.author | Matheu Escobar, José Gabriel | |
| dc.contributor.educationalvalidator | Esquit, Carlos | |
| dc.date.accessioned | 2025-11-01T05:44:29Z | |
| dc.date.issued | 2025 | |
| dc.description | Formato PDF digital — 99 páginas — incluye gráficos, tablas y referencias bibliográficas. | |
| dc.description.abstract | El objetivo de este estudio fue desarrollar un sistema de captura de movimiento inercial asistido por herramientas de aprendizaje profundo como alternativa a métodos tradicionales. Se propuso en el uso exclusivo de datos originales generados por unidades de medición inercial y obtenidos por un sistema de captura de movimiento óptico para el entrenamiento de los modelos. Esta aplicación se implementó con el n de mejorar la precisión y reducir la dependencia de sistemas externos para reconstruir la pose y trayectoria de agentes en el espacio. De esa manera, este estudio abarca los desafíos asociados con el efecto del error acumulado y la habilidad de los modelos para realizar predicciones dado el comportamiento estocástico de los datos obtenidos. El proyecto parte del diseño y ensamblaje de dispositivos capaces de interactuar con los componentes esenciales para captura de movimiento, lo que permitió generar los conjuntos de datos que se utilizaron para el entrenamiento de los modelos de aprendizaje. Así, se exploró el potencial de distintas arquitecturas de redes convolucionales y algoritmos de filtros adaptables para evaluar su capacidad de extracción de características en conjuntos de datos secuenciales. Para concluir, los resultados sugieren que futuras investigaciones puedan profundizar en el estándar de entrenamiento de los modelos propuestos para mejorar la precisión y validar su habilidad para reconstruir la pose y trayectoria en tiempo real. | spa |
| dc.description.abstract | The primary objective of this study was to develop an inertial motion capture system assisted by deep learning tools as an alternative to traditional methods. A focus was placed on using raw data from inertial measurement units and data obtained from optical motion capture systems as references for training the models. This approach was implemented with the goal of improving accuracy and reducing dependencies on external systems for reconstructing the pose and trajectory of agents in the available space. Thus, the study addresses the challenges associated with the e ect of accumulated error and the ability of the models to make predictions, given the stochastic behavior of the system. The project began with the design and assembly of devices capable of interacting with the essential motion capture components, which enables the generation of datasets later used to train the models. This study addresses the potential of di erent convolutional neural network architectures and adaptive lter algorithms to assess their ability to extract features from sequential datasets. The results observed from this implementation suggest that future research could further investigate the training standards of the proposed models to improve accuracy and validate their ability to reconstruct pose and trajectory in real-time. | eng |
| dc.description.degreelevel | Pregrado | |
| dc.description.degreename | Licenciado en Ingeniería Mecatrónica | |
| dc.format.extent | 99 p. | |
| dc.format.mimetype | application/pdf | |
| dc.identifier.uri | https://repositorio.uvg.edu.gt/handle/123456789/6209 | |
| dc.language.iso | spa | |
| dc.publisher | Universidad del Valle de Guatemala | |
| dc.publisher.branch | Campus Central | |
| dc.publisher.faculty | Facultad de Ingeniería | |
| dc.publisher.place | Guatemala | |
| dc.publisher.program | Licenciatura en Ingeniería Mecatrónica | |
| dc.relation.references | N. Cohen e I. Klein, Inertial Navigation Meets Deep Learning: A Survey of Current Trends and Future Directions, ArXiv, vol. abs/2307.00014, 2023. dirección: https: //api.semanticscholar.org/CorpusID:259316889. | |
| dc.relation.references | H. M. I. X. Yun E. Bachmann y J. Calusdian, Self-contained Position Tracking of Human Movement Using Small Inertial/Magnetic Sensor Modules, en Procee- dings 2007 IEEE International Conference on Robotics and Automation, IEEE, 2007, págs. 2526-2533. | |
| dc.relation.references | Q. S. H. Yan e Y. Furukawa, RIDI: Robust IMU Double Integration, en Computer Vision ECCV 2018, European Conference on Computer Vision, 2018, págs. 641-656. | |
| dc.relation.references | S. A. Herath, Robust Neural Inertial Navigation in the Wild, Master of Science (Computing Science), SIMON FRASER UNIVERSITY, 2019. | |
| dc.relation.references | A. B. M. Brossard y S. Bonnabel, AI-IMU Dead-Reckoning, IEEE Transactions on Intelligent Vehicles, vol. 5, n.o 4, págs. 585-595, 2020. | |
| dc.relation.references | S. U. Kim, J. Lee, J. Yoon, S.-K. Ko y J. Kim, Robust methods for estimating the orientation and position of IMU and MARG sensors, Electronics Letters, vol. 57, n.o 21, págs. 816-818, 2021. doi: https://doi.org/10.1049/ell2.12263. eprint: https://ietresearch.onlinelibrary.wiley.com/doi/pdf/10.1049/ell2.12263. dirección: https://ietresearch.onlinelibrary.wiley.com/doi/abs/10.1049/ ell2.12263. | |
| dc.relation.references | C. C. Cossette, M. Shalaby, D. Saussié, J. R. Forbes y J. Le Ny, Relative Position Estimation Between Two UWB Devices With IMUs, IEEE Robotics and Automation Letters, vol. 6, n.o 3, págs. 4313-4320, 2021. doi: 10.1109/LRA.2021.3067640. | |
| dc.relation.references | M. Menolotto, D.-S. Komaris, S. Tedesco, B. O' ynn y M. J. Walsh, Motion Capture Technology in Industrial Applications: A Systematic Review, Sensors (Basel, Switzerland), vol. 20, 2020. | |
| dc.relation.references | J. Dower y P. Langdale, Performing for Motion Capture. Bloomsbury Publishing, 2022. | |
| dc.relation.references | M. Kitagawa y B. Windsor, MoCap for Artists: Work ow and Techniques for Motion Capture. CRC Press, 2020. | |
| dc.relation.references | OptiTrack. OptiTrack - Motion Capture Systems. (2024), dirección: https://www. optitrack.com/. | |
| dc.relation.references | OptiTrack. OptiTrack Primex 41 - Motion Capture Camera. (2024), dirección: https: //optitrack.com/cameras/primex-41/specs.html. | |
| dc.relation.references | M. Kok, J. D. Hol y T. B. Schön, Using Inertial Sensors for Position and Orientation Estimation, ArXiv, vol. abs/1704.06053, 2017. | |
| dc.relation.references | N. Ahmad, R. A. B. R. Ghazilla, N. M. Khairi y V. Kasi, Reviews on Various Inertial Measurement Unit (IMU) Sensor Applications, en IEEE Workshop on Signal Proces- sing Systems, 2013. | |
| dc.relation.references | M. electronics. MPU9250 9-Axis IMU Module. (2024), dirección: %5Curl%7Bhttps: //make.net.za/product/mpu9250-9-axis-imu-module/%7D (visitado 04-06-2024). | |
| dc.relation.references | IGELECTRONICS: MPU-9265 (GY 9250) 9-axis 9-DOF Attitude Gyro Magnetome- ter Accelerator Sensor Module, 2024. dirección: https://www.igelectronics.com/ products/a3ed52c6be/1726810000001619429. | |
| dc.relation.references | S. Bhattacharyya, V. Snasel, A. Hassanien, S. Saha y B. Tripathy, Deep Learning: Research and Applications (De Gruyter Frontiers in Computational Intelligence). De Gruyter, 2020, isbn: 9783110670905. | |
| dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
| dc.rights.coar | http://purl.org/coar/access_right/c_f1cf | |
| dc.rights.license | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | |
| dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
| dc.subject.armarc | Astronautics | |
| dc.subject.armarc | Astronáutica | |
| dc.subject.armarc | Astrodinámica | |
| dc.subject.armarc | Astrodynamics | |
| dc.subject.armarc | Navegación inercial | |
| dc.subject.armarc | Inteligencia artificial | |
| dc.subject.armarc | Navegación inercial -- Predicciones | |
| dc.subject.armarc | Vehículos espaciales, sistemas de guía | |
| dc.subject.armarc | Deep learning (Machine learning) | |
| dc.subject.armarc | Procesamiento electrónico de datos | |
| dc.subject.armarc | Space vehicles -- Guidance systems | |
| dc.subject.armarc | Procesamiento electrónico de datos – Predicciones | |
| dc.subject.ddc | 000 - Ciencias de la computación, información y obras generales | |
| dc.subject.ocde | 2. Ingeniería y Tecnología | |
| dc.subject.ods | ODS 3: Salud y bienestar. Garantizar una vida sana y promover el bienestar de todos a todas las edades | |
| dc.title | Estimación de la pose mediante sensores inerciales, técnicas de aprendizaje profundo y mediciones de un sistema óptico de captura de movimiento | |
| dc.title.translated | Pose estimation using inertial sensors, deep learning techniques, and optical motion-capture measurements | |
| dc.type | Trabajo de grado - Pregrado | |
| dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | |
| dc.type.coarversion | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |
| dc.type.content | Text | |
| dc.type.driver | info:eu-repo/semantics/bachelorThesis | |
| dc.type.version | info:eu-repo/semantics/publishedVersion | |
| dc.type.visibility | Public Thesis | |
| dspace.entity.type | Publication |
