Publicación:
Estimación de la pose mediante sensores inerciales, técnicas de aprendizaje profundo y mediciones de un sistema óptico de captura de movimiento

dc.contributor.authorMatheu Escobar, José Gabriel
dc.contributor.educationalvalidatorEsquit, Carlos
dc.date.accessioned2025-11-01T05:44:29Z
dc.date.issued2025
dc.descriptionFormato PDF digital — 99 páginas — incluye gráficos, tablas y referencias bibliográficas.
dc.description.abstractEl objetivo de este estudio fue desarrollar un sistema de captura de movimiento inercial asistido por herramientas de aprendizaje profundo como alternativa a métodos tradicionales. Se propuso en el uso exclusivo de datos originales generados por unidades de medición inercial y obtenidos por un sistema de captura de movimiento óptico para el entrenamiento de los modelos. Esta aplicación se implementó con el n de mejorar la precisión y reducir la dependencia de sistemas externos para reconstruir la pose y trayectoria de agentes en el espacio. De esa manera, este estudio abarca los desafíos asociados con el efecto del error acumulado y la habilidad de los modelos para realizar predicciones dado el comportamiento estocástico de los datos obtenidos. El proyecto parte del diseño y ensamblaje de dispositivos capaces de interactuar con los componentes esenciales para captura de movimiento, lo que permitió generar los conjuntos de datos que se utilizaron para el entrenamiento de los modelos de aprendizaje. Así, se exploró el potencial de distintas arquitecturas de redes convolucionales y algoritmos de filtros adaptables para evaluar su capacidad de extracción de características en conjuntos de datos secuenciales. Para concluir, los resultados sugieren que futuras investigaciones puedan profundizar en el estándar de entrenamiento de los modelos propuestos para mejorar la precisión y validar su habilidad para reconstruir la pose y trayectoria en tiempo real.spa
dc.description.abstractThe primary objective of this study was to develop an inertial motion capture system assisted by deep learning tools as an alternative to traditional methods. A focus was placed on using raw data from inertial measurement units and data obtained from optical motion capture systems as references for training the models. This approach was implemented with the goal of improving accuracy and reducing dependencies on external systems for reconstructing the pose and trajectory of agents in the available space. Thus, the study addresses the challenges associated with the e ect of accumulated error and the ability of the models to make predictions, given the stochastic behavior of the system. The project began with the design and assembly of devices capable of interacting with the essential motion capture components, which enables the generation of datasets later used to train the models. This study addresses the potential of di erent convolutional neural network architectures and adaptive lter algorithms to assess their ability to extract features from sequential datasets. The results observed from this implementation suggest that future research could further investigate the training standards of the proposed models to improve accuracy and validate their ability to reconstruct pose and trajectory in real-time.eng
dc.description.degreelevelPregrado
dc.description.degreenameLicenciado en Ingeniería Mecatrónica
dc.format.extent99 p.
dc.format.mimetypeapplication/pdf
dc.identifier.urihttps://repositorio.uvg.edu.gt/handle/123456789/6209
dc.language.isospa
dc.publisherUniversidad del Valle de Guatemala
dc.publisher.branchCampus Central
dc.publisher.facultyFacultad de Ingeniería
dc.publisher.placeGuatemala
dc.publisher.programLicenciatura en Ingeniería Mecatrónica
dc.relation.referencesN. Cohen e I. Klein, Inertial Navigation Meets Deep Learning: A Survey of Current Trends and Future Directions, ArXiv, vol. abs/2307.00014, 2023. dirección: https: //api.semanticscholar.org/CorpusID:259316889.
dc.relation.referencesH. M. I. X. Yun E. Bachmann y J. Calusdian, Self-contained Position Tracking of Human Movement Using Small Inertial/Magnetic Sensor Modules, en Procee- dings 2007 IEEE International Conference on Robotics and Automation, IEEE, 2007, págs. 2526-2533.
dc.relation.referencesQ. S. H. Yan e Y. Furukawa, RIDI: Robust IMU Double Integration, en Computer Vision ECCV 2018, European Conference on Computer Vision, 2018, págs. 641-656.
dc.relation.referencesS. A. Herath, Robust Neural Inertial Navigation in the Wild, Master of Science (Computing Science), SIMON FRASER UNIVERSITY, 2019.
dc.relation.referencesA. B. M. Brossard y S. Bonnabel, AI-IMU Dead-Reckoning, IEEE Transactions on Intelligent Vehicles, vol. 5, n.o 4, págs. 585-595, 2020.
dc.relation.referencesS. U. Kim, J. Lee, J. Yoon, S.-K. Ko y J. Kim, Robust methods for estimating the orientation and position of IMU and MARG sensors, Electronics Letters, vol. 57, n.o 21, págs. 816-818, 2021. doi: https://doi.org/10.1049/ell2.12263. eprint: https://ietresearch.onlinelibrary.wiley.com/doi/pdf/10.1049/ell2.12263. dirección: https://ietresearch.onlinelibrary.wiley.com/doi/abs/10.1049/ ell2.12263.
dc.relation.referencesC. C. Cossette, M. Shalaby, D. Saussié, J. R. Forbes y J. Le Ny, Relative Position Estimation Between Two UWB Devices With IMUs, IEEE Robotics and Automation Letters, vol. 6, n.o 3, págs. 4313-4320, 2021. doi: 10.1109/LRA.2021.3067640.
dc.relation.referencesM. Menolotto, D.-S. Komaris, S. Tedesco, B. O' ynn y M. J. Walsh, Motion Capture Technology in Industrial Applications: A Systematic Review, Sensors (Basel, Switzerland), vol. 20, 2020.
dc.relation.referencesJ. Dower y P. Langdale, Performing for Motion Capture. Bloomsbury Publishing, 2022.
dc.relation.referencesM. Kitagawa y B. Windsor, MoCap for Artists: Work ow and Techniques for Motion Capture. CRC Press, 2020.
dc.relation.referencesOptiTrack. OptiTrack - Motion Capture Systems. (2024), dirección: https://www. optitrack.com/.
dc.relation.referencesOptiTrack. OptiTrack Primex 41 - Motion Capture Camera. (2024), dirección: https: //optitrack.com/cameras/primex-41/specs.html.
dc.relation.referencesM. Kok, J. D. Hol y T. B. Schön, Using Inertial Sensors for Position and Orientation Estimation, ArXiv, vol. abs/1704.06053, 2017.
dc.relation.referencesN. Ahmad, R. A. B. R. Ghazilla, N. M. Khairi y V. Kasi, Reviews on Various Inertial Measurement Unit (IMU) Sensor Applications, en IEEE Workshop on Signal Proces- sing Systems, 2013.
dc.relation.referencesM. electronics. MPU9250 9-Axis IMU Module. (2024), dirección: %5Curl%7Bhttps: //make.net.za/product/mpu9250-9-axis-imu-module/%7D (visitado 04-06-2024).
dc.relation.referencesIGELECTRONICS: MPU-9265 (GY 9250) 9-axis 9-DOF Attitude Gyro Magnetome- ter Accelerator Sensor Module, 2024. dirección: https://www.igelectronics.com/ products/a3ed52c6be/1726810000001619429.
dc.relation.referencesS. Bhattacharyya, V. Snasel, A. Hassanien, S. Saha y B. Tripathy, Deep Learning: Research and Applications (De Gruyter Frontiers in Computational Intelligence). De Gruyter, 2020, isbn: 9783110670905.
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.coarhttp://purl.org/coar/access_right/c_f1cf
dc.rights.licenseAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.armarcAstronautics
dc.subject.armarcAstronáutica
dc.subject.armarcAstrodinámica
dc.subject.armarcAstrodynamics
dc.subject.armarcNavegación inercial
dc.subject.armarcInteligencia artificial
dc.subject.armarcNavegación inercial -- Predicciones
dc.subject.armarcVehículos espaciales, sistemas de guía
dc.subject.armarcDeep learning (Machine learning)
dc.subject.armarcProcesamiento electrónico de datos
dc.subject.armarcSpace vehicles -- Guidance systems
dc.subject.armarcProcesamiento electrónico de datos – Predicciones
dc.subject.ddc000 - Ciencias de la computación, información y obras generales
dc.subject.ocde2. Ingeniería y Tecnología
dc.subject.odsODS 3: Salud y bienestar. Garantizar una vida sana y promover el bienestar de todos a todas las edades
dc.titleEstimación de la pose mediante sensores inerciales, técnicas de aprendizaje profundo y mediciones de un sistema óptico de captura de movimiento
dc.title.translatedPose estimation using inertial sensors, deep learning techniques, and optical motion-capture measurements
dc.typeTrabajo de grado - Pregrado
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.coarversionhttp://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.contentText
dc.type.driverinfo:eu-repo/semantics/bachelorThesis
dc.type.versioninfo:eu-repo/semantics/publishedVersion
dc.type.visibilityPublic Thesis
dspace.entity.typePublication

Archivos

Bloque original

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
José Matheu.pdf
Tamaño:
21.09 MB
Formato:
Adobe Portable Document Format

Bloque de licencias

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
license.txt
Tamaño:
14.49 KB
Formato:
Item-specific license agreed upon to submission
Descripción: