Publicación: Exploración de herramientas de captura de movimiento en 2D sin marcadores con aprendizaje automático
dc.contributor.author | Caniz Rosales, Aldo Sebastian | |
dc.contributor.educationalvalidator | Zea, Miguel | |
dc.date.accessioned | 2025-10-13T17:46:00Z | |
dc.date.issued | 2024 | |
dc.description | Formato PDF digital — 86 páginas — incluye gráficos, tablas y referencias bibliográficas. | |
dc.description.abstract | En este trabajo se presenta una exploración de sistemas emergentes para la captura de movimiento sin marcadores, con un enfoque en tecnologías que emplean aprendizaje automático. La investigación se centró en herramientas gratuitas y accesibles para cualquier usuario, descartando aquellas que no cumplían con estos criterios. Se analizó un conjunto de opciones y, tras una evaluación inicial, se seleccionó FreeMoCap como el sistema que ofreció los mejores resultados. Este sistema fue comparado con otras herramientas reconocidas, como Tracker, una solución de configuración manual para el análisis de movimientos en 2D, y OptiTrack, un software avanzado que emplea marcadores físicos para el seguimiento de movimientos en 3D. Se llevaron a cabo dos análisis principales, por un lado, se evaluaron los resultados de FreeMoCap en el plano 2D mediante pruebas cuantitativas y cualitativas, y por otro, se exploraron sus capacidades en el espacio 3D. Durante las pruebas en 2D, se obtuvieron datos estadísticos que, aunque fueron positivos, no resultaron ser completamente fáciles de validar a la herramienta como sustituto de los sistemas existentes. Por ello, se complementó el análisis con una comparación cualitativa. En el análisis 3D, la comparación se realizó únicamente de forma cualitativa, debido a las diferencias entre los sistemas que utilizan marcadores físicos y aquellos que no los requieren. Las pruebas resaltaron que FreeMoCap, a pesar de ciertas limitaciones en escenarios específicos, tiene el potencial de ofrecer resultados comparables a herramientas más costosas y complejas, lo que lo posiciona como una alternativa viable para usuarios con restricciones de presupuesto. Finalmente, se concluyó que FreeMoCap representa una solución prometedora para la captura de movimiento sin marcadores. Su facilidad de uso y su disponibilidad gratuita lo convierten en una opción frente a herramientas menos accesibles o más tediosas de configurar. Aunque aún presenta áreas de mejora, este sistema permite que una mayor cantidad de usuarios pueda acceder a esta tecnología sin necesidad de invertir en equipos especializados o licencias costosas. | spa |
dc.description.abstract | This work presents an exploration of emerging systems for markerless motion capture, with a focus on technologies that employ machine learning. The research focused on free and accessible tools for any user, excluding those that did not meet these criteria. A set of options was analyzed, and after an initial evaluation, FreeMoCap was selected as the system that o ered the best results. This system was compared with other well-known tools, such as Tracker, a manual con guration solution for 2D motion analysis, and OptiTrack, an advanced software that uses physical markers for 3D motion tracking. Two main analyses were conducted: on the one hand, the 2D results of FreeMoCap were evaluated through quantitative and qualitative tests; on the other hand, its capabilities in the 3D space were explored. During the 2D tests, statistical data were obtained that, while positive, were not entirely su cient to validate the tool as a substitute for existing systems. For this reason, the analysis was supplemented with a qualitative comparison. In the 3D analysis, the comparison was performed only qualitatively, due to the di e rences between systems that use physical markers and those that do not require them. The tests highlighted that FreeMoCap, despite certain limitations in speci c scenarios, has the potential to deliver results comparable to more expensive and complex tools, positioning it as a viable alternative for users with budget constraints. Finally, it was concluded that FreeMoCap represents a promising solution for markerless motion capture. Its ease of use and free availability make it a viable option compared to less accessible or more tedious-to-con gure tools. Although it still has areas for improvement, this system allows a broader range of users to access this technology without needing to invest in specialized equipment or expensive licenses. | eng |
dc.description.degreelevel | Pregrado | |
dc.description.degreename | Licenciado en Ingeniería Mecatrónica | |
dc.format.extent | 86 p. | |
dc.format.mimetype | application/pdf | |
dc.identifier.uri | https://repositorio.uvg.edu.gt/handle/123456789/6152 | |
dc.language.iso | spa | |
dc.publisher | Universidad del Valle de Guatemala | |
dc.publisher.branch | Campus Central | |
dc.publisher.faculty | Facultad de Ingeniería | |
dc.publisher.place | Guatemala | |
dc.publisher.program | Licenciatura en Ingeniería Mecatrónica | |
dc.relation.references | C. Perafán, Robotat: un ecosistema robótico de captura de movimiento y comunicación inalámbrica, Tesis doct., Universidad del Valle de Guatemala, G | |
dc.relation.references | FreeMoCap, FreeMoCap Main Documentation, Github Documentation, Fecha de acceso: 01/04/ | |
dc.relation.references | S. Orellana, Control del robot humanoide NAO mediante poses humanas captadas por cámara, Tesis doct., Universidad del Valle de Guatemala, Guatemala, 2021. | |
dc.relation.references | D. Jorge, Aprendizaje automático y aprendizaje profundo, SciElo, vol. 29, n.o 02, 2021. doi: http://dx.doi.org/10.4067/S0718-33052021000200180. | |
dc.relation.references | S. L. Alexander Amini Ava Amini, Introduction to Deep Learning, MIT's introductory program, Fecha de acceso: 04/06/2024, Abril de 2024. dirección: http://introtodeeplearning. com/. | |
dc.relation.references | IBM, El modelo de redes neuronales, Documentación, Fecha de acceso: 04/06/2024, Agosto de 2021. dirección: https://www.ibm.com/docs/es/spss- modeler/saas? topic=networks-neural-model | |
dc.relation.references | MathWorks, ¾Qué son las redes neuronales convolucionales? MathWorks, 2024, Fecha de acceso: 12/05/2024. dirección: https : / / es . mathworks . com / discovery / convolutional-neural-network.html. | |
dc.relation.references | S. Agarwal, What is a Charuco board and why you should use it?Deepen, 2022, Fecha de acceso: 12/05/2024. dirección: https://www.deepen.ai/blog/what-is-acharuco-board-and-why-you-sho | |
dc.relation.references | OSI, Open Source Initiative, Fecha de acceso: 04/06/2024, 2024. dirección: https : //opensource.org/ | |
dc.relation.references | B. Leyland, Move AI, ver. 2024, 2023. dirección: https://www.move.ai/. | |
dc.relation.references | Captury, Captury, ver. 2024, 2023. dirección: https://captury.com/. | |
dc.relation.references | AR-51, AR-51, ver. 2024, 2021. dirección: https://www.ar-51.com/. | |
dc.relation.references | A. Russ, Simi Reality Motion Systems, ver. 2024, 2019. dirección: https://simishape. com/. | |
dc.relation.references | IpiSoft, IpiSoft, ver. 2.2, 2024. dirección: https://www.ipisoft.com/. | |
dc.relation.references | MediapipePose, Google Research, Fecha de acceso: 06/10/2024, mayo de 2023. direc ción: https : / / github . com / google - ai - edge / mediapipe / blob / master / docs / solutions/pose.md | |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
dc.rights.coar | http://purl.org/coar/access_right/c_abf2 | |
dc.rights.license | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject.ddc | 000 - Ciencias de la computación, información y obras generales::004 - Procesamiento de datos Ciencia de los computadores | |
dc.subject.ocde | 2. Ingeniería y Tecnología | |
dc.subject.ods | ODS 9: Industria, innovación e infraestructura. Construir infraestructuras resilientes, promover la industrialización inclusiva y sostenible y fomentar la innovación | |
dc.title | Exploración de herramientas de captura de movimiento en 2D sin marcadores con aprendizaje automático | |
dc.title.translated | Exploration of markerless 2D motion capture tools using machine learning. | |
dc.type | Trabajo de grado - Pregrado | |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | |
dc.type.coarversion | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |
dc.type.content | Text | |
dc.type.driver | info:eu-repo/semantics/bachelorThesis | |
dc.type.version | info:eu-repo/semantics/publishedVersion | |
dspace.entity.type | Publication |