Publicación:
Implementación de un control de movimiento para dispositivos robóticos móviles utilizando identificación de gestos faciales y orientación de cabeza por medio de visión de computadora.

dc.contributor.authorFuentes Bámaca, Gerardo Andres
dc.date.accessioned2025-04-02T18:09:09Z
dc.date.available2025-04-02T18:09:09Z
dc.date.issued2024
dc.descriptionTesis. Licenciatura en Ingeniería Mecatrónica. Facultad de Ingeniería (92 p.).en_US
dc.description.abstractEste proyecto es una primera fase en el desarrollo de un sistema de control alternativo de plataformas móviles. En este caso se contempla el uso de posiciones y/o gestos faciales para poder realizar dicho control. Asimismo, el proyecto busca plantear una propuesta de sistema completo de asistencia para el usuario por medio de la integración de diversas herramientas, como el aprendizaje de máquina, las herramientas gráficas de Python, simuladores de fuente abierta, y el paradigma de programación orientada a objetos. En cuanto a los modelos de aprendizaje, se utilizaron redes neuronales convolucionales, que fueron alimentadas con bases de datos de fotografías, donde se realizaron pruebas con y sin filtros computacionales, además de pruebas con y sin marcadores físicos en los usuarios, con el objetivo de optimizar la predicción realizada y verificar el comportamiento al combinar métodos clásicos para reconocer rostros y métodos modernos (machine learning). Para obtener dichas fotografías y realizar la predicción de posición en tiempo real, se utilizó tecnología de visión de computadora desarrollada previamente por profesionales, específicamente OpenCV y Mediapipe. Esta última tecnología permite la captura de posición de puntos de rostros, manos, cuerpo y cuerpo completo, con lo cual, se logró alimentar las redes neuronales de grafos. El siguiente paso fue realizar simulaciones virtuales para verificar que el funcionamiento pueda ser trasladado a una plataforma física. Para poder transmitir los comandos generados luego de la predicción de los modelos de aprendizaje, el estándar de comunicación y la plataforma robótica móvil seleccionada deben adecuarse a los objetivos, en este caso, una comunicación inalámbrica, dado que genera una mayor independencia espacial. Por esta razón, se seleccionó el estándar Bluetooth que se encuentra disponible en la placa ESP32, la cual se puede comunicar fácilmente con diferentes plataformas robóticas. Teniendo en cuenta la disponibilidad en la Universidad del Valle de Guatemala y los requisitos previamente mencionados, se seleccionó la plataforma robótica Pololu 3pi, la cual puede recibir información de la placa ESP32, gracias a la implementación de una placa auxiliar desarrollada en el departamento de Ingenería Electrónica, Mecatrónica y Biomédica de la Universidad del Valle de Guatemala. La integración de cada una de las etapas mencionadas anteriormente, logran el objetivo de generar un prototipo de sistema de visión por computadora capaz de detectar gestos/posiciones de la cabeza y así generar movimiento en agentes robóticos, logrando así abrir el camino para futuras aplicaciones de apoyo para usuarios que lo necesiten. (LA)en_US
dc.identifier.urihttps://repositorio.uvg.edu.gt/handle/123456789/5866
dc.language.isoesen_US
dc.publisherUniversidad del Valle de Guatemalaen_US
dc.subjectMétodos de simulación -- Anatomíaen_US
dc.subjectSistemas de imágenesen_US
dc.subjectImaging systemsen_US
dc.subjectProcesamiento de imagenesen_US
dc.subjectMecatrónica – Guatemala – Innovación tecnológicaen_US
dc.subjectMechatronics – Guatemala – Technological innovationen_US
dc.titleImplementación de un control de movimiento para dispositivos robóticos móviles utilizando identificación de gestos faciales y orientación de cabeza por medio de visión de computadora.en_US
dc.typeTrabajo de grado - Pregradospa
dc.type.visibilityPublic Thesisen_US
dspace.entity.typePublication

Archivos

Bloque original

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
19389_GFUENTES_TESIS (1).pdf
Tamaño:
9.28 MB
Formato:
Adobe Portable Document Format
Descripción: