Institutional Repository

Interfaces biológicas humano-máquina.

Show simple item record

dc.contributor.author Castañeda Fernández, Oscar Fernando
dc.contributor.author Castillo Rivera, Javier Iván
dc.contributor.author Castillo Rivera, Pedro Iván
dc.contributor.author García Maldonado, Diego Mario Alejandro
dc.date.accessioned 2016-08-23T20:57:38Z
dc.date.available 2016-08-23T20:57:38Z
dc.date.issued 2015
dc.identifier.uri https://repositorio.uvg.edu.gt/handle/123456789/528
dc.description Megaproyecto. Licenciatura en Ingeniería Electrónica, Licenciatura en Ingeniería Mecátronica. Facultad de Ingeniería (185 p.) en_US
dc.description.abstract El megaproyecto “Interfaces biológicas humano-máquina” tiene como objetivo desarrollar diversos tipos de interfaces, las cuales utilizan señales provenientes del cuerpo para lograr comunicación entre humano y máquina. Estos se trabajaron a partir de señales de EEG (electroencefalografía), EMG (electromiografía), y la cinemática de las extremidades superiores por medio del procesamiento de imágenes. El proyecto se dividió en tres sistemas donde se implementaban cada una de las señales mencionadas anteriormente. Las señales de EEG, en conjunto con el teclado P300, permiten que la mayoría de personas escriban con la mente. El teclado P300 consiste en una matriz que contiene caracteres alfanuméricos, los cuales se iluminan aleatoriamente. El usuario debe fijar su mirada en el carácter que desea escribir y contar cada vez que este se ilumina. Tal acción genera una reacción en el cerebro, conocida como onda P300, la cual puede ser capturada utilizando un equipo de adquisición de EEG. Aplicando algoritmos de clasificación, puede determinarse si, luego de ocurrida una iluminación en la pantalla, el usuario presentó o no la onda, información con la cual se puede deducir el carácter que desea escribir y mostrarlo en el monitor. Para implementar un teclado P300 se requieren de cuatro tareas: la estimulación del usuario, la grabación de sus señales de EEG, el procesamiento de estas y su clasificación. Por tanto, en este trabajo se contemplaron los aspectos relacionados a la obtención de señales electroencefalográficas y al desarrollo de una interfaz cerebro computadora que mediante estímulos visuales en forma de luz, permitía implementar dichas señales para escribir una palabra en pantalla. También se exploraron distintas cadenas de procesamiento, conformadas por filtros temporales y espaciales, etapas de normalización, decimación y promedio de señales. El objetivo de dichas cadenas era facilitar la tarea de clasificación a un algoritmo de aprendizaje automático. Se utilizó un ensamble de tres máquinas de vectores de soporte (SVM) de kernel gaussiano como clasificador, debido a su capacidad de representar fronteras no lineales y de operar sobre datos de gran dimensión. Como resultado, se obtuvo un sistema que podía predecir caracteres con una exactitud promedio 1.5 veces mayor que la dada por un programa de distribución libre. Por otra parte, las señales EMG de los músculos flexores y extensores del antebrazo fueron utilizadas para clasificar los movimientos o intentos de movimientos de las manos. Dichas señales fueron obtenidas utilizando cuatro electrodos para medir las señales EMG, con las cuales se buscaban clasificar cuatro movimientos diferentes. La clasificación fue llevada a cabo utilizando algoritmos de inteligencia artificial, dentro de los cuales se realizaron pruebas utilizando SVM, regresión logística y red neuronal. SVM obtuvo un rendimiento máximo de 96% y regresión logística obtuvo un máximo de 77%. A pesar del buen rendimiento de SVM, se utilizó una red neural pues tenía un rendimiento arriba de 90% y era más estable que SVM. Para dar una aplicación a dichas señales, se controló un cuadcóptero (AR Drone 2.0). Finalmente, el sistema de detección de cinemática de las extremidades superiores por medio del procesamiento de imágenes consistió en utilizar las coordenadas cartesianas de las extremidades del humano, obtenidas con procesamiento de imágenes, para realizar la cinemática del robot humanoide NAO. El procesamiento de imágenes realizado era capaz de operar sin importar el entorno en el cual es utilizado. El robot humanoide NAO era capaz de replicar los movimientos del usuario con un error máximo de 5 cm en uno de los ejes y 2 cm en los otros dos ejes. Únicamente se modelaron los brazos de NAO con los parámetros Denavit-Hartenberg. A pesar de que se controlaron los ángulos de la cabeza, esto se hizo sin implementar la cinemática inversa, sino basándose únicamente en los ángulo proveídos por el sistema basado en visión por computadora, por lo que únicamente se implementó la cinemática directa en las articulaciones de la cabeza. en_US
dc.language.iso es en_US
dc.publisher Universidad del Valle de Guatemala en_US
dc.subject Interfaces (Computadoras) en_US
dc.subject Interfaces biológicas en_US
dc.subject Interacción hombre-computador en_US
dc.title Interfaces biológicas humano-máquina. en_US
dc.type Thesis en_US


Files in this item

This item appears in the following Collection(s)

Show simple item record