Pirca Cardenas Jairo Integración Sistema Robótico

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 106

PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ

FACULTAD DE CIENCIAS E INGENIERÍA

Integración de un sistema robótico asistencial controlado

mediante una interfaz cerebro computador para personas con

discapacidad motora

Tesis para obtener el título profesional de Ingeniero Mecatrónico

AUTOR

Jairo Jener Pirca Cárdenas

ASESOR

David Ronald Achanccaray Diaz

Lima, Diciembre, 2019


!

RESUMEN

La calidad de vida de una persona que sufre alguna discapacidad motora hoy en día depende

de muchos factores. Entre ellos los más importantes son el factor económico, familiar y

emocional.

La discapacidad motora es la incapacidad de controlar los músculos del cuerpo. Esta hace de

la persona con discapacidad dependiente de otra persona. En la actualidad existen tratamientos

físicos, psicológicos que contribuyen a mejorar la calidad de vida, pero esto no evita la que

sigan siendo dependientes de otras personas.

En este contexto, la presente tesis, desarrolla la implementación de un sistema robótico que

devuelve la autonomía parcial a una persona con discapacidad motora para permitir a las

personas realizar algunas labores cotidianas. En la presente tesis se describe entonces las

tecnologías, mecánica, eléctrica, control e informática para la correcta implementación del

sistema robótico, donde las principales partes del sistema son: brazo robótico, casco con

electrodos pasivos, pantalla de interacción, cámaras HD.

Con el fin de determinar si la implementación de sistema robótico tuvo éxito, se realizan

pruebas con personas sanas, teniendo resultados satisfactorios después de las sesiones de

entrenamiento y de experiencia con el sistema robótico.

I
Dedicado a mis padres y a mi hermana,
Nancy, Jener, Mya, quienes siempre me
han apoyado en lograr todos mis objetivos,
siempre estaré agradecido por su
incondicional apoyo.
AGRADECIMIENTOS

Este trabajo de tesis fue parte del proyecto de investigación "Control de un robot

asistencial mediante una interfaz cerebro computador para personas con discapacidad

motora", financiado por FONDECYT de CONCYTEC, Perú; con la subvención de

proyecto J004-2016. También se agradece a los laboratorios del CETAM y GIRAB por

brindar los ambientes y equipos para el desarrollo del proyecto.


!

ÍNDICE DE CONTENIDO
INTRODUCCIÓN…………………………………………………...………………………….…1
1 FUNDAMENTO TEORICO ............................................................................................ 5
1.1 Tratamientos comunes para personas con discapacidad motora ............................ 5
1.1.1 Terapia física.................................................................................................. 5
1.1.2 Terapia acuática ............................................................................................. 5
1.1.3 Tratamiento neuro-rehabilitador ..................................................................... 5
1.2 Interfaz Cerebro Computador ................................................................................ 6
1.3 Paradigmas ............................................................................................................ 7
1.3.1 Ondas cerebrales ............................................................................................ 8
1.3.2 Potencial relacionado a eventos...................................................................... 9
1.3.3 Potencial evocado por estados visuales ........................................................ 10
1.3.4 Ritmos sensoriomotores ............................................................................... 11
1.4 Adquisición de la señal........................................................................................ 11
1.4.1 Técnica invasiva........................................................................................... 12
1.4.2 Técnica no invasiva ...................................................................................... 12
1.4.3 Tipos de electrodos ...................................................................................... 12
1.5 Procesamiento de la señal.................................................................................... 13
1.5.1 Transformada de Wavelet ............................................................................ 13
1.5.2 Filtro adaptativo ........................................................................................... 14
1.5.3 Patrones espaciales comunes ........................................................................ 15
1.6 Aplicaciones de un sistema BCI en la actualidad ................................................ 16
2 DESCRIPCIÓN DEL SISTEMA Y MÉTODOS ........................................................ 17
2.1 Requerimientos del sistema ................................................................................. 17
2.1.1 Requerimientos mecánicos ........................................................................... 17
2.1.2 Requerimientos eléctricos y electrónicos ..................................................... 18
2.1.3 Requerimientos de control............................................................................ 18
2.2 Concepto de integración definitiva ...................................................................... 19
2.2.1 Solución óptima ........................................................................................... 19
2.3 Sistema electrónico ............................................................................................. 21
2.3.1 Sensores y actuadores .................................................................................. 21
2.3.2 Comunicación .............................................................................................. 23
2.4 Sistema de visión artificial .................................................................................. 25
2.4.1 Especificaciones, selección de cámaras ........................................................ 26
2.4.2 Calibración ................................................................................................... 28

II
!

2.4.3 Captura de escena ........................................................................................... 28


2.4.4 Procesamiento de las imágenes ...................................................................... 29
2.4.5 Cálculo de posición del objeto con referencia al brazo robótico ................... 34
2.5 Sistema mecánico .................................................................................................. 40
2.5.1 Diseño de soporte brazo robótico ................................................................... 40
2.5.2 Diseño de soporte de cámaras ........................................................................ 41
2.5.3 Montaje del brazo robótico ............................................................................ 41
2.5.4 Montaje de cámaras........................................................................................ 43
2.6 Sistema de control ................................................................................................. 43
2.6.1 Adquisición y procesamiento de la señal cerebral ......................................... 44
2.6.2 Detección de la señal EEG ............................................................................. 45
2.6.3 Control del brazo robótico.............................................................................. 46
2.6.4 Diagrama de flujo del sistema ........................................................................ 48
2.6.5 Flujo de trabajo del sistema ............................................................................ 51
3 COSTOS DEL SISTEMA ............................................................................................ 52
3.1 Costos de diseño: ................................................................................................... 52
3.2 Costos de fabricación: ........................................................................................... 53
3.3 Costos de programación: ....................................................................................... 53
3.4 Costos de pruebas .................................................................................................. 54
3.5 Costos totales ......................................................................................................... 54
4 EXPERIMENTOS Y RESULTADOS ......................................................................... 55
4.1 Requisitos para el experimento.............................................................................. 55
4.2 Primera sesión........................................................................................................ 56
4.3 Segunda sesión ...................................................................................................... 57
CONCLUSIONES ............................................................................................................... 60
RECOMENDACIONES ...................................................................................................... 61
BIBLIOGRAFIA .................................................................................................................. 62
ANEXOS..........................................................................................................................................70

III
!

ÍNDICE DE TABLAS
Tabla 2-1: Ensayos de velocidad del brazo de una persona de 22 años. Fuente propia. ......... 21
Tabla 2-2: Comparación entre los brazos robóticos. Fuente propia. ...................................... 22
Tabla 2-3 Comparación entre las sillas eléctricas. Fuente propia .......................................... 23
Tabla 2-4: Tabla de características de la computadora principal. Fuente propia .................... 25
Tabla 2-5: Características de las cámaras .............................................................................. 27
Tabla 2-6: Elección de cantidad de puntos característicos. Fuente propia. ............................ 32
Tabla 2-7: Resultados de las pruebas de profundidad. Fuente propia. ................................... 36
Tabla 2-8: Coordenadas con referencia la gripper ................................................................. 37
Tabla 2-9: Elección de la posición origen del brazo. Fuente propia....................................... 38
Tabla 2-10: Tabla de resultado de control de brazo robótico. Fuente Propia. ........................ 48
Tabla 3-1: Tabla de precios de componentes del sistema robótico. Fuente propia. ................ 52
Tabla 3-2: Tabla de horas empleadas en el diseño. Fuente propia. ........................................ 52
Tabla 3-3: Componentes a fabricar. Fuente propia. ............................................................... 53
Tabla 3-4: Tabla con horas de programación. Fuente propia. ................................................ 53
Tabla 3-5: Tabla de costos de pruebas. .................................................................................. 54
Tabla 3-6: Tabla general con los gastos totales ..................................................................... 54
Tabla 4-1 Características del usuario. Fuente propia. ............................................................ 55
Tabla 4-2 Resultados de la primera sesión. Fuente Propia. .................................................... 57
Tabla 4-3: Resultados de pruebas de sujeción de objetos. Fuente propia. .............................. 58

IV
!

ÍNDICE DE FIGURAS
Figura introducción 1: Pacientes con esclerosis lateral amiotrófica .……………………………2
Figura 1-1: Esquema de una Interfaz Cerebro Computador ..................................................... 7
Figura 1-2: Tipos de ondas cerebrales ..................................................................................... 9
Figura 1-3 Matriz del P300 Speller ...................................................................................... 10
Figura 1-4 Modelo funcional BCI basada en SSVEP ............................................................ 10
Figura 1-5: Comparación entre la transformada rápida de Fourier ........................................ 14
Figura 1-6 Dos patrones espaciales comunes (CSP) de un ejemplo correspondiente a tareas de
imaginación motora de izquierda y derecha ......................................................................... 15
Figura 1-7 Modelo del Proyecto BETTER ............................................................................ 16
Figura 2-1: Esquema de solución general del sistema. Fuente propia .................................... 20
Figura 2-2: Kinova- Mico 2................................................................................................... 22
Figura 2-3: Silla de ruedas eléctrica Optimus ........................................................................ 23
Figura 2-4: Diagrama de bloques del sistema. Fuente propia ................................................ 24
Figura 2-5: ASUS modelo K555UQ-XX002 ........................................................................ 25
Figura 2-6: Cámaras Logitech .............................................................................................. 27
Figura 2-7: Pares de fotografías tomadas por el sistema estéreo al patrón de “tablero de
damas”. Fuente propia .......................................................................................................... 28
Figura 2-8: Objetos predefinidos. Fuente propia ................................................................... 29
Figura 2-9: Fotografía de la escena tomada de la cámara izquierda y derecha respectivamente.
Fuente propia ....................................................................................................................... 29
Figura 2-10 Detención de imagen por algoritmo SIFT .......................................................... 32
Figura 2-11: Fotografías de las cámaras izquierda y derecha con 300 puntos característicos.
Fuente propia ....................................................................................................................... 33
Figura 2-12: Reconocimiento de puntos característicos iguales con la imagen izquierda de la
escena. Fuente propia ............................................................................................................ 33
Figura 2-13: Reconocimiento de puntos característicos iguales con la imagen derecha de la
escena. Fuente propia ............................................................................................................ 34
Figura 2-14: Reconocimiento de la posición de la imagen predefinida en las fotografías de la
escena. Fuente propia ............................................................................................................ 34
Figura 2-15: Triangulación para el cálculo de la profundidad .............................................. 35
Figura 2-16 : Cambio de origen para la sujeción de objetos. Fuente propia .......................... 37
Figura 2-17: Coordenadas de la cámara derecha ................................................................... 37

V
!

Figura 2-18: Coordenadas del brazo robótico ........................................................................ 38


Figura 2-19: Posición de origen del movimiento del brazo robótico. Fuente propia ............. 39
Figura 2-20: Coordenadas relativos y absolutas del sistema. Fuente propia .......................... 39
Figura 2-21: Soporte unión silla de ruedas - brazo robótico. Fuente propia ........................... 40
Figura 2-22: Soporte unión brazo robótico – cámaras. Fuente propia.................................... 41
Figura 2-23: Soporte impreso en impresora 3D. Fuente propia ............................................. 41
Figura 2-24: Ensamble silla – soporte. Fuente propia ........................................................... 42
Figura 2-25: Ensamble silla – soporte –brazo robótico. Fuente propia .................................. 42
Figura 2-26: Ensamble silla - brazo robótico – cámaras. Fuente propia ............................... 43
Figura 2-27: Flujo de procesamiento de la señal y extracción de sus características. Fuente
propia ................................................................................................................................... 45
Figura 2-28: Colocación del EEG EEG g.Nautilus correctamente. Fuente propia ................. 45
Figura 2-29: Señales obtenidas por EEG para estímulo a imágenes P300 (izquierda) y
estímulos no objetivos (derecha). Fuente propia ................................................................... 46
Figura 2-30: Brazo controlado con realimentación de información para cálculo de la
velocidad del gripper. Fuente Propia ..................................................................................... 47
Figura 2-31: Diagrama de flujo general del proyecto. Fuente propia ..................................... 49
Figura 2-32: Subrutina “Realizar tareas predefinidas del brazo”. Fuente propia.................... 50
Figura 2-33: Diagrama de Flujo del Cliente y Servidor respectivamente. Fuente propia ...... 51
Figura 2-34: Flujo de trabajo del sistema. Fuente propia ...................................................... 51
Figura 4-1 Posición correcta para las sesiones. Fuente propia .............................................. 56
Figura 4-2: Interfaz gráfica. Fuente propia ............................................................................ 56
Figura 4-3: Desarrollo de prueba de sujeción. Fuente propia................................................. 59

VI
!

INTRODUCCIÓN

Según Organismo Mundial de la Salud se estima que 15% de la población mundial vive

con un tipo de discapacidad y lamentablemente este porcentaje sigue aumentando [1]. En

la actualidad el 5.2% de los peruanos tiene algún tipo de discapacidad y más de un millón

y medio sufren de alguna limitación. Según un estudio, la discapacidad motora es la que

más afecta a los peruanos, llegando a alcanzar la cantidad de 932,000 personas y tiene como

principal causa la avanzada edad [2].

Esta condición de discapacidad motora afecta de forma drástica a la población

económicamente vulnerable, debido a que al no tener las posibilidades económicas para

recibir un buen tratamiento estas personas no consiguen trabajo por muchos obstáculos,

tanto emocionales como sociales.

Para las personas que padecen de discapacidades motoras, su estilo y calidad de vida

cambia rotundamente debido a que sufren la degeneración progresiva de neuronas motoras,

lo cual hace perder la autonomía, esto implica necesitar un acompañamiento permanente

para la realización de sus necesidades básicas. Algunas de las enfermedades más conocidas

son la Esclerosis Lateral Amiotrófica (ELA), tumores, infecciones o inflamaciones de los

tejidos musculares o nerviosos, donde la más grave es la primera debido a que es una

enfermedad neurológica progresiva y mortal que ataca a las células nerviosas encargadas

de controlar a los músculos voluntariamente [3].

En la figura introducción 1 se puede apreciar a los pacientes de ELA dependiendo de

un compañero permanente para sus rutinas diarias, donde este es el principal problema,

debido a que una persona normalmente desearía realizar sus actividades de manera

independiente.

1
!

Figura introducción 1: Pacientes con esclerosis lateral amiotrófica [4].

Teniendo en cuenta la situación anterior la cual es, la dependencia de personas que

sufren discapacidad motora como también el rotundo cambio de calidad y estilo de vida, se

planteó resolver este problema mejorando su estilo de vida y devolviendo, al menos

parcialmente, su dependencia, mediante la implementación de un sistema robótico

asistencial, a través una interfaz cerebro computador (BCI).

El interés científico de la realización de esta tesis está en viabilizar la implementación

de una interfaz cerebro computador para el control de un sistema robótico asistencial que

eventualmente seria usado por las personas que sufran de discapacidades motoras.

La motivación para realizar la tesis radica en devolver la autonomía a las personas que

sufren de enfermedades motoras e incrementar su independencia en la realización de las

necesidades básicas obteniendo así una mejor calidad de vida.

2
!

Ya teniendo establecida la problemática que se quiere resolver con esta tesis, se

plantearon objetivos tanto específicos como generales los cuales se exponen a

continuación:

Objetivo general

El objetivo general de la tesis es integrar un sistema robótico asistencial con una interfaz

cerebro computador con la finalidad de que una persona con discapacidad motora pueda

controlar dicho sistema para tareas específicas.

Objetivos específicos

- Determinar, comprender y evaluar el funcionamiento del hardware necesario para

realizar la adquisición y procesamiento de las señales electroencefalográficas.

- Determinar, comprender y evaluar el funcionamiento del hardware necesario para

el movimiento del sistema robótico.

- Desarrollar e implementar algoritmos de control para los movimientos del sistema

robótico.

- Desarrollar e implementar algoritmos para producir los comandos para el control

del sistema robótico.

- Desarrollar la comunicación entre el sistema robótico con los comandos producidos

por las señales cerebrales.

- Desarrollar e implementar la integración de todo el sistema robótico asistencial con

la interfaz cerebro computador.

- Establecer la secuencia y la forma en la que se realizarán los experimentos.

El desarrollo e implementación de un hardware y software necesario para la

independencia completa de una persona con discapacidad motora, demandaría muchas

horas-hombre, por lo que el presente trabajo no contempla el desarrollo de un sistema que

3
!

busque la independencia completa de la persona, sino más bien se limita a una

independencia parcial de una persona con discapacidad motora para la realización de sus

tareas cotidianas.

Aunque el sistema de interfaz cerebro computador con su aplicación tiene como

finalidad ayudar a personas con problemas motores, es posible desarrollar y realizar los

experimentos de prueba con los datos recolectados de personas sanas aprovechando que las

personas sanas tienen mayor disponibilidad de tiempo.

Por ello, en el desarrollo de esta tesis se limitará a realizar los experimentos con

personas sanas.

4
!

1 FUNDAMENTO TEORICO

1.1 Tratamientos comunes para personas con discapacidad motora

1.1.1 Terapia física

Ayuda al paciente a integrar y estimular los movimientos voluntarios en su propia

secuencia de desarrollo. La finalidad es que el paciente adquiera conciencia de sus

movimientos [6].

1.1.2 Terapia acuática

Aplicada más para los niños con discapacidades motrices, aplicando el Principio de

Arquímedes (“el principio de Arquímedes afirma que todo cuerpo sumergido en un fluido

experimenta un empuje vertical y hacia arriba igual al peso de fluido desalojado”) [7]. Se

puede utilizar para tratar segmentos corporales y realizar ejercicios de activa asistida,

también es posible utilizar la resistencia del agua al rozamiento, esta resistencia se hace

mayor cuanto más rápido sea el movimiento dentro de agua o mayor sea la superficie que

el cuerpo ofrezca en este ambiente [8].

1.1.3 Tratamiento neuro-rehabilitador

El objetivo principal del tratamiento neuro-rehabilitador es el de prolongar la capacidad

funcional, promover la independencia y ofrecer al paciente la mayor calidad de vida

posible [9].

1.1.3.1 Primera fase: pacientes independientes

El tratamiento rehabilitador consiste en realizar ejercicios que mantengan los balances

articulares y potencien la musculatura no deficitaria, y evitar los ejercicios que aumenten

5
!

la fatiga [9].

1.1.3.2 Segunda fase: paciente parcialmente independiente

El tratamiento rehabilitador consiste en que este momento es fundamental empezar a

instruir a la familia del enfermo sobre los cuidados que éste necesita (cambios posturales,

movilizaciones pasivas, etc.), así como sobre las ayudas técnicas que pueden mejorar su

calidad de vida (camas clínicas, cojines y colchones anti escaras, grúas para transferencias,

etc.) [9].

1.1.3.3 Tercera fase: paciente totalmente dependiente

Es fundamental brindar el apoyo psicológico al paciente, no descuidar el apoyo y la

atención tanto al paciente como al cuidador, debido a que el cuidador puede verse afectado

por el esfuerzo el estrés, por eso en esta tercera fase comprende al paciente y al cuidador

[9].

1.2 Interfaz Cerebro Computador

Una Interfaz Cerebro Computador o más conocida por su nombre en inglés Brain

Computer Interfaces (BCI) se define como: “Un sistema de comunicaciones entre hardware

y software que permiten a las personas interactuar con su entorno” [10]. También se define

como: “Una interfaz para el usuario, que ayuda a comunicarse a las personas que sufre de

discapacidades física, mediante ondas cerebrales, controlando dispositivos” [11]. El BCI

es usado hoy en día en diferentes aplicaciones tales como control de video juegos [12],

control de silla de ruedas [13], control de brazo robótico [14], etc.

BCI tiene diferentes campos de aplicaciones, hoy en día es un área muy activa debido

a que tiene como objetivo ayudar a las personas con discapacidades físicas. Evidenciando

6
!

la necesidad de esto, se puede ver que en la actualidad el número de personas que sufren

de ELA sigue aumentando llegando a la cantidad de 5 por cada 100,000 en el mundo [15].

Aunque llevar una vida normal no será posible este sistema BCI ayuda a mejorar la calidad

de vida de la persona afectada. En la figura 1.1 se muestra el principio básico de

funcionamiento de la interfaz cerebro computador, donde empieza con la actividad cerebral

del usuario, pasando al bloque de adquisición de la señal donde se amplifican y se realiza

la conversión de análogo a digital, pasando al bloque de procesamiento de la señal, este

bloque se caracteriza por tener 3 etapas principales: cancelación de ruido, obtención de

características y decodificación de las características en último punto se tiene el bloque de

aplicación donde se realizan acciones con la señal de control.

Figura 1-1: Esquema de una Interfaz Cerebro Computador


Fuente propia.

1.3 Paradigmas

BCI usa diferentes paradigmas, sin embargo, los más usados en la actualidad son:

Potencial Relacionado a Eventos (ERP, siglas en inglés), Potencial Evocado por Estados

Visuales (SSVEP, siglas en ingles) y ritmos sensoriomotores [16].

Los paradigmas ERP y SSVEP son clasificados como exógenos porque requieren de un

estímulo externo, mientras que ritmos sensoriomotores se consideran como endógenos

porque son recordados por el mismo usuario sin necesidad de un estímulo externo.

7
!

1.3.1 Ondas cerebrales

En el cerebro se producen los impulsos eléctricos que viajan por las neuronas, estos

impulsos producen señales las cuales se conocen como ondas cerebrales. Los impulsos

viajan de neurona a neurona y la actividad de las ondas cerebrales se observa por medio

de un electroencefalograma o EEG [17].

Existen cuatro tipos principales de ondas cerebrales: Alfa, beta, theta y delta, (figura

1.2). A continuación, se describen dichas ondas.

Ondas Beta: Esta onda está presente cuando el cerebro está despierto e implicado en

actividades mentales, su frecuencia oscila entre 14 y 30-35Hz. Actividades en las que están

presentes estas ondas: discursos, estudiando, resolviendo problemas matemáticos, etc [17].

Ondas Alfa: Esta onda es más lenta y de mayor amplitud que las ondas beta, su

frecuencia oscila entre 8 y 14 Hz debido a que refleja una escasa actividad cerebral.

Actividades en las que están presentes estas ondas: sentarse a descansar, personas

paseando, disfrutando el paisaje, etc. [17].

Ondas Theta: Esta onda tiene una frecuencia que oscila entre 4 y 8 Hz, se alcanza

estando en un estado de calma profunda. Actividades en las que están presentes estas

ondas: realizar tareas automáticamente, estar distraído, estado de inspiración de ideas

creativas [17].

Ondas Delta: Esta onda es la de mayor amplitud y menor frecuencia, su frecuencia

oscila entre 1 y 4 Hz, nunca llega a 0 debido a que eso significa la muerte cerebral, esta

onda está presente en estado de sueño. Actividades en las que están presentes estas ondas:

presentes cuando estamos en un sueño profundo [17].

8
!

Figura 1-2: Tipos de ondas cerebrales [17].

1.3.2 Potencial relacionado a eventos

Potencial relacionado a eventos, también conocido como Event-Related Potential

(ERP), es definido como los cambios en el potencial eléctrico cerebral relacionado

específicamente con un estímulo, esencialmente visual o auditivo, de ahí viene su nombre

“Potenciales relacionados a eventos” [18]. En este paradigma, el P300 es el más popular

aplicándose en “El deletreador”, el cual es utilizado como una forma de comunicación para

los pacientes que sufren de ELA [16]. El P300 se caracteriza por tener una variación en la

amplitud de la señal electroencefalográfica (EEG), el cual ocurre 300ms después de un

estímulo no frecuente. En la figura 1.3, se muestra la matriz de letras introducidas

inicialmente por Farwell y Donchin, la dinámica era iluminar la matriz de forma aleatoria

mientras que la persona con ELA se enfoca en la letra que quiere elegir para después ser

seleccionada y mostrada en la interfaz.

9
!

Figura 1-3 Matriz del P300 Speller [18].

1.3.3 Potencial evocado por estados visuales

Potencial evocado por estados visuales refleja la actividad cerebral producida por el

procesamiento de información visual, en SSVEP se produce para estímulos con

frecuencias mayores a 6 Hz [19]. En la figura 1.4 se presenta su modelo funcional, está

compuesto por un estimulador visual, una etapa de adquisición, una etapa de

procesamiento y por último la aplicación en dispositivos.

Figura 1-4 Modelo funcional BCI basada en SSVEP [19].

10
!

1.3.4 Ritmos sensoriomotores

Los ritmos sensoriomotores usan ondas de la actividad cerebral localizadas en las

bandas mu (8 – 12 Hz) y beta (18 – 26 Hz).

Los ritmos están relacionados con la imaginación de movimientos de las personas y no

es necesario de su acción de los movimientos reales, gracias a esta propiedad es posible

usar los ritmos sensoriomotores para el diseño de un BCI sin embargo el control de estos

ritmos no es sencillo debido a que la mayoría de las personas tienes dificultades con la

imaginación de los movimientos [20].

Los ritmos sensorio-motores experimentan dos tipos de modulaciones las cuales son:

eventos relacionados de desincronización y eventos relacionados de sincronización, estos

se generan durante la realización o imaginación de algún movimiento. Los eventos

relacionados de desincronización están ligados con la preparación e inicio del movimiento

por lo que involucra la atenuación de la amplitud de los ritmos mu y beta, en cambio los

eventos relacionados de sincronización están ligados a después de realizado el movimiento

por lo que involucra al incremento de amplitud de los ritmos mu y beta [20].

1.4 Adquisición de la señal

El objetivo de un BCI es reconocer patrones en las señales cerebrales las cuales serán

procesadas para su posterior aplicación. Se tienen 2 técnicas de adquisición, las cuales son:

técnicas invasivas y técnicas no invasivas [21].

También en la adquisición de la señal los electrodos cumplen un papel muy importante,

debido a que son estos quienes capturan la señal, entre los cuales se tienen a los electrodos

pasivos y activos.

11
!

1.4.1 Técnica invasiva

Una técnica invasiva es cuando necesariamente la adquisición de la señal se tiene que

realizar dentro de la persona con el fin de tomar medidas de mejor calidad en mayor

resolución. Para el uso de esta técnica se hace uso de tecnología invasiva de sensores, como

son los microelectrodos, los cuales se implantan en el cerebro, por ello esta técnica tiene

riesgos médicos.

Existen 2 métodos con técnica invasiva los cuales son los más usados en la BCI, la

primera es la electrocorticografía (EGoG) donde se realiza la colocación de electrodos en

la superficie cortical, la segunda es la grabación neuronal intracortical en este método se

implanta electrodos dentro de la corteza cerebral [22].

1.4.2 Técnica no invasiva

En una técnica no invasiva, no es necesario la intervención quirúrgica debido a que los

electrodos se colocan en la superficie externa del cráneo en comparación con las técnicas

invasivas, el nivel de señal tanto su calidad y su resolución es mucho más pobre.

La adquisición de datos con esta técnica se da por electroencefalografía (EEG), la

magnetoencefalografía (MEG) o resonancia magnética funcional (FMRI), estos dos

últimos utilizan instrumentos muy costosos y de grandes dimensiones por esto el EEG es

el más usado en el BCI [22].

1.4.3 Tipos de electrodos

1.4.3.1 Electrodos pasivos

Los electrodos pasivos en su mayoría son de: cloruro de plata, estaño, hierro u oro y se

recomienda no usar electrodos de distintos materiales. Uno de los problemas con este tipo

12
!

de electrodos es el procedimiento que requiere para su colocación debido a que es muy

tediosa, pero son el tipo de electrodos más usado en EEG, debido a que son más fáciles de

diseñar y no son costosos [23].

1.4.3.2 Electrodos activos

En los electrodos activos viene integrado un pre-amplificador que es de bajo ruido para

agrandar directamente las señales EEG en el lugar del registro, esta es su gran ventaja ante

los electrodos pasivos [24].

1.5 Procesamiento de la señal

En la adquisición de la señal, especialmente en la técnica no invasiva, las señales de

entrada siempre contienen algunos datos no deseados (ruido). Estos datos no deseados

pueden llevar a una conclusión errónea, por lo que las señales de entrada deben de ser pre-

procesadas.

Se puede procesar la señal en el dominio del tiempo o en el dominio de la frecuencia o se

puede usar los dos dominios para mejorar la calidad de procesamiento. A continuación, se

presentan algunos métodos para la filtración del ruido y la extracción de las características

principales.

1.5.1 Transformada de Wavelet

La transformada de Wavelet (WT, siglas en inglés) es una herramienta matemática

valiosa para las señales no estacionarias, las señales EEG no son estacionarias por lo cual

la WT es muy útil con estas señales.

La WT a diferencia de la transformada de Fourier permite diferentes frecuencias con

duración finita sin embargo tiene limitaciones en cuanto a la resolución de escalas de

13
!

tiempo y frecuencia. En la figura 1.5 se muestra una comparación entre la transformada de

Fourier y Wavelet.

El análisis de la WT permite hacer una representación de la señal como una expansión

de coeficientes del producto entre la Wavelet Madre, las funciones obtenidas por

escalamiento, la traslación de esta y la señal [25].

Figura 1-5: Comparación entre la transformada rápida de Fourier


(tiempo-frecuencia) y el análisis Wavelet (tiempo-escala) [25].

1.5.2 Filtro adaptativo

La mayor parte del tiempo se desconocen las bandas de frecuencias con las señales no

deseadas debido a que siempre están cambiando por lo tanto un filtro pasa-banda no

siempre funciona. El filtro debe adaptarse a la señal de entrada por lo que un filtro

predictivo es una buena opción.

La ecuación de entrada-salida de un filtro adaptativo digital:

𝑦(𝑛) = ∑𝑁 𝑀
𝑖=0 𝑎𝑖 (𝑛 )𝑥(𝑛 − 𝑖 ) − ∑𝑗=1 𝑏𝑗 (𝑛 )𝑦(𝑛 − 𝑗 ),

donde 𝑥(𝑛) e 𝑦(𝑛) son las muestras de entrada y salida, respectivamente, en el instante

n, 𝑎𝑖(𝑛) y 𝑏𝑗(𝑛) son los pesos del filtro i-ésimo y j-ésimo en el instante 𝑛, y 𝑁 + 𝑀 + 1

14
!

es el número total de coeficientes del filtro. Si en lugar de usar 𝑎𝑖(𝑛) y 𝑏𝑗(𝑛) se utilizan

𝑎𝑖 y 𝑏𝑗, los coeficientes ya no serían variantes con el tiempo [26].

1.5.3 Patrones espaciales comunes

Los patrones espaciales comunes (CSP, siglas en inglés) es uno de los métodos para la

extracción de características que procesa señales de diferentes canales EEG para diseñar

filtros especiales, se encarga de maximizar la varianza para un conjunto de datos y

minimizar la varianza del otro conjunto de datos con lo cual resalta la diferencia y

minimiza las similitudes.

La figura 1.6 muestra dos patrones espaciales comunes que provienen de una señal EEG

donde se ha usado la estrategia mental de imaginación motora en tareas de movimiento de

la mano izquierda y derecha. La imaginación motora de la mano izquierda induce patrones

de actividad sensoriomotora (ERD/ERS) sobre las áreas sensoriomotoras del lado derecho

del cerebro y viceversa [27].

Figura 1-6 Dos patrones espaciales comunes (CSP) de un ejemplo correspondiente a tareas de imaginación
motora de izquierda y derecha [27].

El CSP incrementa la precisión para BCI síncronos, sin embargo, no ofrece la misma

mejora para los BCI asíncronos, por lo que es una desventaja con el Wavelet [27].

15
!

1.6 Aplicaciones de un sistema BCI en la actualidad

Son muchas las aplicaciones que uno puede pensar con esta tecnología. Uno de los

campos en donde está siendo usado es en los videojuegos, específicamente el control de

videojuegos por medio de la BCI, y es que es un mercado muy tolerante a los cambios

drásticos de la tecnología, buscando la comodidad del usuario. De hecho, el Emotiv EPOC

el cual es un dispositivo con interfaces BCI para videojuegos está teniendo bastante

acogida.

Por otro lado, en la investigación, recuperar o sustituir actividades humanas motoras ha

sido una de las áreas más frustrantes pero la tecnología BCI ha permitido que se logren

bastantes avances en esta área; por lo cual se han realizado proyectos con financiamiento

en gran parte del mundo, como, por ejemplo:

 El BRAIN2ROBOT fue un proyecto financiado por el the EU’s sixth Framework

Programme (FP6).

Objetivo: Integrar la tecnología BCI con la tecnología de un “eye tracker”

(seguimiento ocular) para mover un brazo robótico asistente de una persona

discapacitada en tareas diarias [28].

 Proyecto BETTER (BNCI-driven robotic physical therapies in stroke rehabilitation

of Gait disorders) con una financiación de 2.95 millones de euros a 3 años.

Objetivo: Mejorar las terapias de rehabilitación física de desórdenes de la marcha

para personas que han sufrido accidentes vasculares [29]. En la figura 1.7 se muestra

el modelo del proyecto Better.

Figura 1-7 Modelo del Proyecto BETTER [29].

16
!

2 DESCRIPCIÓN DEL SISTEMA Y MÉTODOS

Este diseño apoya en brindar una solución a la dependencia que presenta una persona

con discapacidad motora para el desarrollo de sus actividades cotidianas teniendo que en

cuenta que se desea que tenga su ergonomía, practicidad de uso y una buena funcionalidad.

A continuación, se presentarán los requerimientos del sistema y su concepto de solución.

2.1 Requerimientos del sistema

Los requerimientos fueron elaborados teniendo en cuenta las necesidades del usuario

se detalla a profundidad en la lista de exigencias que se encuentra en el Anexo A.

2.1.1 Requerimientos mecánicos

 Todos los componentes utilizados en el montaje del sistema robótico deben de ser

ergonómicos para una persona con discapacidad motora (usuario).

 Los componentes deberán ser del menor peso posible para ser transportable debido

a que el sistema robótico se trasladará con el usuario para realizar sus tareas

cotidianas.

 El sistema mecatrónico deberá brindar seguridad al usuario en la realización de sus

tareas.

 El sistema mecatrónico no debe de ser tan robusto debido de que es un sistema de

uso cotidiano.

 El uso de sistema mecatrónico está restringido para que se use en zona urbana y

superficies planas.

 En el diseño del sistema robótico se debe de tomar en cuenta que no debe de ocupar

más de 0.80 x 0.80 x 1.50 m, debido a que las áreas urbanas son por donde se va

trasladar el sistema robótico, principalmente en el hogar y tendrá que moverse por

pasajes y puertas.
17
!

 El volumen de trabajo establecido por el sistema debe de ser 0.63 x 0.63 x 0.63 m

debido a que este es el volumen de trabajo promedio de un brazo adulto [30].

 El peso máximo del usuario debe de ser de 90 kg además el peso de los objetos a

mover por el sistema robótico debe de tener un peso máximo de 2 kg y un volumen

aproximado de 5 x 5 x 10 cm debido a que es el volumen promedio que alcanza una

mano adulta [30].

2.1.2 Requerimientos eléctricos y electrónicos

 El sistema deberá contar con sensores que deberán ayudar con la adquisición de

señales EEG.

 Se deberá implementar un sistema de transmisión y recepción de datos de manera

inalámbrica entre la recolección de señales EEG y el procesamiento de la señal,

con una capacidad mínima de comunicación de 10Mbits/s.

 El sistema deberá contar con una pantalla, la cual funciona como una interfaz

gráfica de comunicación entre el usuario y el sistema.

 La alimentación del sistema se realizará con una fuente externa (batería) de 24V.

 El sistema contará con actuadores para realizar tareas preestablecidas por el

usuario.

2.1.3 Requerimientos de control

 Se controlará la velocidad de trabajo del sistema con el objetivo de cumplir las

funciones preestablecidas.

 El sistema mecatrónico deberá tener un sistema anticolisión para evitar dañar al

usuario en caso se produzca una obstrucción o un choque con algún objeto.

 El sistema mecatrónico deberá contar con un control sobre el volumen de trabajo

con el fin de realizar las tareas preestablecidas.


18
!

 Las tareas preestablecidas serán de mover diferentes objetos, por lo que se necesita

saber la posición de los objetos en el espacio con un error máximo de 10 mm.

2.2 Concepto de integración definitiva

El sistema mecatrónico deberá realizar las tareas de trasladarse por una superficie plana

y sujetar los objetos para su posterior traslado, a través de órdenes creadas por las señales

cerebrales.

El concepto de solución óptimo es resultado de aplicar la metodología del diseño

mecatrónico. El proceso está documentado y se puede observar en los Anexos B, C, D y

E.

2.2.1 Solución óptima

Según la problemática descrita anteriormente, se desea devolver la autonomía a la

persona con discapacidad motora usando una interfaz cerebro computador (BCI) con el

paradigma potencial relacionado a eventos se decidió usar este paradigma debido a que

este paradigma usa EEG el cual es un procedimiento no invasivo y de fácil colocación,

además de que se escogió la mejor forma de presentarle al usuario las tareas

preestablecidas sería atreves de imágenes las cuales se harán parpadear a diferentes

frecuencias identificando cada tareas con este paradigma.

En la figura 2.1 se presenta el esquema de la solución planteada, donde se observa que

la adquisición de señales cerebrales será realizada por electrodos que estarán conectados

de manera inalámbrica a la computadora portátil principal para el posterior procesamiento

de las señales; estas señales cerebrales serán producidas por estímulos visuales por medio

de la pantalla de la computadora portátil. Para el movimiento de traslación de la persona

se empleará una silla de ruedas eléctrica, en la cual estará montado el brazo robótico para

19
!

la sujeción de los objetos predefinidos. La captura de la posición del objeto será detectada

por dos cámaras, que se encontrarán en el actuador final del brazo robótico. Todos estos

dispositivos estarán conectados a la computadora portátil principal, la cual funcionará

como el dispositivo de control de todo el sistema donde su pantalla funcionará como una

interfaz de estimulación de señales cerebrales entre el usuario y el sistema. Todos los

dispositivos a excepción de los electrodos serán energizados por una batería de 24V, esta

batería se encontrará en la parte inferior posterior de la silla de ruedas.

Figura 2-1: Esquema de solución general del sistema. Fuente propia.

20
!

2.3 Sistema electrónico

Para el diseño de este sistema, se seleccionaron diferentes actuadores los cuales

estaban contemplados en el concepto de solución definitivo.

2.3.1 Sensores y actuadores

2.3.1.1 Brazo robótico

Para la realización de las tareas del sistema se decidió usar un brazo robótico, debido a

que es lo más parecido a un brazo, el brazo y los pies son las partes del cuerpo más usadas

por las personas para la realización de las tareas diarias [31]. Para que el brazo robótico

cumpla las características del brazo humano, se tomaron en cuenta las principales

características que son necesarias para el sistema mecatrónico, las cuales son: longitud del

brazo, volumen de trabajo, velocidad del brazo y el peso que soporta.

En la siguiente tabla 2.1 se puede observar las características principales del brazo

humano que fueron calculadas.

Tabla 2-1: Ensayos de velocidad del brazo de una persona de 22 años. Fuente propia.

Longitud Volumen de Tarea Realizada Distancia Tiempo Velocidad


del brazo trabajo (m3) recorrida (s) Promedio
(m) (m) (cm/s)
0.63 0.262 Acercar una taza 0.30 1.35 22.22
de leche
0.63 0.262 Agarrar una 0.40 1.96 20.41
botella de agua
0.63 0.262 Agarrar un 0.35 1.61 21.74
lapicero

Al finalizar los experimentos, se llegó a la conclusión que la velocidad promedio de un

brazo es alrededor de 21.46 cm/s y se observó que la cantidad de peso que podía soportar

en la mano con el brazo extendido por un tiempo de 2 minutos era de 1 kg.

21
!

En la tabla 2.2 se muestran diferentes brazos robóticos con sus características.

Tabla 2-2: Comparación entre los brazos robóticos. Fuente propia.

Brazo Robótico Largo Velocidad Volume Peso Peso Fuente de


(m) (cm/s) n de (kg) carga alimentación
trabajo (kg)
(m3)
Arm LWA 4D [32] 1.05 2-28 0.752 17.5 10 24V DC

Kinova-Mico 2 [33] 0.85 3-25 0.623 3.8 2.7 24V DC

Kinova- Jaco 3 [33] 1.20 3-25 1.024 4.4 2.1 24V DC


BionicCobot [34] 0.70 3-22 0.356 6 1.5 24V DC

Todos los brazos robóticos cumplían con las características para la elaboración de las

tareas necesarias del sistema. Por motivos de disponibilidad para la implementación, se

escoge el brazo robótico Kinova-Mico 2 (figura 2.2), debido a que este se encuentra en la

Pontificia Universidad Católica del Perú y su disponibilidad es inmediata.

Figura 2-2: Kinova- Mico 2 [33].

2.3.1.2 Silla de ruedas

La tarea principal de este dispositivo es realizar el traslado de la persona, en la tabla 2.3

se observa la comparación entre diferentes tipos de sillas eléctricas.

22
!

Tabla 2-3 Comparación entre las sillas eléctricas. Fuente propia

Silla de Peso (kg) Peso que Velocidad Duración en


ruedas soporta (kg) (km/h) km
OPTIMUS 2 150 150 6 / 10 / 15 70
2.322 [35]
ICHAIR MC1 280 120 6 40
1.610[36]
1595-Nemo- 295 100 6 35
Vertival [37]
Clou 9.500 210 120 6 40
[38]
Solero Light 183 130 6 40
9.072 [39]

Por motivos de disponibilidad para la implementación del proyecto, se decide usar la

silla de ruedas OPTIMUS 2 (figura 2.3), debido a que esta se encuentra en la Pontificia

Universidad Católica del Perú y su disponibilidad es inmediata.

Figura 2-3: Silla de ruedas eléctrica Optimus 2 [35].

2.3.2 Comunicación

El sistema mecatrónico está conformado por siete módulos electrónicos que interactúan

entre sí: Electrodos con transmisor de señales EEG, receptor de señales EEG, brazo

robótico, computadora principal, silla de ruedas, cámara, módulo de alimentación general;

en la figura 2.4, se visualiza la interacción del sistema mediante un diagrama de bloques.

23
!

Figura 2-4: Diagrama de bloques del sistema. Fuente propia.

Cinco dispositivos se enlazan directamente con la computadora principal, donde cuatro

de ellos (receptor de señales EEG, cámara, brazo robótico, silla de ruedas) se comunican

por el protocolo estandarizado USB, el último dispositivo (interfaz gráfica) viene integrada

en la computadora.

La computadora principal se conecta a los 4 dispositivos periféricos, por medio de una

comunicación serial USB 2.0 con una velocidad máxima de 480 Mbps. En la computadora

principal se ejecutará el programa de la interfaz visual, el programa que controle el brazo

robótico y la silla de ruedas, el programa que realice el procesamiento y la extracción de

características de la señal y el programa que capture la posición del objeto predefinido en

el entorno.

Para la interfaz gráfica y el procesamiento de las señales como la extracción de

características, se utilizará el programa visual studio 2017 con el lenguaje de programación

C++, por lo que se requiere que el sistema operativo principal sea Windows, para el control

de la silla de ruedas y el brazo robótico se utilizará el lenguaje Python por lo que se requiere

24
!

también el uso del sistema operativo Linux. El sistema operativo Linux se ejecutará en la

computadora principal mediante una máquina virtual logrando así la ejecución de los dos

sistemas en simultáneo. Se propone el uso de la laptop ASUS modelo K555UQ-XX002

(figura 2.5) debido a que esta se encuentra en la Pontificia Universidad Católica del Perú

y su disponibilidad es inmediata, sus características se presentan en la tabla 2.4.

Tabla 2-4: Tabla de características de la computadora principal. Fuente propia

Requerido K555UQ-XX002
Procesador Intel Core™ Intel Core™ i7-6500U
2.50Ghz
Memoria RAM 1 GB 8 GB DDR3 ampliable
Almacenamiento 10 GB 1TB 5400RPM
Pantalla LED 10.2'' LED 15.6''
Dimensiones 250 x 300 x 27 mm 256 x 382 x 25.3 mm
Peso 2 kg 2.3 kg
Puertos USB 3 puertos USB 3 puertos USB

Figura 2-5: ASUS modelo K555UQ-XX002 [40].

2.4 Sistema de visión artificial

El objetivo del sistema de visión artificial es reducir la carga cognitiva del usuario y

mejorar el desempeño general del sistema, el cual es desarrollado para la tarea de agarre y

acercamiento de objetos al usuario en actividades de la vida diaria, en entornos naturales

y no ordenados.

25
!

2.4.1 Especificaciones, selección de cámaras

Se plantea la ubicación del efector final. Esta configuración permitirá tener una vista

cercana del objeto a reconocer y además, al estar colocada en el manipulador, puede tomar

una vista panorámica útil para mostrar al usuario y para una identificación inicial de los

objetos del entorno.

Debido a que los objetos van a ser agarrados por el manipulador, es necesario tener la

ubicación espacial de los objetos, y por ello se requiere que la cámara detectar profundidad.

Existen varias maneras de detectar profundidad, de ellas se ha escogido la configuración

estéreo ya que existen diversos papers que respaldan su uso [41] y por otro lado las técnicas

de tiempo de vuelo y de luz estructurada aún no han sido muy estudiadas en la aplicación

con manipuladores. Ya que no existen muchas cámaras estéreo a color en el mercado, se

plantea armar un arreglo personalizado con 2 cámaras idénticas. Además, se plantea el uso

de sensores RGB en vez de monocromáticos con la finalidad de disponer de mayor

información visual en la implementación de los algoritmos de reconocimiento de objetos.

La carga máxima que puede manipular el robot MICO es de 2.7 kg, por lo que la cámara

debe ser ligera, se plantea un máximo de 600 g. Se asume que el peso de la estructura

soporte será como máximo de 150 g, por lo que el peso de cada cámara no deberá superar

los 300 g.

De las diversas conexiones existentes se plantea el uso de USB ya que el procesamiento

se realizará en una laptop y para evitar el uso de componentes, adaptadores adicionales.

La velocidad de procesamiento del sistema será de 2.5 GHz, debido a que en primer lugar

deberá procesar la señales EEG, en segundo lugar, el sistema estará limitado por el usuario

que presentará diversas discapacidades y en tercer lugar porque no se requieren

26
!

movimientos rápidos del manipulador, sino más bien alta precisión. Por ello también se

plantea un número de cuadros por segundo (fps) no menor a 15.

De las cámaras web encontradas, que han sido usadas en efector final marca Logitech.

Las cámaras actuales que dispone esta marca se presentan dos de ellas (figura 2.6) y sus

características (tabla 2.5)

Figura 2-6: Cámaras Logitech. [42]

Tabla 2-5: Características de las cámaras

Campo Distancia
Precio
Marca Modelo Resolución de FPS Mínima al Peso
(soles)
Visión Objeto (MOD)
1280x960 30fps @
Logitech C270 60° - 75 g 100
(1.2 MP) 640x480
30fps @
Logitech C525 2MP 69° 7 cm 88 g 200
640x480

Todos los precios deben ser multiplicados por 2 ya que se usará una configuración

estéreo. Finalmente, se decidió utilizar las cámaras Logitech C525, debido a que es la que

cuenta con más campo de visión.

27
!

2.4.2 Calibración

La calibración ha sido realizada usando la aplicación “Stereo Calibration App” de

Matlab. La aplicación produce un objeto que contiene los parámetros del sistema estéreo.

Para calibrar el sistema se necesita tomar múltiples fotografías a un patrón de “tablero de

damas” (figura 2.7).

Figura 2-7: Pares de fotografías tomadas por el sistema estéreo al patrón de “tablero de damas”. Fuente propia.

2.4.3 Captura de escena

Para la captura de la escena, en la interfaz gráfica se visualizan diferentes imágenes, los

cuales son los objetos predefinidos, como se muestran en la figura 2.8. Previamente el

brazo robótico tiene que estar instalado en la computadora, los pasos para su instalación

se encuentran en el Anexo G.

28
!

Figura 2-8: Objetos predefinidos. Fuente propia.

Se selecciona una de estas imágenes y después de seleccionar la imagen predefinida a

través de las señales EEG (apartado 3.6.2) se realiza la captura de imagen de la escena en

tiempo real usando las dos cámaras (figura 2.9) que se encuentran en el gripper.

Figura 2-9: Fotografía de la escena tomada de la cámara izquierda y derecha respectivamente. Fuente propia.

2.4.4 Procesamiento de las imágenes

2.4.4.1 Transformación de la característica invariante de la escala

La transformación de las características invariantes de la escala o más conocida como

Scale-invariant feature transform (o SIFT siglas en inglés) es un algoritmo muy usado en

la visión artificial sirve para la detección de objetos, detección de movimiento, registro de

la imagen, estereopsis y otras tareas. Este algoritmo consiste 5 etapas principales, las

cuales se presentan a continuación:

29
!

2.4.4.1.1 Detección de extremos en la escala-espacio

En esta etapa se aplica la diferencia gaussiana o DoG con diferentes tamaños de región

t, donde se buscan los máximos locales a lo largo del espacio que es determinado por las

coordenadas “𝑥” e “𝑦” en la imagen y en escalas determinada por 𝑘𝜎.

𝐷(𝑥, 𝑦, 𝜎) = 𝐿(𝑥, 𝑦, 𝑘𝑖 𝜎) − 𝐿(𝑥, 𝑦, 𝑘𝑗 𝜎),

𝐿(𝑥, 𝑦, 𝑘𝜎) = 𝐺 (𝑥, 𝑦, 𝑘𝜎) ∗ 𝐼(𝑥, 𝑦).

Donde:

𝐼(𝑥, 𝑦) es la imagen original.

𝐺(𝑥, 𝑦, 𝑘𝜎) es el desenfoque Gaussiano a escalas 𝑘𝜎.

Una vez ya obtenidas las imágenes DoG a diferentes escalas ko, se deben identificar los

puntos clave, los cuales son los puntos máximos y mínimos locales de las imágenes DoG.

Estos puntos se obtienen comparando cada pixel de las imágenes DoG con sus 8 vecinos

más cercanos en la misma escala y sus nueve vecinos correspondientes en una escala

inmediatamente inferior y superior donde si el valor de pixel es el máximo o mínimo entre

todos los pixeles comparados, se selecciona como un candidato a punto clave.

2.4.4.1.2 Localización de puntos de interés

Para cada candidato a punto clave se debe de redefinir a sub-pixel para ello se usa la

serie de Taylor de escala- espacio donde se descarta los candidatos menores al umbral,

posteriormente se debe de usar la matriz Hessiana para el cálculo de las curvaturas

principales y eliminación de bordes.

30
!

2.4.4.1.3 Asignación de orientaciones

A cada punto de interés se le asigna una orientación que es basada en la dirección de su

gradiente para este paso la imagen gaussiana analizada se representa por 𝐿(𝑥, 𝑦, 𝜎) donde

𝜎 es la escala del punto clave, gradiente 𝑚(𝑥, 𝑦), orientación 𝜃(𝑥, 𝑦).

𝑚(𝑥, 𝑦) = √(𝐿(𝑥 + 1, 𝑦) − 𝐿(𝑥 − 1, 𝑦))2 + (𝐿(𝑥, 𝑦 + 1) − 𝐿(𝑥, 𝑦 − 1))2 ,

𝜃(𝑥, 𝑦) = 𝑎𝑡𝑎𝑛2(𝐿(𝑥, 𝑦 + 1) − 𝐿(𝑥, 𝑦 − 1), 𝐿(𝑥 + 1, 𝑦).

Se calcula la magnitud y dirección de la gradiente de los vecinos del punto clave. Se

forma un histograma de orientación de 36 conectores donde cada conector tiene 10 grados,

formando 360 grados en total, donde el pico más alto del histograma indica la orientación

del punto clave.

2.4.4.1.4 Descriptor de punto de interés

Para la descripción de cada punto de interés se toma una vecindad de 16x16 puntos

donde cada histograma tiene una subregión de 4x4 de la región vecina original, donde un

descriptor en un vector con todos los valores de los histogramas, tiendo un total de 128

elementos.

2.4.4.1.5 Correspondencia de puntos de interés

La correspondencia de los puntos de interés en 2 imágenes, se hallan por la búsqueda

del punto más próximo en los descriptores al punto de interés.

Después de realizada la toma de la escena, se procede a la comparación entre imágenes

(imagen predefinida y la escena), primero se tiene que localizar los puntos característicos

más fuertes de la imagen de referencia, en este caso se escogió la lata de atún (figura 2.10),

31
!

en donde la tabla 2.6 se puede observar la localización de los N puntos característicos más

fuertes de la imagen predefinida.

Figura 2-10 Detención de imagen por algoritmo SIFT

Tabla 2-6: Elección de cantidad de puntos característicos. Fuente propia.

Cantidad de puntos Imagen con los puntos Porcentaje de


característicos característicos reconocimiento con la
imagen de la escena

50 90.3%

100 97.1%

250 97.5%

500 97.9%

32
!

Se escoge usar la cantidad de 100 puntos debido a que el porcentaje de reconocimiento

de la imagen predefinida es de 97.1% y no varía tanto el porcentaje de reconocimientos si

se usara 500 puntos lo cual sí implicaría más cantidad de memoria y tiempo de

procesamiento. Después de realizado el reconocimiento de los puntos característicos más

fuertes de la imagen predefinida. Se realiza el mismo procedimiento, pero con las

fotografías de la escena, para las fotografías de la escena se utilizará el triple de número

de puntos característicos, obteniendo la posición de los puntos característicos como se

muestra en la figura 2.11.

Figura 2-11: Fotografías de las cámaras izquierda y derecha con 300 puntos característicos. Fuente propia.

Después de obtención de puntos característicos de cada imagen, se realiza la

determinación de qué puntos característicos coinciden entre la imagen predefinida y las

fotografías de la escena, como se muestra en la figura 2.12 y figura 2.13. En este proceso

se realiza la comparación punto por punto, ubicándose cada punto característico de la

imagen predefinida con su semejante punto característico en la fotografía de la escena.

Figura 2-12: Reconocimiento de puntos característicos iguales con la imagen izquierda de la escena. Fuente
propia.

33
!

Figura 2-13: Reconocimiento de puntos característicos iguales con la imagen derecha de la escena. Fuente
propia.

Finalizado el reconocimiento de los puntos característicos iguales entre la imagen y las

fotografías de la escena, se calcular su posición en un plano XY con origen en el centro de

cada imagen de la escena (figura 2.14).

Figura 2-14: Reconocimiento de la posición de la imagen predefinida en las fotografías de la escena. Fuente

propia.

2.4.5 Cálculo de posición del objeto con referencia al brazo robótico

Después de determinada las posiciones en X e Y se realiza el cálculo de profundidad,

para ello se utiliza la triangulación. Al conocer la posición en la que se encuentran las 02

cámaras con el mismo punto de referencia, puedo saber la distancia que están separadas y

teniendo las fotografías tomadas por las 02 cámaras además de tener como punto de

coincidencia el objeto predefinido (figura 2.15).

34
!

Figura 2-15: Triangulación para el cálculo de la profundidad [43]

Al establecer la geometría, las coordenadas del objetivo pueden ser calculadas con las siguientes
ecuaciones:
𝑟
𝐶𝐼𝑁 = 𝐶𝑜𝑙𝐼𝑧𝑞 − ,
2
𝑟
𝐶𝐷𝑁 = 𝐶𝑜𝑙𝐷𝑒𝑟 − ,
2
𝐶𝐷𝑁+𝐶𝐼𝑁
𝑥𝑖 = −𝑑 ,
𝐶𝐷𝑁−𝐶𝐼𝑁

𝑥𝑖 +𝑑
𝑦𝑖 = 𝑓𝑟 .
2 𝑎 𝐶𝐼𝑁

Donde:
𝐶𝑜𝑙𝐼𝑧𝑞: Número de pixeles de la columna de la imagen izquierda donde se encuentra el objetivo.

𝐶𝑜𝑙𝐷𝑒𝑟: Número de pixeles de la columna de la imagen derecha donde se encuentra el objetivo.


𝐶𝐼𝑁: Columna izquierda normalizada (distancia del objetivo al centro de la imagen, expresado en
pixeles).
𝐶𝐷𝑁: Columna derecha normalizada (distancia del objetivo al centro de la imagen, expresado en
pixeles).
𝑑: Distancia entre cada cámara y el origen del sistema.
𝑓: Distancia entre el plano de fondo (definido por el volumen de trabajo del brazo) y la línea de
cámaras.
𝑎: Apertura del campo visual en mm.

𝑟: Resolución horizontal de la cámara en pixeles.


𝑥𝑖 : Posición del objetivo en el plano x.

𝑦𝑖 : Posición del objetivo en el plano x (profundidad).

Obteniendo como resultado la profundidad en milímetros. Para las pruebas se usaron

los objetos predefinidos (figura 2.8), con un rango de medición de 250 a 550 mm y se

35
!

tomaron 16 pares de imágenes (4 pares por objeto), donde los resultados se muestran en la

tabla 2.7.

Tabla 2-7: Resultados de las pruebas de profundidad. Fuente propia.

Objeto Distanciar real Distancia calculada Error absoluto


(mm) (mm) (mm)
Desodorante 250 244 6
350 353 3
450 457 7
550 542 8
Atún 250 246 4
350 355 5
450 453 3
550 544 6
Agua de azahar 250 253 3
350 352 2
450 447 3
550 559 9
Gaseosa 250 247 3
350 353 3
450 443 7
550 554 4

Se observa de la tabla 3.7 que el error absoluto es muy pequeño teniendo un promedio

de 4.75 mm de error, el cual es aceptable para el sistema, debido a que las pinzas abiertas

del brazo robótico miden 160 mm, representado un 3% del tamaño de las pinzas abiertas,

no se consideraría aceptable cuando el erro represente 10% del tamaño de las pinzas

abiertas.

Las coordenadas que se tuvieron del resultado de la triangulación (figura 2.15) tienen

como sistema de referencia el centro de la cámara derecha, para el movimiento del brazo

robótico el sistema de referencia tiene que variar al centro del gripper (figura 2.16), debido

a que es el gripper quien se va a estar moviendo y su posición final tiene que ser la posición

del objeto predefinido. En la tabla 2.8 se detalla las coordenadas finales de la cámara

derechas respecto al gripper.

36
!

Figura 2-16 : Cambio de origen para la sujeción de objetos. Fuente propia.

Tabla 2-8: Coordenadas con referencia la gripper

Origen Inicial Origen Final Coordenadas


(mm) (mm) finales del origen
(mm)
X 0 -41 -41
Y 0 48 48
Z 0 37 37

Estas coordenadas son relativas debido a que el origen general del sistema es el origen

del brazo robótico. Como se observa en las figuras 3.17 y 3.18 las coordenadas de la

cámara y las coordenadas del brazo robótico son diferentes por lo que se tiene que hacer

una traslación de coordenadas.

Figura 2-17: Coordenadas de la cámara derecha. [42]

37
!

Figura 2-18: Coordenadas del brazo robótico. [33]

Para realizar la transformación de coordenadas se tiene que definir una posición inicial

del brazo robótico. En la tabla 2.9 se muestra las posiciones en las cuales se probaron poner

el brazo para ser la posición inicial.

Tabla 2-9: Elección de la posición origen del brazo. Fuente propia.

Posición X,Y,Z respecto al brazo Observaciones


robótico
0.35,-0.36, 0.30 La posición es muy alta no se visualiza
nada que tenga como base una mesa al
mismo nivel que la base del brazo
robótico.
0.35,-0.36, 0.05 En esta posición si se observa los objetos
que tenga como base una mesa al mismo
nivel que la base del brazo robótico, pero
su rango de operación es muy pequeño
debido a que está muy lejos de la base del
brazo robótico
0.30,-0.30,0.05 En esta posición si se observa los objetos
que tenga como base una mesa al mismo
nivel que la base del brazo robótico, pero
su rango de operación sigue siendo muy
pequeño, se puede mejorar.
0.21,-0.21,0.05 Esta posición es la ideal debido a que es
la posición del brazo robótico más cerca
a la base del brazo robótico sin causar
choques consigo mismo y su rango de
visión sí observa a los objetos que tenga
como base una mesa al mismo nivel que
la base del brazo robótico.

38
!

En la figura 2.19 se observa al brazo robótico en la posición 0.21, -0.21, 0.05

Figura 2-19: Posición de origen del movimiento del brazo robótico. Fuente propia.

Ya obtenida la posición inicial del brazo robótico se realiza el cálculo de transformación

de coordenadas de la cámara a las coordenadas del brazo robótico con origen en su base.

En la figura 2.20 se muestra las coordenadas vistas desde arriba.

Figura 2-20: Coordenadas relativos y absolutas del sistema. Fuente propia.

39
!

Las traslaciones de coordenadas se muestran en las siguientes ecuaciones:

Dato de la posición inicial:

𝛼 + 𝛽 = 120°;

Ecuaciones generales:

𝑧′
(𝑥 ′ ∗cos(𝑎𝑟𝑡𝑎𝑛( ′ )−(𝛼+𝛽)°))
𝑥
𝑥 = 0.21 + 𝑧′
;
cos(arctan( ′ ))
𝑥

𝑧′
(𝑧 ′ ∗sen(𝑎𝑟𝑡𝑎𝑛( ′ )−(𝛼+𝛽)°))
𝑥
𝑦 = −0.27 + 𝑧′
;
sen(arctan( ′ ))
𝑥

Donde 𝛼 y 𝛽 son los ángulos de posición del objeto con respecto a la cámara teniendo

como ejes de origen X, X’ respectivamente. Con estas ecuaciones se logra la

transformación exitosa de las coordenadas del objeto que estaban respecto a la cámara

ahora están respecto a la base del brazo robótico.

2.5 Sistema mecánico

2.5.1 Diseño de soporte brazo robótico

El sistema mecánico se basa en el montaje del brazo robótico con la silla de ruedas.

Para ello, se diseñó y se implementó un soporte para el brazo robótico en la silla de ruedas

(figura 2.21).

Figura 2-21: Soporte unión silla de ruedas - brazo robótico. Fuente propia.

40
!

2.5.2 Diseño de soporte de cámaras

Las cámaras se encontrarán en el actuador final del brazo robótico por lo que necesita

un soporte que una el brazo robótico y las cámaras, en la figura 2.22 se muestra el soporte

diseñado para la unión de estos elementos.

Figura 2-22: Soporte unión brazo robótico – cámaras. Fuente propia.

Este soporte fue manufacturado en una impresora 3D, como se muestra en la figura 2.23.

Figura 2-23: Soporte impreso en impresora 3D. Fuente propia.

2.5.3 Montaje del brazo robótico

En la implementación del sistema mecánico, como se puede observar en la figura 2.24,

el soporte unión silla de ruedas y brazo robótico ya se encuentra ensamblado con la silla

de ruedas para su posterior unión con el brazo robótico.

41
!

Figura 2-24: Ensamble silla – soporte. Fuente propia.

En la figura 2.25 se muestra el ensamble completo de silla de ruedas, soporte y brazo

robótico.

Figura 2-25: Ensamble silla – soporte –brazo robótico. Fuente propia.

42
!

2.5.4 Montaje de cámaras

Como se muestra en la figura 2.26 las cámaras ya se encuentran unidas a través de su

soporte con el brazo robótico.

Figura 2-26: Ensamble silla - brazo robótico – cámaras. Fuente propia.

2.6 Sistema de control

El sistema de control es el encargado de recibir las señales provenientes de los

electrodos para su procesamiento y extracción de características, estas señales ya

procesadas serán interpretadas como comandos para el movimiento del brazo robótico.

Para ello se necesita un entrenamiento entre el usuario y el sistema, donde dicho

entrenamiento consistirá generar estímulos visuales independientes y se espera como

respuesta las señales cerebrales generadas por estos estímulos.

Este sistema de control estará implementado en la computadora portátil ya seleccionada

anteriormente.

Los programas a ejecutar son: Visual Studio 2017, Matlab 2016, Ubuntu 16.04.

43
!

 El programa Visual Studio 2017 será ejecutado para la recepción de la señal

cerebral, su procesamiento, extracción de características y también se realizará la

interfaz gráfica en este programa.

 El programa Matlab 2016 será ejecutado para que interactúe con las cámaras y así

capturar de posición del objeto predefinido en el entorno.

 Ubuntu 16.04 será ejecutado para el envío de los comandos de acciones de la silla

de ruedas y el brazo robótico.

2.6.1 Adquisición y procesamiento de la señal cerebral

La adquisición de la señal estará a cargo de EEG g.Nautilus de la empresa g.tec Medical

Engineering GmbH, que utiliza 32 electrodos secos, y muestrea las señales cerebrales con

una frecuencia de 500Hz. Esta adquisición y procesamiento de la señal se realizará

mediante el programa Visual Studio.

Las 32 señales provenientes del EEG, muestreadas a 500 Hz serán filtradas con un filtro

pasabanda Butterworth de orden 10, con frecuencias de corte de 1 Hz y 15 Hz, luego se

tomarán ventanas de un segundo de longitud a partir del inicio del estímulo, y se realizará

downsampling a 50 Hz. En el siguiente paso se aplicará un filtro espacial de Patrones

Espaciales Comunes (CSP), para realizar una reducción dimensional, obteniendo solo 16

canales en el nuevo espacio de las características. Finalmente, se realizará la normalización

de la data en esta nueva ventana, obteniéndose un vector de características final que se

utilizará en el clasificador. En la figura 2.27 se muestra el flujo de procesamiento de las

señales cerebrales.

44
!

Figura 2-27: Flujo de procesamiento de la señal y extracción de sus características. Fuente propia.

2.6.2 Detección de la señal EEG

Como se explicó en el capítulo anterior se utilizará para la adquisición de señales

cerebrales el equipo EEG g.Nautilus, su correcta colocación en la cabeza se presenta en la

figura 2.28.

Figura 2-28: Colocación del EEG EEG g.Nautilus correctamente. Fuente propia.

La interfaz gráfica comenzará a parpadear cíclicamente, en donde primero parpadea la

silla de ruedas y después el brazo robótico, cuando la persona está concentrada en el

parpadeo de alguna de esas dos imágenes generará picos de señales cerebrales las cuales

serán interpretadas como una orden en el sistema.

En la figura 2.29 se visualizan dos señales, la señal de la izquierda es la señal cuando

el usuario se concentra en la imagen que parpadea en donde se observar un pico el cual es

interpretado por el sistema como un comando y la señal de la derecha es la señal cuando

el usuario no está concentrado en la imagen que parpadea (estado de relajación).

45
!

Figura 2-29: Señales obtenidas por EEG para estímulo a imágenes P300 (izquierda) y estímulos no objetivos
(derecha). Fuente propia.

2.6.3 Control del brazo robótico

El brazo robótico puede recibir de entrada 2 parámetros: posición final y velocidad de

traslación del efector final. Si el brazo no recibe una velocidad de entrada, este asume una

velocidad 25 cm/s (velocidad máxima de traslación), por lo que también se variará el

parámetro de velocidad de traslación para que se traslade con una velocidad que desacelera

constantemente hasta que llegue a su posición final.

Para generar la señal de velocidad de entrada del efector final del brazo robótico, se

toma la diferencia generada entre el valor de la posición deseada y la posición real dada

por el sensor de posición del brazo robótico, el error resultante entre estas dos posiciones

deberá ser multiplicado por una constante 𝐾, dando como resultado la señal de entrada

velocidad del efector final del brazo robótico.

En la figura 2.30 se muestra el lazo de control del brazo robótico.

46
!

Figura 2-30: Brazo controlado con realimentación de información para cálculo de la velocidad del efector

final del brazo robótico. Fuente Propia.

Así:

𝑉𝑥 = 𝐾. ( 𝑅𝑥 − 𝑌𝑥 ),
𝑉𝑦 = 𝐾. ( 𝑅𝑦 − 𝑌𝑦 ),

𝑉𝑧 = 𝐾. ( 𝑅𝑧 − 𝑌𝑧 ).
Donde “𝑉𝑥 ”, “𝑉𝑦 ”, “𝑉𝑧 ” representan a las velocidades del efector final del brazo

robótico, “𝐾” es la ganancia, “𝑅𝑥 ”, “𝑅𝑦 ”, “𝑅𝑧 ” son las posiciones finales deseadas o de

referencia, “𝑆𝑥 ”, “𝑆𝑦 ”, “𝑆𝑧 ” son las posiciones en tiempo real del efector final del brazo

robótico y “𝑌𝑥 ”, “𝑌𝑦 ”, “𝑌𝑧 ” son las salidas del sensor del posición del efector final del

brazo.

A continuación, se presentan las pruebas que se realizaron con diferentes constantes

multiplicadas con la diferencia de posiciones, en la tabla 2.10.

47
!

Tabla 2-10: Tabla de resultado de control de brazo robótico. Fuente Propia.

Número Distancia Constante de Observaciones


de prueba Recorrida (m) multiplicación
(ganancia
1 0.10 0.01 El movimiento es muy variable
debido a que su oscilación es
excesiva.
2 0.10 0.015 El movimiento sigue siendo muy
inestable.
3 0.10 0.71 El movimiento mejora ya no hay
oscilación, aunque se percibe
oscilaciones.
4 0.10 0.80 El movimiento es preciso y el
tiempo de llegada a la posición
final es el deseado (3s).
5 0.20 1.00 El tiempo de respuesta al
movimiento es muy rápido lo cual
implica exigir al robot, además no
es preciso debido a que la
distancia recorrida no es a
deseada.

Como resultado a las pruebas realizadas con el brazo robótico se realizará el control

de movimiento del brazo con una ganancia (k=0.80) la cual será multiplicada con el error

entre la posición deseada y la posición actual, este resultado será la velocidad del efector

final que se le dará al brazo robótico, esta velocidad será descendiente hasta llegar a 0

donde sería su posición final.

2.6.4 Diagrama de flujo del sistema

En la figura 2.31 se muestra en diagrama de flujo general del sistema, el sistema inicia

con la configuración inicial en donde se energiza todo el sistema, después de ya realizada

la esta primera etapa, se da inicio a la interfaz gráfica donde el usuario podrá seleccionar

entre la silla de ruedas y el brazo robótico, según las necesidades que tenga el usuario con

ayuda del paradigma P300 y el EEG g.Nautilus, siguiendo con el proceso, las funciones

varían si se escoge la silla de ruedas o el brazo robótico, en caso se escoja el brazo robótico

se realiza la sub-rutina “Realizar tareas predefinidas del brazo” esta sub-rutina se muestra

48
!

en la figura 2.32 después de realizar la tarea se pregunta si se quiere dejar de usar el

sistema, si la respuesta es “Sí” se finaliza el programa y si la respuesta es “No” se vuelve

al inicio del programa principal para seguir siendo ejecutado.

Figura 2-31: Diagrama de flujo general del proyecto. Fuente propia.

En la Figura 2.32 se muestra la subrutina que sigue el brazo robótico para la realización

de sus tareas, para la ejecución de esta subrutina se hace uso de dos cámaras, las cuales

toman una fotografía de la escena cada una.

49
!

Figura 2-32: Subrutina “Realizar tareas predefinidas del brazo”. Fuente propia.

Ya obtenidas las coordenadas XYZ del objeto predefinido, ahora se necesita enviar las

coordenadas al brazo robótico, para este proceso se escogió utilizar el protocolo de control

de transmisión (TCP) realizando la comunicación en entre el Matlab - cliente (programa

donde se programó la cámara) y Terminal Ubuntu de máquina virtual - servidor (programa

donde se ejecutará las tareas predefinidas del brazo).Se escogió este protocolo de control

de transmisión debido a que permite que dos máquinas que están comunicadas controlen

el estado de la transmisión, la comunicación es como se muestra en la figura 2.33.

50
!

Figura 2-33: Diagrama de Flujo del Cliente y Servidor respectivamente. Fuente propia.

2.6.5 Flujo de trabajo del sistema

Para la elaboración del flujo de trabajo se tiene que tener clara la estructura de funciones

del sistema, la cual se puede observar en el Anexo F. En la figura 2.34 se muestra el flujo

de trabajo de todo el sistema, desde la interacción del usuario con el sistema, hasta el

resultado final que son las acciones comandadas por las señales cerebrales de la persona.

Figura 2-34: Flujo de trabajo del sistema. Fuente propia

51
!

3 COSTOS DEL SISTEMA

Gracias al apoyo del Grupo de Investigación en Robótica Aplicada y Biomecánica

(GIRAB) de la Pontificia Universidad Católica del Perú y el Centro de Tecnologías

Avanzadas de Manufactura. Se contó con los dispositivos G.Nautilus, brazo robótico

Kinova Mico 2, silla de ruedas eléctrica Optimus 2. Para fines de la tesis se considera los

costos de cada uno de estos elementos como referencia. En la tabla 3.1 se detalla los precios

de todos los componentes del sistema.

Tabla 3-1: Tabla de precios de componentes del sistema robótico. Fuente propia.

Ítem Componentes Detalle Cantidad Precio Total (S/.)


1 Electrodos no g.Nautilus 32 1 60,705.16
invasivos Channels
2 Brazo robótico Kinova Mico 2 1 82,608.64
3 Silla de ruedas Optimus 2 1 28,948.43
4 Cámaras Logitech C525 2 400.00
5 Laptop K555UQ-XX002 1 3,274.00
6 Electrodos parches 3M 50 50.00
175,986.23

: Componentes prestados por Grupo de Investigación en Robótica Aplicada y

Biomecánica (GIRAB) de la Pontificia Universidad Católica del Perú y el Centro de

Tecnologías Avanzadas de Manufactura.

3.1 Costos de diseño:

En la tabla 3.2 se muestra las horas empleadas para el diseño de cada dominio presente

en este trabajo de tesis. La suma total en el diseño de la tesis es de S/. 1,800.00.

Tabla 3-2: Tabla de horas empleadas en el diseño. Fuente propia.

Ítem Concepto Horas Costo Precio Total


Unitario (S/.)
1 Dominio mecánico 30 20.00 600.00
2 Dominio 30 20.00 600.00
eléctrico/electrónico
3 Dominio de control 30 20.00 600.00
1,800.00

52
!

3.2 Costos de fabricación:

En la tabla 3.3 se muestra los componentes que se mandaron a fabricar para la

integración del sistema robótico. La suma total en la fabricación de componentes es de S/.

300.00.

Tabla 3-3: Componentes a fabricar. Fuente propia.

Ítem Componentes Cantidad Costo Precio Total


Unitario (S/.)
1 Soporte de brazo 1 180.00 180.00
robótico
2 Soporte de cámaras 1 150.00 150.00
330.00

3.3 Costos de programación:

En la tabla 3.4 se muestra el detallado de los costos de programación necesarios para la

implementación del sistema robótico, tomando en cuenta un costo de programación de S/.

30.00 por hora, donde las horas totales empleadas para la programación del sistema

robótico asistencial son de 42 horas, nos da un total de S/. 1200.00.

Tabla 3-4: Tabla con horas de programación. Fuente propia.

Ítem Tarea Horas Costo Precio Total


Unitario (S/.)
1 Configuración del software 3 30.00 90.00
2 Configuración de protocolos de 4 30.00 120.00
comunicación
3 Programación de detección de 10 30.00 300.00
objetos
4 Programación de movimientos 10 30.00 300.00
del brazo robótico
5 Procesamiento de la señal EEG 10 30.00 300.00
y programación de órdenes de
trabajo para el brazo robótico
6 Integración del sistema robótico 5 30.00 150.00
1,200.00

53
!

3.4 Costos de pruebas

En la tabla 3.5 se muestra los costos de la calibración y pruebas para la integración del

sistema, tomando en cuenta un precio por hora de S/. 30.00 y donde las horas totales

empleadas en las pruebas fue de 63 horas, nos da un total de S/. 1890.00.

Tabla 3-5: Tabla de costos de pruebas.

Ítem Tarea Horas Costo Precio Total


Unitario (S/.)
1 Calibración de cámaras 5 30.00 150.00
2 Pruebas de detección de objetos 10 30.00 300.00
3 Pruebas de movimiento de brazo 8 30.00 240.00
robótico
4 Pruebas de integración entre brazo 15 30.00 450.00
y cámaras
5 Pruebas de integración de todo el 15 30.00 450.00
sistema robótico
6 Pruebas del sistema con personas 10 30.00 300.00
1,890.00

3.5 Costos totales

En la tabla 3.6 se muestra los costos totales de cada concepto.

Tabla 3-6: Tabla general con los gastos totales

Ítem Conceptos Sub Total


(S/.)
1 Costos de componentes (Considerando precios de equipos 175,986.23
prestados)
2 Costos de diseño 1,800.00
3 Costos de fabricación 330.00
4 Costos de programación 1,200.00
5 Costos de pruebas 1,890.00
Total 181,206.23

54
!

4 EXPERIMENTOS Y RESULTADOS

En este capítulo se exponen los experimentos realizado como también los resultados

que se obtuvieron de dichos experimentos.

Para la realización de los experimentos con personas, se dividió en 2 sesiones, la sesión

de adquisición de señales y la sesión de control de sistema robótico.

4.1 Requisitos para el experimento

Para la realización del experimento con personas, se tiene que tener en cuenta los

siguientes requisitos que deben de cumplir las personas que participarán en el experimento:

 Ser mayor de edad.

 La noche anterior haber dormido alrededor de 8 horas.

 No presentar en el cabello ningún tipo de producto químico.

 Firmar consentimiento para someterse a pruebas con el sistema BCI.

En la tabla 4.1, se muestra las características de los usuarios que participaron en los

experimentos con el sistema, cabe recalcar como se dijo al inicio de la presente tesis, los

experimentos se realizaron con personas sanas.

Tabla 4-1 Características del usuario. Fuente propia.

Paciente Edad ¿Usa Altura Peso Ocupación Horas que Sexo


(años) lentes? (m) (kg) durmió
antes del
experimento
1 22 Si 1.72 80 Estudiante 8 Masculino
2 21 No 1.70 68 Estudiante 7 Masculino
3 24 No 1.74 83 Estudiante 7 Masculino
4 24 Si 1.51 55 Estudiante 8 Femenino
5 22 No 1.75 60 Estudiante 7 Masculino
6 23 Si 1.47 54 Estudiante 8 Femenino
7 26 No 1.41 45 Investigadora 6 Femenino
8 21 Si 1.60 55 Estudiante 7 Femenino
9 20 Si 1.55 56 Estudiante 7 Femenino

55
!

4.2 Primera sesión

Al inicio de la primera sesión se le explica al paciente a grandes rasgos de que se va a

tratar la experiencia como también la manera en que se debe de sentar y mirar la interfaz

gráfica para una correcta adquisición de señales cerebrales (figura 4.1).

Figura 4-1 Posición correcta para las sesiones. Fuente propia.

En esta sesión se capturan las señales cerebrales del usuario (figura 3.27), donde la

finalidad de esta experiencia es entrenar al sistema con las señales cerebrales del usuario. A

esta primera sesión se la denominó “off-line”.

Para la adquisición de las señales cerebrales se utilizó la interfaz gráfica como se aprecia

en la figura 4.2, utilizando el paradigma P300, se realizará el flash de las imágenes, donde

serán 5 rutinas de 6 flashes cada imagen, llegando a un total de 30 flashes por imagen. Estas

5 rutinas de deben de repetir 6 veces.

Figura 4-2: Interfaz gráfica. Fuente propia.

56
!

Los resultados de la primera sesión se tienen en la tabla 4.2.

Tabla 4-2 Resultados de la primera sesión. Fuente Propia.

Paciente Porcentaje de Porcentaje de Porcentaje de


eficiencia por 3 eficiencia por 4 eficiencia por 10
flashes (%) flashes (%) flashes (%)
1 83.33 83.33 100
2 91.67 91.67 83.33
3 83.33 75 91.67
4 83.33 91.67 100
5 91.67 91.67 100
6 83.33 83.33 100
7 75 85.35 83.33
8 91.67 91.67 100
9 75 83.33 91.67
Promedio 84.72 86.45 93.05

4.3 Segunda sesión

Previa a esta sesión, se entrena las señales cerebrales, para que el sistema pueda predecir

que objeto se está observando.

La segunda parte consiste en comandar el sistema ya entrenado con las señales de un

usuario específico, a esta parte se la denominó “on-line”. Cabe resaltar que para la

realización de estas 2 partes se realizan en días diferentes, debido a que el cansancio visual

puede ser muy agotador para algunas personas provocando sueño, lo cual provocaría error

en la predicción de figuras.

Para esta segunda sesión se realizará el flasheo de las imágenes con 4 flashes cada

imagen.

En la siguiente tabla 4.3 se muestra los resultados de las pruebas del brazo robótico

dirigiéndose al objeto (figura 4.3).

57
!

Tabla 4-3: Resultados de pruebas de sujeción de objetos. Fuente propia.

Paciente Objeto Error (X,Y,Z) en ¿LLEGÓ AL


dejar el objeto en OBJETIVO?
posición final (mm)
1 Botella Coca Cola 3,3,1 Sí
Lata de Atún 3,2,3 Sí
Botella de agua oxigenada 2,2,2 Sí
Desodorante 2,1,3 Sí
2 Botella Coca Cola 5,3,5 Sí
Lata de Atún 3,3,4 Sí
Botella de agua oxigenada 4,2,3 Sí
Desodorante 0,0,2 Sí
3 Botella Coca Cola 3,2,3 Sí
Lata de Atún 2,2,2 Sí
Botella de agua oxigenada 2,1,3 Sí
Desodorante 5,3,5 Sí
4 Botella Coca Cola 4,2,3 Sí
Lata de Atún 2,0,2 Sí
Botella de agua oxigenada 3,2,3 Sí
Desodorante 2,2,2 Sí
5 Botella Coca Cola 2,2,3 Sí
Lata de Atún 2,1,3 Sí
Botella de agua oxigenada 6,0,5 Sí
Desodorante 4,2,3 Sí
6 Botella Coca Cola 0,2,2 Sí
Lata de Atún 3,2,3 Sí
Botella de agua oxigenada 0,5,1 Sí
Desodorante 3,2,3 Sí
7 Botella Coca Cola 2,2,2 Sí
Lata de Atún 2,2,3 Sí
Botella de agua oxigenada 2,1,3 Sí
Desodorante 3,2,5 Sí
8 Botella Coca Cola 4,2,3 Sí
Lata de Atún 2,4,2 Sí
Botella de agua oxigenada 3,2,3 Sí
Desodorante 2,2,4 Sí
9 Botella Coca Cola 2,5,3 Sí
Lata de Atún 2,1,3 Sí
Botella de agua oxigenada 7,2,5 Sí
Desodorante 4,2,3 Sí

58
!

Figura 4-3: Desarrollo de prueba de sujeción. Fuente propia.

59
!

5 CONCLUSIONES

 Conforme a los resultados obtenidos de los experimentos con personas sanas, se

concluye que la integración de un sistema robótico asistencial controlado por una

interfaz cerebro computador puede tener grandes éxitos con personas que sufren

discapacidad motora debido a que ha cumplido los requerimientos planteados al

inicio del proyecto, realizar tareas cotidianas de una persona como son mover

objetos a cortas distancias.

 Se ha implementado un sistema de visión artificial de reconocimientos de objetos

teniendo un error promedio casi despreciable (4.75 milímetros). A pesar de este

error, el robot alcanzo el objeto y culmino con las tareas predefinidas.

 La interfaz cerebro computador basada en P300 ha obtenido unos resultados

favorables con sujetos sanos, donde cada sujeto cumplió al 100% con los objetivos

planteados en las pruebas, por lo cual se puede asumir que se tendrá resultados

favorables también con personas con discapacidad motora, debido a que el P300 es

un paradigma en respuesta a estímulos visuales.

60
!

6 RECOMENDACIONES

El brazo robótico empleado en los experimentos solo cumplía la función de trasladar

objetos, se puede diseñar un mecanismo que no solo realice estas funciones y que sea

multifuncional para tener más aplicaciones, como por ejemplo saludar a personas, escribir,

etc.

El sistema BCI utilizado en la tesis es un sistema básico, debido a la falta de experiencia

en el desarrollo de estos sistemas BCI. Esto implica que el sistema genera un grado de

error, esto se puede mejorar realizando mayor cantidad de entrenamiento entre el usuario

y el sistema, este grado de error sería el de reconocer las órdenes dadas por el usuario.

En el sistema de visión artificial, siempre se tiene que estar protegiendo el lente de la

cámara debido a que la limpieza y el cuidado de la cámara influye en la detección de los

objetos.

Se recomienda usar 2 computadoras o procesadores para distribuir mejor el trabajo

debido a que si una computadora se encarga del control de todo el sistema, el sistema se

vuelve más lento, esto también significaría encarecer el sistema un 5% del total.

61
!

7 BIBLIOGRAFIA

[1] Organización Mundial de la Salud (OMS).

2011 Discapacidad en el mundo. Consulta: 16 de agosto 2017

http://www.citamericas.org/arquivos/8eb24c8f67879c1b5b9bfdef68ba48f2.pdf

[2] Perú 21.

2013 El 5.2% de peruanos tiene algún tipo de discapacidad. Consulta: 30 de agosto

2017

https://peru21.pe/lima/5-2-peruanos-tipo-discapacidad-115645

[3] Fernández Lerones MJ, De la Fuente Rodríguez A.

2010 “Esclerosis lateral amiotrófica”. Caso clínico. Cantabria, volumen VI,

número 1, pp. 568-569. Consulta: 04 de septiembre 2017

http://mgyf.org/wp-content/uploads/2017/revistas_antes/revista_130/568-570.pdf

[4] RTVE.

2016 “Una de cada 400 personas en España padecerá esclerosis lateral

amiotrófica (ELA)”. Consulta: 31 de agosto 2017

http://www.rtve.es/noticias/20160620/cada-400-personas-espana-padecera-

ela/1360461.shtml

[5] INEI

2013 En el Perú 1 millón 575 mil personas presentan algún tipo de discapacidad.

Consulta: 2 de febrero de 2018.

62
!

https://www.inei.gob.pe/prensa/noticias/en-el-peru-1-millon-575-mil-personas-

presentan-alg/

[6] Bustamante Mungarro Jesús Manuel

2010 Discapacidad motora – Tratamientos. Consulta: 10 de septiembre de 2017.

http://dmotora.blogspot.pe/

[7] Física con ordenador

2015 Principio de Arquímedes. Consulta: 10 de septiembre de 2017.

http://www.sc.ehu.es/sbweb/fisica/fluidos/estatica/arquimedes/arquimedes.htm

[8] Perez Carol Tatiana y Reyes Soto

2008 Terapia acuática para niños con discapacidad motriz. Consulta: 11 de

septiembre de 2017.

https://www.efisioterapia.net/articulos/terapia-acuatica-ninos-discapacidad-motriz

[9] F. Orient-López, R. Terré-Boliart, D. Guevara-Espinosa, M. Bernabeu-Guitart

2006 “Tratamiento neurorrehabilitador de la esclerosis lateral amiotrófica”.

Barcelona, número 38, pp. 549-555. Consulta: 11 de septiembre de 2017.

[10] Nicolás Alonso Luis Fernando y Gomez Gil Jaime.

2012 Brain Computer Interfaces, a Review. Consulta: 23 de agosto 2017

http://www.mdpi.com/1424-8220/12/2/1211/htm

[11] Achanccaray David, Flores Christian y Fonseca Chirstian.

2017 A P300-based brain computer interface for smart home interaction through an

ANFIS ensemble. Consulta: 28 de agosto 2017

http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8015770

63
!

[12] Nijholt Anton.

2008 BCI for Games: A “State of the Art” Survey. Consulta: 31 de agosto 2017

https://link.springer.com/content/pdf/10.1007%2F978-3-540-89222-9_29.pdf

[13] Chung-Min Wu, Yeou-Jiunn Chen y Ilham A. E. Zaeni

2016 A new SSVEP based BCI application on the mobile robot in a maze game.

Consulta: 31 de agosto 2017

http://ieeexplore.ieee.org/document/7840197/

[14] Grupo de Robótica, Percepción y Tiempo Real.

2011 Tecnología de Interfaz Cerebro – Computador. Consulta: 02 de septiembre

2017.

https://webdiis.unizar.es/~jminguez/Sesion001_UJI.pdf

[15] Fearon C, Murray B, Mitsumoto H.

2005 Esclerosis lateral amiotrófica (ELA). Consulta: Consulta: 01 de septiembre

2017.

https://medlineplus.gov/spanish/ency/article/000688.htm

[16] Velasco Álvarez, Francisco.

2012 Interfaz cerebro-computadora: paradigmas de navegación basados en una

tarea de imaginación motora. Consulta: 04 de septiembre 2017.

http://www.diana.uma.es/administrator/components/com_jresearch/files/publications/

Tesis_VelascoAlvarez.pdf

[17] Psicología de la percepción visual.

2005 Las ondas cerebrales. Consulta: 07 de septiembre 2017.

64
!

http://www.ub.edu/pa1/node/130

[18] Donchin, E.

2000 Potenciales relacionados con eventos. Consulta: 04 de septiembre 2017.

http://www.facmed.unam.mx/Libro-NeuroFisio/10-Sistema%20Motor/10a-

Movimiento/Textos/ERP.html

[19] A. García Pablo, M. Spinelli Enrique, M. Toccaceli Graciela

2011 Interfaz Cerebro Computador basada en potenciales evocados visuales de

estado estacionario: ensayos preliminares. Consulta: 06 de septiembre 2017.

http://www.sabi2011.fi.mdp.edu.ar/proceedings/SABI/Pdf/SABI2011_47.pdf

[20] A.L. Miguel, A. Baccala Luis, C.S. Lin Rick y K. Chapin John.

1995 Sensorimotor Encoding by Synchronous Neural Ensemble Activity at Multiple

Levels of the Somatosensory System. Consulta: 07 de septiembre 2017.

https://science.sciencemag.org/content/268/5215/1353/tab-pdf

[21] Prashant Parmar, Joshi Anand, Gandhi Vaibhav.

2013 Brain Computer Interface: A Review. Consulta: 08de septiembre 2017.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3304110/

[22] Hornero Roberto, Corralejo Rebeca y Álvarez Daniel

2010 Brain-Computer Interface (BCI) aplicado al entrenamiento cognitivo y control

domótico para prevenir los efectos del envejecimiento. Consulta: 08 de septiembre

2017.

http://envejecimiento.csic.es/documentos/documentos/lychnos08-hornero-

braincomputer-01.pdf

65
!

[23] SourceForge.

2011 OpenEEG- Active Electrodes for the modularEEG. Consulta: 08 de septiembre

2017.

http://openeeg.sourceforge.net/doc/hw/ae.html

[24] Biosemi Group.

2010 EEG signals, what are the advantages of Active electrodes with respect to

shielding? Consulta: 09 de septiembre 2017.

http://www.biosemi.com/faq/shielding%20vs%20active%20electrodes.htm

[25] Orozco Marcela Diana y Nieto Natalia.

2008 “El uso de la transformada wavelet discreta en la reconstrucción de señales

senosoidales”. Pereira, número 38, pp. 381-385. Consulta: 09 de septiembre

2017.

[26] Dra. María del Pilar Gómez Gil.

2017 Procesamiento digital de señales. Consulta: 03 de marzo 2018.

http://ccc.inaoep.mx/~pgomez/cursos/pds/slides/S10-FiltrosLMS.pdf

[27] JOHN EDISON MUNOZ CARDONA.

2014 Patrones de imaginación motora en una interfaz cerebro computador de bajo

costo usando software libre. Consulta: 05 de marzo 2018.

https://docplayer.es/33514551-Clasificacion-de-patrones-de-imaginacion-motora-en-

una-interfaz-cerebro-computador-de-bajo-costo-usando-software-libre.html

[28] Prof. J.L. Pons y Dr. Juan Moreno

2008 Robotic Physical Therapies in Stroke Rehabilitation of

66
!

Gait Disorders. Consulta: 15 de diciembre 2017.

http://myexs.ru/wp-content/uploads/2012/05/BETTER_Strep_v2.4-3.pdf

[29] PHYSORG.

2007 Brain2Robot. Consulta: 15 de diciembre 2017

https://phys.org/news/2007-11-brain2robot.html

[30] Valeria Lanas

2012 Tabla de equivalencias de las medidas por tallas. Consulta: 10 de diciembre

2017.

https://www.valerialanas.com/es/mas-para-ti/tabla-de-equivalencias-de-las-medidas-por-

tallas/

[31] BBC

2014 Las increíbles extremidades del ser humano: manos y pies. Consulta: 10 de

diciembre 2017.

https://www.bbc.com/mundo/noticias/2014/03/140227_ciencia_manos_y_pies_jgc_fi

nde

[32] Ros Components.

2016 LWA 4D. Consulta: 10 de octubre 2017.

https://www.roscomponents.com/es/15-brazos-roboticos

[33] Kinova Robotics.

2017 Kinova Mico-2. Consulta: 12 de octubre 2017

67
!

https://www.kinovarobotics.com/en/products/assistive-technologies

[34] Festo

2017 BionicCobot. Consulta: 08 de noviembre 2017

https://www.festo.com/group/en/cms/12746.htm

[35] Meyra

2016 Optimus 2. Consulta: 14 de noviembre 2017

2015 https://www.meyra.com/wheelchairs/productetails/product-47/

[36] Meyra

2015 iChair mc1. Consulta: 14 de noviembre 2017

https://www.meyra.com/wheelchairs/e-power/e-power-wheelchair-details/product-43/

[37] Meyra

2015 Nemo Vertical. Consulta: 14 de noviembre 2017

https://www.meyra.com/fileadmin/user_upload/pdf/downloads/english/e-power/1595-

Nemo-Vertikal-GB-PLohne-2017.pdf

[38] Meyra

2015 Clou 9.500. Consulta: 14 de noviembre 2017

https://www.meyra.co.uk/wheelchairs/productetails/product-42/

[39] Meyra

2015 Solero Light 9.072. Consulta: 14 de noviembre 2017

https://www.meyra.com/wheelchairs/productetails/product-25/

[40] ASUS

68
!

2017 K555UQ-XX002. Consulta: 14 de noviembre 2017

https://www.asus.com/es/Laptops/

[41] División de Estudios de Posgrado e Investigación

2015 Comparación de mediciones de profundidad entre un sistema de visión en

estéreo y un sensor RGBD. Consulta: 15 de marzo de 2018

https://www.researchgate.net/profile/Elisabet_Gonzalez/publication/311643542_Com

paracion_de_Mediciones_de_Profundidad_entre_un_Sistema_de_Vision_en_Estereo_

y_un_Sensor_RGBD/links/5851aea708ae7d33e016ee47/Comparacion-de-

Mediciones-de-Profundidad-entre-un-Sistema-de-Vision-en-Estereo-y-un-Sensor-

RGBD.pdf

[42] LOGITECH

2016 HD WEBCAM C525. Consulta: 15 de marzo de 2018

https://www.logitech.com/es-es/product/hd-webcam-c525?crid=34

[43] Universidad del Norte Santo Tomás de Aquino - Facultad de Ingeniería

2009 Técnicas de Implementación de Visión Estereoscópica en Robótica. Consulta:

20 de marzo de 2018

http://42jaiio.sadio.org.ar/proceedings/simposios/Trabajos/EST/29.pdf

[44] EL DIA

2017 Un robot ayuda a personas con discapacidad a desenvolverse. Consulta: 1 de

febrero de 2019

https://eldia.es/sociedad/2017-05-01/9-robot-ayuda-personas-discapacidad-

desenvolverse.htm

69
ÍNDICE DE ANEXOS
Anexo A: Lista de exigencias.
Anexo B: Conceptos de solución para el sistema mecánico.
Anexo C: Conceptos de solución para el sistema eléctrico.
Anexo D: Conceptos de solución para el sistema control.
Anexo E: Conceptos de solución para el sistema de visión.
Anexo F: Estructura de funciones.
Anexo G: Guía de instalación de brazo robótico en la computadora.
Anexo H: Guía de uso del brazo robótico
Anexo I: Planos
Anexo A: Lista de exigencias
LISTA DE EXIGENCIAS Fecha: 01/09/2017
Integración de un sistema robótico asistencial controlado
mediante una interfaz cerebro computador para personas con Revisado:
PROYECTO: discapacidad motora. Achanccaray Díaz
Elaborado:
CLIENTE: PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ Jairo Pirca C.
N° TIPO DESCRIPCIÓN RESPONSABLE

FUNCIÓN PRINCIPAL:
1 E • Mover un brazo robótico automáticamente con señales Jairo Pirca C.
cerebrales de una persona, a través de una interfaz
cerebro computador.

CINEMÁTICA:
2 E • Movimiento de brazo robótico en el plano XYZ a un Jairo Pirca C.
rango de aproximadamente de 60 cm de extensión.

CAPACIDAD:
3 E • El sistema soportará el peso persona de hasta 90kg Jairo Pirca C.
asegurando el buen funcionamiento del sistema.

PARADIGMA:
4 E • Uso del paradigma P300 para la adquisición y Jairo Pirca C.
procesamiento de señales cerebrales.

INTERFAZ GRÁFICA:
5 E • Interfaz gráfica para interacción entre el sistema Jairo Pirca C.
mecatrónico y el usuario.

SEGURIDAD:
7 E • El sistema será diseñado e implementado de tal forma Jairo Pirca C.
que no ponga en riesgo ni la seguridad del usuario ni la
seguridad ambiental.

MANTENIMIENTO:

8 E • La instalación y la distribución de los componentes de la Jairo Pirca C.


máquina que requieran mantenimiento o reemplazo serán
de fácil acceso.
N° TIPO DESCRIPCIÓN RESPONSABLE
USO:

El sistema se diseñará e implementará de forma que su
9 E uso sea de fácil acceso para el usuario además se Jairo Pirca C.
realizará una capacitación para su uso.
• El sistema está diseñado para realizar su trabajo en zonas
urbanas y realizar tareas cotidianas.
GEOMETRÍA:
10 D Jairo Pirca C.

El espacio ocupado por la máquina no podrá exceder
1,40 x 1,10 x1,40 [m.] (L x An x Al).
MONTAJE Y PORTABILIDAD:

11 E • El montaje de la máquina debe ser de rápida instalación Jairo Pirca C.


y de fácil comprensión para los operarios; asimismo, el
desmontaje deberá ser rápido y simple para el posterior
traslado y así poder usarla en diferentes lugares.
ENERGÍA:
• La máquina recibirá energía eléctrica de una batería
12 E externa que alimentará todo el sistema. Jairo Pirca C.
• Salida de energía en forma de calor y/o ruido en los
componentes de la máquina

ERGONOMÍA:
• La ubicación de la interfaz gráfica será de tal forma que
13 D sea de fácil observación para el usuario. Jairo Pirca C.
• La altura aproximada donde se encontrará la interfaz
gráfica es de 1.30 m.

FABRICACIÓN:
14 D •Los materiales y tecnologías elegidas para la fabricación Jairo Pirca C.
y el ensamble deben ser comerciales que permitan ser
adquiridos en el mercado local a la medida de lo posible.
PLAZO DE ENTREGA:
16 E Jairo Pirca C.
• La entrega de la tesis concluida se realizará el
27.12.2017

E: EXIGENCIA
D: DESEO
Anexo B: Conceptos de solución para el sistema mecánico.

Dominio mecánico

Matriz morfológica

Función Alternativa 1 Alternativa 2 Alternativa 3


Silla de Ruedas Grúa Camilla
Eléctrica

Mover al
usuario

Brazo robótico Pinzas Transporte por


con pinzas rodillos
Recoger el
objeto

Faja Brazo robótico


transportadora

Trasladar el
objeto

Poleas Faja transportadora Brazo robótico

Dejar el
objeto

Solución 1:
Solución 2:
Solución 3:
Tabla 1: Cuadro comparativo entre silla de ruedas
Airwheel h3 R120 optimus 2
Características panasonic
Cant. de personas 1 1 1
Velocidad 6 km/h 5 km/h 6 km/h
RPM 4500 3800 4200
Peso máximo 130kg 114 kg 120 kg
Radio de giro 1.2m 1.1 m 1.2 m
Tiempo de carga 8 horas 8 horas 8 horas

Batería litio 24v litio 24v litio 24v


Dimensiones 98x96x63 cm 56x67x63 cm 108x67x91cm

Potencia 120 w 180 w 120 w


Peso neto 30.5 kg 44kg 48 kg
Precio $ 1,950.00 $ 1,788.87 $ 1,225.00

Evaluación técnico – económica

En las tabla 2 se observa la evaluación técnica y evaluación económica de los conceptos

de solución mecánicos.

Puntaje de 0 a 4: 0= No Satisface, 1= Aceptable a las justas, 2= Suficiente,


3= Bien, 4=Muy bien (ideal)

Tabla 2: Evaluación Técnica del Concepto de Solución


Nro. Criterios de Solución 1 Solución 2 Solución 3 Ideal
evaluación
1 Eficiencia 2 2 2 4
energética
2 Seguridad 2 2 3 4
3 Rapidez 3 2 3 4
4 Mantenimiento 2 2 3 4
5 Facilidad de uso 2 2 3 4
6 Cumplimiento en 3 3 3 4
función a la lista de
exigencias
7 Ergonomía 2 3 3 4
8 Tamaño de la 1 1 3 4
máquina
9 Montaje 2 2 2 4
10 Capacidad de la 2 1 2 4
máquina
Total 21 20 27 40
Tabla 3: Evaluación Económica del Concepto de Solución
1 Costo material 2 1 1 4
2 Costo 2 2 2 4
fabricación
3 Costo de 2 3 2 4
mantenimiento
4 Costo mano de 2 2 1 4
obra
5 Número de 2 2 2 4
piezas
6 Facilidad para 2 2 2 4
obtener
componentes
Total 12 12 10 24
Total 33 32 37 64
Acumulado

Solución 3:

Se decidió usar una silla de ruedas eléctrica debido a que en comparación con las demás

alternativas su facilidad de uso es mucho más fácil, para la etapa de recoger objeto se

escogió el mecanismo de 4 barras (brazo robótico) por la precisión y exactitud que es

característico de los brazos robóticos, con respecto a su traslado del objeto, también se

escogió al brazo robótico, así como también se volvió a escoger al brazo para el proceso

de dejar el objeto. Se escogieron estas alternativas debido a que el funcionamiento de

estas son las más óptimas.


Anexo C: Conceptos de solución para el sistema eléctrico.

Dominio eléctrico – electrónico

Matriz morfológica

En función a los distintos componentes encontrados y las distintas formas de unir estos

componentes, se armó la siguiente matriz morfológica en la que se muestran las 3 mejores

soluciones.

Función Alternativa 1 Alternativa 2 Alternativa 3


Batería de Batería recargable Energía solar
vehículos

Fuente de
alimentación

Adquisición de la Electrodos activos Electrodos pasivos


señal secos

Procesador Computadora Microcontrolador

Procesamiento de
la señal

Altavoz pasivo Sirena Altavoz y Sirena

Indicador de
emergencia

Solución 1: Solución 2: Solución 3:


Evaluación técnico – económica

Puntaje de 0 a 4: 0= No Satisface, 1= Aceptable a las justas, 2= Suficiente,


3= Bien, 4=Muy bien (ideal)

Tabla 4: Evaluación Técnica del Concepto de Solución


Nro. Criterios de evaluación Solución 1 Solución 2 Solución 3 Ideal
1 Eficiencia energética 2 2 3 4
2 Seguridad 2 3 2 4
3 Rapidez 1 3 2 4
4 Mantenimiento 2 2 2 4
5 Facilidad de uso 2 3 2 4
6 Cumplimiento en 2 3 3 4
función a la lista de
exigencias
7 Ergonomía 2 2 2 4
8 Tamaño 2 3 2 4
9 Montaje 2 2 2 4
Total 17 23 20 36

Tabla 5: Evaluación Económica del Concepto de Solución


Nro. Criterios de Solución Solución Solución Ideal
evaluación 1 2 3
1 Costo material 2 3 3 4
2 Costo 2 2 2 4
fabricación
3 Costo de 3 3 2 4
mantenimiento
4 Costo mano de 2 3 2 4
obra
5 Número de 2 2 2 4
piezas
6 Facilidad para 3 3 3 4
obtener
componentes
Total 14 16 14 24
Total 31 39 34
Acumulado
Solución 2:

Se decidió usar una batería recargable de una duración aproximada de 8 horas para la

toma de datos se decidió utilizar electrodos activos debido a que son mucho más fáciles

de usar que los electrodos pasivos estas señales serán procesadas y decodificadas en un

computador. Cuando ocurra una falla o haya algún incidente con el sistema se utilizará

una sirena de emergencia para avisar al usuario.


Anexo D: Conceptos de solución para el sistema control.

Dominio control

Matriz morfológica

Tabla 6: Matriz morfológica (Dominio Control)


Función Alternativa 1 Alternativa 2 Alternativa 3
Pantalla táctil Pantalla de Laptop Tablet

Control del
usuario con
el sistema

PlC Controlador Raspberry


Control de
dispositivo
de transporte
de usuario

Java C# Python

Programació
n

Apagado de Botón Llave Palanca


emergencia

Solución 1:
Solución 2:
Solución 3:
Evaluación técnico - económica

Puntaje de 0 a 4: 0= No Satisface, 1= Aceptable a las justas, 2= Suficiente,


3= Bien, 4=Muy bien (ideal)

Tabla 7: Evaluación Técnica del Concepto de Solución


Nro. Criterios de Solución 1 Solución 2 Solución 3 Ideal
evaluación
1 Eficiencia 3 2 3 4
energética
2 Seguridad 3 3 3 4
3 Rapidez 2 2 2 4
4 Manipulación 3 2 3 4
5 Confiabilidad 3 3 3 4
6 Cumplimiento en 3 3 3 4
función a la lista de
exigencias
7 Transportabilidad 3 2 3 4
8 Facilidad de 3 2 2 4
manejo
9 Complejidad 2 2 2 4
Total 25 21 24 36

Tabla 8: Evaluación Económica del Concepto de Solución


Nro. Criterios de Solución Solución Solución Ideal
evaluación 1 2 3
1 Costo material 2 3 2 4
2 Costo 2 2 2 4
fabricación
3 Costo de 1 2 1 4
mantenimiento
4 Costo mano de 2 1 2 4
obra
5 Costo de 2 2 2 4
operación
6 Facilidad para 3 3 3 4
obtener
componentes
SUMA 12 13 12 24
SUMA TOTAL 37 35 36 60
Solución 1:

Nuestra solución óptima se relaciona con la solución óptima del dominio mecánico y

electrónico, pues se determina debido a los actuadores y sensores que se usaran en la

solución. Se elige la solución 1 debido a que la interfaz con el usuario por cuestiones de

dimensiones se elige la pantalla más grande la cual es de una laptop, con un controlador

de motores para los movimientos que se necesiten realizar el lenguaje de programación a

usar será el python debido a la amplia gama de librerías que posee para programar las

soluciones que se encuentren a la modelación del sistema mecánico y electrónico.


ANEXO E: Conceptos de solución para el sistema visión.

Dominio procesamiento de imágenes

Matriz morfológica

Tabla 9: Matriz morfológica (Dominio Procesamiento de imágenes)


Función Alternativa 1 Alternativa 2 Alternativa 3
Recepción de USB SD
la imagen de
referencia

Plantillas
para calibrar
la cámara

Raspberry Logitech HD Logitech HD


NOIR Webcam C525 Webcam C270
Cámara

Procesar Arduino Computadora Raspberry


imagen

Software Aphelion™ Matlab

Solución 1:
Solución 2:
Solución 3:

En esta sección se comparan las características más importantes de las cámaras

disponibles en el mercado para el proyecto.


Tabla 10: Cuadro Comparativo de Cámaras

Modelo Logitech HD Pi NOIR Logitech HD


Webcam C525 Webcam C270

Imagen

Megapixeles 8MP 5MP 8MP

Resolución de video 720p HD 1080p30, 720p60 y 720p HD


640x480p/90

Precio $39 $24 $40

Evaluación Técnico-Económica

Puntaje de 0 a 4: 0= No Satisface, 1= Aceptable a las justas, 2= Suficiente,


3= Bien, 4=Muy bien (ideal)

Tabla 11: Evaluación Técnica del Concepto de Solución


Nro. Criterios de Solución 1 Solución 2 Solución 3 Ideal
evaluación
1 Eficiencia 3 3 3 4
energética
2 Seguridad 3 3 3 4
3 Rapidez 2 3 2 4
4 Mantenimiento 2 2 2 4
5 Facilidad de uso 2 2 2 4
6 Cumplimiento en 3 3 3 4
función a la lista de
exigencias
7 Ergonomía 2 3 2 4
8 Tamaño de la 2 2 2 4
máquina
9 Montaje 2 2 1 4
Total 21 23 20 36

Tabla 12: Evaluación Económica del Concepto de Solución


Nro. Criterios de Solución Solución Solución Ideal
evaluación 1 2 3
1 Costo material 2 2 2 4
2 Costo 2 2 2 4
fabricación
3 Costo de 2 2 2 4
mantenimiento
4 Costo mano de 2 2 2 4
obra
5 Número de 3 3 2 4
piezas
6 Facilidad para 3 3 2 4
obtener
componentes
Total 14 14 12 24
Total 35 37 32 60
Acumulado

Solución óptima 2

Para este dominio se consideró como solución óptima la opción 2. Esto se debe a que se

provechará el uso en otros dominios de la computadora, la calibración se realizará con

una platilla de tablero de ajedrez, debido a que le Matlab tiene una opción de calibración

con esa plantilla para desarrollar proyectos con la cámara; esto nos brinda una mayor

facilidad de obtener librerías, código y aplicaciones. La cámara escogida es de alta

definición por lo que no se tendrá problemas en la captura de imágenes.


Anexo F: Estructura de funciones
Anexo G: Guía de instalación de brazo robótico en la computadora

Guía de instalación (TBD)

Instalación de ROS

Para realizar la instalación de ROS, se deben tomar en cuenta una serie de pasos

específicos. El primero consiste en indicarle al sistema operativo que acepte los paquetes

provenientes del sitio web de ROS, como se muestra en la Figura 1. También será

necesario agregar el key para la descarga correcta de dichos paquetes, indicado en la

Figura 1. Nótese que todos los siguientes procedimientos se realizarán en la ventana de

Terminal del sistema operativo.

Figura 1. Código para agregar dirección de paquete a la lista del sistema operativo.

Figura 1. Código para indicar el key necesario para la descarga de paquetes de ROS.
Luego, para evitar conflictos con la instalación, es necesario asegurarse que el

sistema operativo se encuentre actualizado.

Figura 2. Código para actualizar el sistema operativo.

El siguiente paso consiste en realizar la instalación completa de ROS. Para ello, se

debe utilizar el código mostrado en la X.

Figura 3. Código para instalación completa de ROS.

Una vez realizada la instalación completa, es necesario también inicializar las

dependencias de ROS, como se muestra en la Figura . Luego de realizar dicho

procedimiento, será conveniente actualizar dichas dependencias, utilizando el código

indicado en la Figura 4.
Figura 5. Código para inicializar las dependencias de ROS.

Figura 4. Código para actualizar las referencias de ROS.

A continuación, se realiza un procedimiento conveniente para agregar las variables

de ROS al entorno, desde que este es inicializado, de manera que se pueda disponer de

ellas inmediatamente en cada sesión. El código para agregarlas se muestra en la Figura 5,

mientras que en la Figura 6 se muestra el código para volver a ejecutar el archivo .bashrc,

que se encarga de manejar las variables de entorno.

Figura 5. Código para agregar las variables de ROS al entorno.


Figura 6. Código para ejecutar el archivo.

Finalmente, para instalar con facilidad paquetes adicionales para ROS, se recomienda

instalar la herramienta rosinstall, como se muestra en la Figura 7.

Figura 7. Código para realizar la instalación de rosinstall.

Instalación del programa

Para la conexión entre el software y el brazo, es necesario instalar el archivo

KinovaAPI-5.0.6-amd64.deb, contenido en la carpeta Project. También será necesario

copiar la carpeta catkin_ws al home del sistema operativo, y eliminar los contenidos de la

carpeta interna build. Finalmente, se debe correr el comando mostrado en Figura 8, desde

la ubicación en la carpeta mostrada en la misma figura, lo que compilará el programa.


Figura 8. Código para compilar el programa.
Anexo H: Guía de uso del brazo robótico

Inicio del programa

Primero, con la silla y el brazo conectados a la computadora, se debe abrir la ventana

de Terminal de Ubuntu, para poder ingresar los comandos necesarios para abrir la

interfaz.

Figura 11. Ícono de Terminal en Ubuntu.

A continuación, se debe ejecutar el comando python binit.py, que se encargará de

abrir la interfaz, e inicializar la conexión con el brazo y la silla, enviando los comandos

adecuados.

Figura 12. Código a ejecutar en Terminal para iniciar el programa.


Luego, se podrá observar cómo se abrirán cuatro ventanas adicionales de Terminal

secuencialmente. Dos de ellas están específicamente encargadas de verificar la conexión

correcta de la silla y el brazo. Las otras dos, se encargan de inicializar la interfaz, y el

núcleo de ROS.

Figura 13. Ventanas de Terminal que se abren al ejecutar el programa.

Finalmente, una vez que aparece la interfaz de control, se podrán controlar las tres

velocidades en los ejes, x, y, z, del efector final del robot utilizando las teclas WASDQE,

además de las cuatro direcciones de la silla, adelante, atrás, izquierda y derecha con las

teclas 8456. Las sliders se utilizan para regular los valores de velocidad. Esto podría

considerarse como calibración, para futuros propósitos.

Figura 14. Interfaz para controlar la silla y el brazo.


Detección de errores

Los posibles errores más comunes al utilizar el sistema desarrollado se detallan a

continuación.

Error al inicializar puerto serial

Como se puede observar en la Figura 13, el error es el no encontrar ningún

dispositivo conectado al puerto /dev/ttyUSB0. En este caso, se deben desconectar

todos los dispositivos USB de la computadora, y colocar la conexión a la silla

primero.

Figura 15. Error que aparece cuando la silla no está conectada a la computadora.

Error al inicializar conexión con el robot

Puede ocurrir cuando el robot está siendo manipulado ya con su control, o si no


está en su posición inicial. También puede ocurrir si el robot no ha sido configurado
correctamente, o si la variable robotType no coincide con el tipo del robot.

Figura 16. Mensaje de error que aparece cuando hay algún problema con el brazo.
Anexo I: Planos

En la implementación del sistema, para el correcto funcionamiento del brazo se diseñó

un soporte para el brazo robótico que une el brazo robótico con la silla de ruedas

electrónica.

Los planos de diseño se presentan a continuación:


20,5 20

22,5
2
6X
55

10
70 20
80 40
2
8X

41
90
ACABADO SUPERFICIAL TOLERANCIA GENERAL MATERIAL
DIN 1768
MEDIO
ALUMINIO 6061
PONTIFICIA UNIVERSIDAD CAT LICA DEL PER
FACULTAD DE CIENCIAS E INGENIER A - INGENIER A MECATR NICA
M TODO DE PROYECCI N TRABAJO DE FIN DE CARRERA- A703- 10M1 ESCALA
SOPORTE BRAZO
TOLERANCIAS DIMENSIONALES 1:1
SEG N DIN 7168 ROB TICO
M s de M s de M s de M s de M s de
FECHA:
GRADO DE
EXACTITUD
0,5
hasta
3
hasta
6
hasta
30
hasta
120
hasta
20122951 PIRCA C RDENAS, JAIRO JENER
2017.11.04
3 6 30 120 400
L MINA:
MEDIO 0,1 0,1 0,2 0,3 0,5
P1-A3
40 150

40
450

150
10 1/4
10 1/4

15 1/4 ACABADO SUPERFICIAL TOLERANCIA GENERAL MATERIAL


15 1/4 ACERO ASTM A-36
PONTIFICIA UNIVERSIDAD CAT LICA DEL PER
100 FACULTAD DE CIENCIAS E INGENIER A - INGENIER A MECATR NICA
M TODO DE PROYECCI N TRABAJO DE FIN DE CARRERA - A703 - 10M1 ESCALA
ESTRUCTURA DE
1:5
200 SOPORTE BRAZO
FECHA:
20122951 PIRCA C RDENAS, JAIRO JENER
2017.11.08
L MINA:
P2-A4
6 7 8

2
A DETALLE A
1:2
8 2 TUERCA HEXAGONAL M8 DIN 934 AISI 304
6 2 TOR. CAB. HEXAGONAL M8 x 35 DIN 931-1 8.8
7 4 ARANDELA 8.4 DIN 125 8.8
5 1 SOPORTE BRAZO ALUMNIO
6061
4 1 PLANCHA DE 5MM DE ESPESOR ACERO A-36
3 1 PERFIL CUADRADO 40x40x2.9-200 ACERO A-36
2 1 PERFIL CUADRADO 40x40x2.9-150 ACERO A-36
4 1 1 PERFIL CUADRADO 40x40x2.9-450 ACERO A-36
POS. CANT. DESCRIPCI N NORMA MATERIAL OBSERVACIONES
PONTIFICIA UNIVERSIDAD CAT LICA DEL PER
FACULTAD DE CIENCIAS E INGENIER A - INGENIER A MECATR NICA
M TODO DE PROYECCI N TRABAJO DE FIN DE CARRERA - A703 - 10M1 ESCALA
ENSAMBLE SOPORTE
1 3 1:2
BRAZO
FECHA:
20122951 PIRCA C RDENAS, JAIRO JENER
2017.11.09
L MINA:
P3 - A3

También podría gustarte