Uso de Redes Neuronales Convolucionales en Teléfonos Inteligentes para La Identificación de Enfermedades Cutáneas
Uso de Redes Neuronales Convolucionales en Teléfonos Inteligentes para La Identificación de Enfermedades Cutáneas
Uso de Redes Neuronales Convolucionales en Teléfonos Inteligentes para La Identificación de Enfermedades Cutáneas
net/publication/345808811
CITATIONS READS
0 710
2 authors, including:
SEE PROFILE
All content following this page was uploaded by Jormany Quintero Rojas on 13 November 2020.
1
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
of Kaposi's sarcoma-type diseases. The mobile application developed showed good behavior
despite the low amount of images used for training.
Key words: machine learning; skin diseases; artificial intelligence; mHealth.
Introducción
Las enfermedades cutáneas son un grupo de afecciones de la dermis, caracterizadas por el
cambio de aspecto que presentan en comparación con la piel sana. La presencia de lesiones
en la piel se hace cada vez más común afectando a personas sin importar su edad o género,
esto se debe a la continua exposición al medio ambiente fluctuante actual1. Una temprana
detección de estas lesiones se vuelve vital para la toma de decisión en cuanto al tratamiento
a seguir. Durante la inspección clínica, dependiendo de la experiencia, la pericia y la
precisión, el médico se vale de técnicas y herramientas que lo orientan a un diagnóstico más
cercano al real1. Un mal diagnóstico se traduce en exámenes complementarios innecesarios,
demora en aplicación del tratamiento correcto y propagación de la lesión2,3.
Poder diferenciar el tipo de lesión es un proceso complejo. Para diagnosticar una enfermedad
en la piel se verifica la presencia/ausencia de algunos signos, tales como la morfología,
distribución, color, escalamiento y disposición; si cada uno de estos elementos se analiza por
separado aumenta la dificultad del proceso de reconocimiento de la enfermedad1,4–6. El uso
de sistemas de apoyo computacionales para el diagnóstico de estas lesiones se ha vuelto
imprescindible para el dermatólogo, pudiendo emitir diagnósticos más exactos minimizando
la subjetividad que pudiera aparecer en ausencia de estas herramientas1,3,6,7.
2
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Las redes neuronales convolucionales (RNC) siguen siendo las pioneras en los métodos de
ML usados para diagnóstico médico por destacar su tolerancia a fallos y la facilidad de
inserción con la tecnología existente16,24–26. Estas redes pueden ser configuradas usando
TensorFlow, una librería de código abierto de Google© para entrenar y desarrollar modelos
de ML. La unidad base es el tensor, el cual puede verse como un arreglo de datos
multidimensional que incluye información de las imágenes, el ancho, el largo en pixeles y
cada canal de color8,16.
3
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
La idea de contar con una herramienta que, a partir de una imagen en tiempo real, permita
orientar a un diagnóstico certero aprovechando los recursos de hardware y softwares de los
teléfonos inteligentes, resulta beneficioso para el clínico. Así como también el uso de este
tipo de aplicaciones de apoyo para aquellos médicos que ejercen en poblaciones rurales en
donde el acceso a un dermatólogo es difícil. En este sentido el objetivo de esta investigación
fue desarrollar un prototipo de una aplicación móvil basada en Android para el
reconocimiento de lesiones cutáneas en tiempo real usando redes neuronales
convolucionales.
Materiales y Métodos
a) Descripción de la aplicación móvil
Se desarrolló una aplicación móvil prototipo con fines de investigación llamada PICDiDIT
(Procesador e Identificador Convolucional De imágenes Dermatológicas Implementando
Transferlearning), para ser usada bajo el sistema operativo Android y programada en Android
Studio (Google Inc). Su propósito es identificar lesiones dermatológicas captadas por la
cámara de un smartphone usando RNC como modelo de aprendizaje. Los permisos de
ejecución están establecidos previamente para el uso de la cámara incorporada. Su
funcionamiento se basa en la identificación de una imagen captada por la cámara del teléfono
sin necesidad de fotografiar y almacenar. Este reconocimiento se ejecuta sin conexión a
internet de forma local en tiempo real.
La aplicación móvil posee dos actividades y un servicio general. Una de las actividades
corresponde a la bienvenida de la aplicación, la otra destinada al uso de la cámara,
información y configuración de los parámetros para el procesamiento de las imágenes, en la
Figura 1 se observa una captura de pantalla de la aplicación. El servicio de reconocimiento
prepara la imagen, carga al modelo de RNC, analiza la imagen, realiza inferencias y muestra
los resultados.
A nivel de hardware, PICDiDIT detecta el modelo del dispositivo donde es ejecutada y la
cantidad de hilos de procesamiento disponibles para su funcionamiento óptimo. Para ejecutar
la aplicación móvil es necesario un smartphone que posea un procesador de 1,2 GHz o
superior, memoria RAM de 512 Mb o superior, cámara incorporada superior a 2 Mpx y el
sistema operativo Android KitKat 4.4.2 o superior. Las pruebas de esta aplicación fueron
hechas en dos teléfonos, un Samsung Galaxy S4 mini y un Nokia 7.1.
4
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
b) Procesamiento de la imagen
5
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
c) Modelo de reconocimiento
El modelo usado para el reconocimiento fue Mobilenet V2, un modelo eficiente para ser
ejecutado en aplicaciones móviles. El modo en punto flotante fue elegido para priorizar la
precisión sobre velocidad de reconocimiento. Las capas de la red tienen en su salida una capa
de normalización y un rectificador lineal a excepción de la última capa, la cual está conectada
a una función exponencial normalizada que devuelve la probabilidad de inferencia. Para
ahorrar en tiempo de entrenamiento y tiempo de cómputo se utilizó transfer learning como
técnica de aprendizaje para reentrenar el modelo de RNC y el conversor integrado de la API
de TensorFlow lite para generar el modelo compatible con aplicaciones móviles.
d) Conjunto de Datos
El conjunto de imágenes se obtuvo usando la técnica de web scraping para aquellas
fotografías de acceso público y consultando bancos de imágenes como shutterstock.com,
geosalud.com y istockphoto.com. Se seleccionaron 305 imágenes clínicas repartidas en cinco
clases a identificar como se observa en la Tabla 1. Para ampliar el número de imágenes en la
base de datos se realizaron transformaciones aleatorias lineales como acercamientos y
rotaciones en cada una. El conjunto de datos se separó en dos, el 80% de las imágenes se
usaron para el entrenamiento de la red y el 20% restante para la validación.
Resultados
El entrenamiento del modelo se realizó eligiendo 25 épocas de 500 pasos cada una. Para
medir el rendimiento del entrenamiento se utilizó el gráfico propuesto por TensorFlow que
mide la precisión por épocas y la tasa de sobre-entrenamiento del modelo. La Figura 2
muestra la curva de aprendizaje obtenida, en ella se aprecia que la máxima precisión obtenida
ronda el 68% del conjunto de imágenes usada para la validación.
6
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Para medir la exactitud del modelo se construyó la matriz de confusión mostrada en la Figura
3. Esta matriz describe el rendimiento de la aplicación por cada clase o lesión. Para su
elaboración se utilizó un conjunto de datos no balanceado. Los resultados de esta prueba
develan que el 75% de las lesiones melanoma y psoriasis en placa fueron reconocidas del
conjunto de imágenes de validación, el 67% de las imágenes de dermatitis atópica fue
reconocido y un 40% de imágenes de lesiones de sarcoma de Kaposi fue reconocido. Las
imágenes clasificadas como sin lesión o no reconocidas fueron identificadas correctamente
en un 79% de los casos.
Figura 3. Matriz de confusión desbalanceada del modelo Mobilenet V2 para cada lesión
cutánea
7
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
8
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Discusión
La aplicación móvil desarrollada en este trabajo bajo tecnología Android resultó ser la mejor
opción en cuanto a los costos de sistema operativo y desarrollo de software, ya que las
aplicaciones similares para el diagnóstico de lesiones en piel, son en su mayoría diseñadas
en iOS (Sistema Operativo de Apple), esto implica altos costos en su adquisición,
programación y mantenimiento4. El modelo implementado se fundamentó en RNC para el
reconocimiento de un grupo de lesiones cutáneas, usando para ello transfer learning como
método de aprendizaje, este método es ampliamente usado por muchos sistemas de
reconocimiento basados en ML1,26,27,30–34. Existen sistemas de identificación de lesiones que
usan en sus algoritmos diferentes modelos de RNC, entre estos destacan AlexNet30,
VGGNet26,28 y ResNet31,34–36, cuyo desempeño es similar al modelo usado para este trabajo.
En cuanto al entrenamiento del modelo se ha evidenciado en diferentes investigaciones el
uso TensorFlow1,34,37,38 para aplicaciones móviles y otros programas como MATLAB27–29
para soluciones en computadores de escritorio.
9
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Las lesiones de tipo melanoma, psoriasis en placa y dermatitis atópica, presentaron un buen
desempeño al evaluar las métricas correspondientes a cada lesión. Debido a la importancia
clínica y la severidad asociada, los melanomas son lesiones cutáneas frecuentemente
estudiadas para la identificación por métodos de ML. En este trabajo para la lesión de
melanoma se obtuvo una precisión del 85,2% al igual que otras investigaciones cuya
precisión y desempeño fue similar25,26,30,35,40, otros estudios basados en RNC obtuvieron en
sus resultados un desempeño regular y precisión menor al 80%3,28,42,43, sin embargo hay
evidencia de investigaciones que superan el 90% en la precisión al reconocer
melanomas5,24,31,33,41.
La lesión psoriasis en placa ha sido incluida dentro de otras investigaciones, en las cuales se
ha obtenido con una precisión del 72,2%1 y 80%37, valores próximos al 74,2% obtenido por
la aplicación desarrollada en este trabajo. Las métricas para esta enfermedad se encuentran
dentro del rango considerado como bueno y las predicciones se interpretan como correctas
con cierto margen de error. En cuanto al comportamiento para predecir correctamente la
dermatitis atópica se obtuvo un resultado regular, menor al 70%, sin embargo, la sensibilidad
para esta clase se encuentra cerca del 80% (79,3%) haciendo confiable las predicciones
hechas.
10
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
La aplicación PICDiDIT ofrece un desempeño regular para lesiones tipo sarcoma de Kaposi.
Con menor frecuencia se identificó esta clase, demostrado en la matriz de confusión y las
métricas calculadas, mostrando una precisión (68.9%) y sensibilidad (68.9%) regular, lo que
implica un aumento en el número de casos falsos positivos. Este desempeño se debe al
número y calidad de imágenes usadas para el entrenamiento.
Conclusiones
La aplicación desarrollada para el reconocimiento de enfermedades cutáneas mostró más de
un 75% de precisión y más de un 77% de sensibilidad para tres de las cuatro lesiones elegidas,
demostrando un buen comportamiento y desempeño a pesar de la baja cantidad de imágenes
usadas para el entrenamiento. El poder efectuar el reconocimiento de forma local en tiempo
real usando smartphones presenta una gran ventaja para el uso de esta aplicación como
herramienta de diagnóstico en áreas remotas sin acceso a internet.
11
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Referencias
1. Suárez-Sánchez J, Colín-Rivas L, Mejía-González A, Ambríz-Polo J, García-Mejía
J. Una aproximación al diagnostico de enfermedades de la piel por medio de
aprendizaje profundo. Aristas Investig Básica y Apl [Internet]. 2018;6(12):13–6.
Disponible en:
http://fcqi.tij.uabc.mx/usuarios/revistaaristas/numeros/N12/articulos/13-16.pdf
2. Leguizamon Correa DN, Bareiro Paniagua LR, Vazquez Noguera JL, Pinto-Roa DP,
Salgueiro Toledo LA. Computerized Diagnosis of Melanocytic Lesions Based on the
ABCD Method. En: 2015 Latin American Computing Conference (CLEI) [Internet].
Arequipa, Perú: IEEE; 2015. p. 1–12. Disponible en:
https://ieeexplore.ieee.org/document/7360029/
3. Serrano-Fernández J. Sistema de ayuda al diagnóstico para la detección temprana de
melanomas [Internet]. [Madrid, Españal]: Universidad Carlos III de Madrid; 2017.
Disponible en: https://e-
archivo.uc3m.es/bitstream/handle/10016/28200/TFG_Jose_Serrano_Fernandez.pdf?s
equence=1
4. Hameed N, Ruskin A, Abu Hassan K, Hossain MA. A comprehensive survey on
image-based computer aided diagnosis systems for skin cancer. En: 2016 10th
International Conference on Software, Knowledge, Information Management &
Applications (SKIMA) [Internet]. Chengdu, China: IEEE; 2016. p. 205–14.
Disponible en: https://ieeexplore.ieee.org/document/7916221/
5. Shoieb DA, Youssef SM, Aly WM. Computer-Aided Model for Skin Diagnosis
Using Deep Learning. J Image Graph [Internet]. 2016;4(2):122–9. Disponible en:
http://www.joig.org/index.php?m=content&c=index&a=show&catid=44&id=145
6. González-Cruz C, Jofre MA, Podlipnik S, Combalia M, Gareau D, Gamboa M, et al.
Uso del aprendizaje automático en el diagnóstico del melanoma. Limitaciones por
superar. Actas Dermosifiliogr [Internet]. mayo de 2020;111(4):313–6. Disponible
en: https://linkinghub.elsevier.com/retrieve/pii/S0001731020300041
7. Fernández-Blázquez P. Detección del cáncer de piel mediante técnicas de visión
artificial [Internet]. [Leganés]: Universidad Carlos III de Madrid; 2017. Disponible
en: https://e-
archivo.uc3m.es/bitstream/handle/10016/27843/TFG_Paula_Fernandez_Blazquez.pd
f?sequence=1
8. Artola-Moreno A. Clasificación de imágenes usando redes neuronales convoluciones
en Python [Internet]. Universidad de Sevilla; 2019. Disponible en:
https://idus.us.es/bitstream/handle/11441/89506/TFG-2402-
ARTOLA.pdf?sequence=1
9. Tincopa-Flores JP. Diseño y evaluación de un sistema de ayuda al diagnóstico para
neuropatía diabética basado en la lectura de puntos de presión plantar y Machine
Learning [Internet]. [Lima, Perú]: Universidad Peruana Cayetano Heredia; 2019.
Disponible en: http://190.116.48.43/handle/upch/7239
12
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
13
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Analysis of mobile applications that help skin care through facial recognition: A
systematic analysis. KnE Eng [Internet]. el 8 de enero de 2020;2020:76–88.
Disponible en: https://knepublishing.com/index.php/KnE-
Engineering/article/view/5922
21. Mariakakis A, Patel S. Ocular symptom detection using smartphones. En:
Proceedings of the 2016 ACM International Joint Conference on Pervasive and
Ubiquitous Computing: Adjunct [Internet]. New York, NY, USA: ACM; 2016. p.
435–40. Disponible en: https://dl.acm.org/doi/10.1145/2968219.2971354
22. Kang SH, Joe B, Yoon Y, Cho GY, Shin I, Suh JW. Cardiac Auscultation Using
Smartphones: Pilot Study. JMIR mHealth uHealth [Internet]. el 28 de febrero de
2018;6(2):e49. Disponible en: http://mhealth.jmir.org/2018/2/e49/
23. Hubiche T, Valério L, Boralevi F, Mahe E, Bodemer Skandalis C, Phan A, et al.
Visualization of Patients’ Skin Lesions on Their Smartphones. JAMA Dermatology
[Internet]. el 1 de enero de 2016;152(1):95. Disponible en:
http://archderm.jamanetwork.com/article.aspx?doi=10.1001/jamadermatol.2015.297
7
24. Kanimozhi T, Murthi A. Computer aided Melanoma skin cancer detection using
Artificial Neural Network classifier. Singaporean J Sci Res [Internet]. 2016;8(2):35–
43. Disponible en: http://www.sjsronline.com/Papers/Papers/sjsrvol8no22016-5.pdf
25. Kawahara J, BenTaieb A, Hamarneh G. Deep features to classify skin lesions. En:
2016 IEEE 13th International Symposium on Biomedical Imaging (ISBI) [Internet].
Praga: IEEE; 2016. p. 1397–400. Disponible en:
http://ieeexplore.ieee.org/document/7493528/
26. Romero-Lopez A, Giro-i-Nieto X, Burdick J, Marques O. Skin Lesion Classification
from Dermoscopic Images Using Deep Learning Techniques. En: Biomedical
Engineering [Internet]. Calgary,AB,Canada: ACTAPRESS; 2017. p. 49–54.
Disponible en: http://www.actapress.com/PaperInfo.aspx?paperId=456417
27. Alcoceba-Álvarez D. Detector automático de lesiones de piel en imágenes
dermoscópicas con Deep Learning [Internet]. EscuelaTécnica Superior de Ingeniería
y Sistemas de Telecomunicación; 2018. Disponible en:
http://oa.upm.es/54096/1/TFG_DIEGO_ALCOCEBA_ALVAREZ.pdf
28. Burdick J, Marques O, Weinthal J, Furht B. Rethinking Skin Lesion Segmentation in
a Convolutional Classifier. J Digit Imaging [Internet]. el 18 de agosto de
2018;31(4):435–40. Disponible en: http://link.springer.com/10.1007/s10278-017-
0026-y
29. Rojas J. Aplicaciones Biomédicas de Visión Computacional: Detección Automática
de Melanoma [Internet]. Universidad Central “Marta Abreu” de Las Villas; 2013.
Disponible en: https://dspace.uclv.edu.cu/bitstream/handle/123456789/1652/Jessica
Rojas Rosales.pdf?sequence=1&isAllowed=y
30. Bhattacharya A, Young A, Wong A, Stalling S, Wei M, Hadley D. Precision
Diagnosis Of Melanoma And Other Skin Lesions From Digital Images. AMIA Jt
14
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
15
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)
Jormany Quintero
[email protected], ORCID: https://orcid.org/0000-0002-7180-4685
Profesor asistente en el Departamento de Sistemas da Control, Escuela de Ingeniería de
Sistemas, Facultad de Ingeniería Universidad de Los Andes. MSc. en Modelado y
Simulación de Sistemas ULA, Ingeniero de Sistemas opción Control y Automatización
ULA
16