Uso de Redes Neuronales Convolucionales en Teléfonos Inteligentes para La Identificación de Enfermedades Cutáneas

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 17

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/345808811

USO DE REDES NEURONALES CONVOLUCIONALES EN TELÉFONOS


INTELIGENTES PARA LA IDENTIFICACIÓN DE ENFERMEDADES CUTÁNEAS

Preprint · January 2021


DOI: 10.13140/RG.2.2.36774.14400

CITATIONS READS

0 710

2 authors, including:

Jormany Quintero Rojas


University of the Andes (Venezuela)
18 PUBLICATIONS 10 CITATIONS

SEE PROFILE

All content following this page was uploaded by Jormany Quintero Rojas on 13 November 2020.

The user has requested enhancement of the downloaded file.


Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

USO DE REDES NEURONALES CONVOLUCIONALES EN TELÉFONOS


INTELIGENTES PARA LA IDENTIFICACIÓN DE ENFERMEDADES
CUTÁNEAS
Jormany Quintero y Jesús David González
Resumen
Las enfermedades cutáneas son un grupo de afecciones de la dermis, caracterizadas por el
cambio de aspecto que presentan en comparación con la piel sana, donde algunas de ellas
pueden evolucionar hasta convertirse en lesiones malignas siendo un riego para el paciente.
Con la continua evolución de la tecnología, las herramientas de diagnóstico han ido
evolucionando incorporando los teléfonos inteligentes en las actividades clínicas. Las
aplicaciones móviles que soportan al dermatólogo en tareas de diagnóstico son escasas y
limitadas, en este sentido el propósito de este trabajo fue desarrollar un prototipo de
aplicación móvil basada en Android para el reconocimiento de lesiones cutáneas en tiempo
real usando redes neuronales convolucionales. La aplicación móvil desarrollada implementó
la librería TensorFlow para la ejecución del modelo. El reconocimiento implemtó el modelo
Mobilenet V2, junto con un banco de 305 imágenes obtenidas de la internet. Las
enfermedades seleccionadas para la identificación fueron: melanoma, psoriasis en placa,
sarcoma de Kaposi y dermatitis atópica. Las pruebas de la aplicación se realizaron en dos
equipos diferentes para evaluar el comportamiento. Las lesiones de tipo melanoma, psoriasis
en placa y dermatitis atópica, presentaron un buen desempeño (>75%) para la predicción y
un desempeño regular (<75%) en la predicción de enfermedades tipo sarcoma de Kaposi. La
aplicación móvil desarrollada demostró un buen comportamiento a pesar de la baja cantidad
de imágenes usadas en el entrenamiento.
Palabras clave: aprendizaje automático; enfermedades de la piel; inteligencia artificial;
mSalud.
USE OF CONVOLUTIONAL NEURAL NETWORKS IN SMARTPHONES FOR
THE IDENTIFICATION OF SKIN DISEASES
Abstract
Skin diseases are a group of conditions of the dermis, characterized by the change in
appearance that they present in comparison with healthy skin, where some of them can evolve
into malignant lesions, being a risk for the patient. With the continuous evolution of
technology, diagnostic tools have been evolving incorporating smartphones into clinical
activities. The mobile applications that support the dermatologist in diagnostic tasks are
scarce and limited, in this sense, the purpose of this work was to develop a prototype of an
Android-based mobile application for the recognition of skin lesions in real-time using
convolutional neural networks. The mobile application developed implemented the
TensorFlow library for the execution of the model. For the recognition, the Mobilenet V2
model was used, together with a bank of 305 images obtained from the internet. The diseases
selected for identification were melanoma, plaque psoriasis, Kaposi's sarcoma, and atopic
dermatitis. The application tests were performed on two different computers to evaluate the
behavior. Melanoma-type lesions, plaque psoriasis, and atopic dermatitis presented a good
performance (> 75%) for the prediction and a regular performance (<75%) for the prediction

1
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

of Kaposi's sarcoma-type diseases. The mobile application developed showed good behavior
despite the low amount of images used for training.
Key words: machine learning; skin diseases; artificial intelligence; mHealth.

Introducción
Las enfermedades cutáneas son un grupo de afecciones de la dermis, caracterizadas por el
cambio de aspecto que presentan en comparación con la piel sana. La presencia de lesiones
en la piel se hace cada vez más común afectando a personas sin importar su edad o género,
esto se debe a la continua exposición al medio ambiente fluctuante actual1. Una temprana
detección de estas lesiones se vuelve vital para la toma de decisión en cuanto al tratamiento
a seguir. Durante la inspección clínica, dependiendo de la experiencia, la pericia y la
precisión, el médico se vale de técnicas y herramientas que lo orientan a un diagnóstico más
cercano al real1. Un mal diagnóstico se traduce en exámenes complementarios innecesarios,
demora en aplicación del tratamiento correcto y propagación de la lesión2,3.

Poder diferenciar el tipo de lesión es un proceso complejo. Para diagnosticar una enfermedad
en la piel se verifica la presencia/ausencia de algunos signos, tales como la morfología,
distribución, color, escalamiento y disposición; si cada uno de estos elementos se analiza por
separado aumenta la dificultad del proceso de reconocimiento de la enfermedad1,4–6. El uso
de sistemas de apoyo computacionales para el diagnóstico de estas lesiones se ha vuelto
imprescindible para el dermatólogo, pudiendo emitir diagnósticos más exactos minimizando
la subjetividad que pudiera aparecer en ausencia de estas herramientas1,3,6,7.

En la actualidad, existen un gran número de programas informáticos que sirven de sistema


de apoyo en medicina, entre estos se incluyen los de aprendizaje automático (ML: Machine
Learning por su término en inglés), rama de la inteligencia artificial constituida por varias
técnicas de aprendizaje6–8. Algunas de las soluciones basadas en ML incluyen predicción
temprana de neuropatías diabéticas basados en presión plantar9, el diagnóstico por imagen10–
13
, detección de infartos con reconocimiento de pequeñas diferencias entre el miocardio
normal y anormal14, diagnóstico de la enfermedad de Parkinson usando un dispositivo
móvil15, angiografía de arteria coronaria14, entre otras muchas aplicaciones.

2
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Con la continua evolución de la tecnología, las herramientas de diagnóstico han ido


innovando. En este sentido, la incorporación de dispositivos móviles en las actividades de
diagnóstico clínico, van en aumento y esto conlleva el uso de aplicaciones móviles3,4,16–20.
Los teléfonos inteligentes o smartphones están siendo usados para la detección de síntomas
oculares21, auscultación cardiaca22, seguimiento de lesiones cutáneas por parte de los
pacientes17,23, identificación de lesiones a través de redes neuronales artificiales16,18, entre
otros usos. Las aplicaciones móviles, en su mayoría se encuentran disponibles en las tiendas
virtuales ya sea para uso de pacientes o para uso de profesionales de la salud16,18,19.

Las redes neuronales convolucionales (RNC) siguen siendo las pioneras en los métodos de
ML usados para diagnóstico médico por destacar su tolerancia a fallos y la facilidad de
inserción con la tecnología existente16,24–26. Estas redes pueden ser configuradas usando
TensorFlow, una librería de código abierto de Google© para entrenar y desarrollar modelos
de ML. La unidad base es el tensor, el cual puede verse como un arreglo de datos
multidimensional que incluye información de las imágenes, el ancho, el largo en pixeles y
cada canal de color8,16.

La documentación sobre sistemas informáticos que implementan métodos de ML para el


reconocimiento de lesiones cutáneas es extensa, sin embargo, la mayoría de estos se basan
en programas o piezas de software que necesitan de otros programas de cálculo como
MATLAB, MAPLE u OCTAVE para el entrenamiento y ejecución de los modelos27–29. El
uso de computadores con procesadores de alta velocidad y gran capacidad de memoria para
la ejecución de los algoritmos de RNC limitan a los profesionales médicos al uso de equipos
que ocupan grandes espacios en el área de consulta. Debido a ello, el desarrollo de
aplicaciones móviles para smartphones se ha convertido en tendencia en los últimos años,
encontrándose en los mercados digitales para aplicaciones un número limitado de alternativas
para el dermatólogo en donde las aplicaciones pagas son mayoría4,16. En este sentido, la
evidencia publicada hasta ahora sobre aplicaciones para smartphones que soporten al
dermatólogo en las actividades de diagnóstico para múltiples lesiones es limitada y escasa,
ya que los estudios publicados en esta área se enfocan prioritariamente en el reconocimiento
de melanomas por las características de la enfermedad19,20.

3
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

La idea de contar con una herramienta que, a partir de una imagen en tiempo real, permita
orientar a un diagnóstico certero aprovechando los recursos de hardware y softwares de los
teléfonos inteligentes, resulta beneficioso para el clínico. Así como también el uso de este
tipo de aplicaciones de apoyo para aquellos médicos que ejercen en poblaciones rurales en
donde el acceso a un dermatólogo es difícil. En este sentido el objetivo de esta investigación
fue desarrollar un prototipo de una aplicación móvil basada en Android para el
reconocimiento de lesiones cutáneas en tiempo real usando redes neuronales
convolucionales.
Materiales y Métodos
a) Descripción de la aplicación móvil
Se desarrolló una aplicación móvil prototipo con fines de investigación llamada PICDiDIT
(Procesador e Identificador Convolucional De imágenes Dermatológicas Implementando
Transferlearning), para ser usada bajo el sistema operativo Android y programada en Android
Studio (Google Inc). Su propósito es identificar lesiones dermatológicas captadas por la
cámara de un smartphone usando RNC como modelo de aprendizaje. Los permisos de
ejecución están establecidos previamente para el uso de la cámara incorporada. Su
funcionamiento se basa en la identificación de una imagen captada por la cámara del teléfono
sin necesidad de fotografiar y almacenar. Este reconocimiento se ejecuta sin conexión a
internet de forma local en tiempo real.
La aplicación móvil posee dos actividades y un servicio general. Una de las actividades
corresponde a la bienvenida de la aplicación, la otra destinada al uso de la cámara,
información y configuración de los parámetros para el procesamiento de las imágenes, en la
Figura 1 se observa una captura de pantalla de la aplicación. El servicio de reconocimiento
prepara la imagen, carga al modelo de RNC, analiza la imagen, realiza inferencias y muestra
los resultados.
A nivel de hardware, PICDiDIT detecta el modelo del dispositivo donde es ejecutada y la
cantidad de hilos de procesamiento disponibles para su funcionamiento óptimo. Para ejecutar
la aplicación móvil es necesario un smartphone que posea un procesador de 1,2 GHz o
superior, memoria RAM de 512 Mb o superior, cámara incorporada superior a 2 Mpx y el
sistema operativo Android KitKat 4.4.2 o superior. Las pruebas de esta aplicación fueron
hechas en dos teléfonos, un Samsung Galaxy S4 mini y un Nokia 7.1.

4
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Figura 1. Captura de pantalla de la aplicación PICDiDIT en funcionamiento

b) Procesamiento de la imagen

El procesamiento de la imagen se realiza en diferentes etapas antes de ser identificada. El


modelo de identificación basado en RNC debe estar entrenado previamente con imágenes y
clases necesarias para ser incorporado a la aplicación móvil. La captura de la imagen es
interpretada como un mapa de bits de 640x480px RGB necesario para ejecutar el proceso de
inferencia y reconocimiento. El modelo de reconocimiento transforma el mapa de bits
recibido a un tensor que es entendido por la librería TensorFlow para ejecutar el algoritmo
basado en RNC y realizar la identificación. Luego del proceso de reconocimiento se genera
una lista ordenada de probabilidades correspondiente a cada clase del modelo, estos datos
son mostrados en pantalla junto al tiempo de inferencia.

5
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

c) Modelo de reconocimiento
El modelo usado para el reconocimiento fue Mobilenet V2, un modelo eficiente para ser
ejecutado en aplicaciones móviles. El modo en punto flotante fue elegido para priorizar la
precisión sobre velocidad de reconocimiento. Las capas de la red tienen en su salida una capa
de normalización y un rectificador lineal a excepción de la última capa, la cual está conectada
a una función exponencial normalizada que devuelve la probabilidad de inferencia. Para
ahorrar en tiempo de entrenamiento y tiempo de cómputo se utilizó transfer learning como
técnica de aprendizaje para reentrenar el modelo de RNC y el conversor integrado de la API
de TensorFlow lite para generar el modelo compatible con aplicaciones móviles.

d) Conjunto de Datos
El conjunto de imágenes se obtuvo usando la técnica de web scraping para aquellas
fotografías de acceso público y consultando bancos de imágenes como shutterstock.com,
geosalud.com y istockphoto.com. Se seleccionaron 305 imágenes clínicas repartidas en cinco
clases a identificar como se observa en la Tabla 1. Para ampliar el número de imágenes en la
base de datos se realizaron transformaciones aleatorias lineales como acercamientos y
rotaciones en cada una. El conjunto de datos se separó en dos, el 80% de las imágenes se
usaron para el entrenamiento de la red y el 20% restante para la validación.

Tabla 1 – Distribución de imágenes en clases de reconocimiento


Lesión Total Imágenes Entrenamiento Validación
Dermatitis atópica 60 48 12
Melanoma 69 55 14
Psoriasis en placa 60 48 12
Sarcoma de Kaposi 57 46 11
Sin lesión 59 47 12
Total 305 244 61

Resultados
El entrenamiento del modelo se realizó eligiendo 25 épocas de 500 pasos cada una. Para
medir el rendimiento del entrenamiento se utilizó el gráfico propuesto por TensorFlow que
mide la precisión por épocas y la tasa de sobre-entrenamiento del modelo. La Figura 2
muestra la curva de aprendizaje obtenida, en ella se aprecia que la máxima precisión obtenida
ronda el 68% del conjunto de imágenes usada para la validación.

6
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Figura 2. Curva de precisión del entrenamiento y la validación del modelo

Para medir la exactitud del modelo se construyó la matriz de confusión mostrada en la Figura
3. Esta matriz describe el rendimiento de la aplicación por cada clase o lesión. Para su
elaboración se utilizó un conjunto de datos no balanceado. Los resultados de esta prueba
develan que el 75% de las lesiones melanoma y psoriasis en placa fueron reconocidas del
conjunto de imágenes de validación, el 67% de las imágenes de dermatitis atópica fue
reconocido y un 40% de imágenes de lesiones de sarcoma de Kaposi fue reconocido. Las
imágenes clasificadas como sin lesión o no reconocidas fueron identificadas correctamente
en un 79% de los casos.

Figura 3. Matriz de confusión desbalanceada del modelo Mobilenet V2 para cada lesión
cutánea

7
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Para comparar los resultados de validación, se utilizó la curva de características operativas


del receptor o curva ROC (Receiver Operating Characteristic) que se muestra en la Figura
4. Los valores del área bajo esa curva (ABC), junto con los valores de precisión y sensibilidad
(recall) para cada clase son mostrados en la Tabla 2.

Figura 4. Curva ROC para cada lesión cutánea


En la curva ROC se aprecia que la lesión sarcoma de Kaposi (rojo) es la curva más pequeña
en comparación con las demás, con un valor de 0,678, lo que representa una probabilidad del
67,8% de reconocer un caso aleatorio de sarcoma de Kaposi positivo frente a uno negativo.
En este caso, la sensibilidad se reduce en comparación con la especificidad, lo que significa
que los casos verdaderos positivos son menos reconocibles. La lesión de melanoma presenta
un ABC de 0,852, psoriasis en placa un ABC de 0,814 y la dermatitis atópica tiene un ABC
de 0,79, siendo el melanoma la lesión más reconocible por la aplicación móvil. Los valores
de precisión y sensibilidad de la Tabla 2 muestran que el sarcoma de Kaposi es la lesión con
valores mínimos.

8
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Tabla 2 – Métricas de rendimiento para cada lesión

Lesión ABC Precisión Sensibilidad Valor-F1


Dermatitis atópica 0,790 0,697 0,793 0,741
Melanoma 0,852 0,852 0,793 0,821
Psoriasis en placa 0,814 0,742 0,793 0,767
Sarcoma de Kaposi 0,678 0,689 0,689 0,689
Total 0,784 0,745 0,767 0,755

El hecho de utilizar conjuntos de datos de validación desbalanceados sugiere utilizar otra


métrica para probar el rendimiento de la aplicación móvil. Para ello se usó la métrica de
Valor-F1 basado en los valores de precisión y sensibilidad, los resultados de esta prueba se
muestran en la Tabla 2 para cada tipo de lesión. Estos valores obtenidos son coherentes con
las métricas de rendimiento anteriores. Demostrando así que esta aplicación móvil tiene un
buen desempeño para el reconocimiento de lesiones tipo melanoma, psoriasis en placa y
dermatitis atópica, sin embargo, presenta un desempeño regular para identificar sarcomas de
Kaposi.

Discusión
La aplicación móvil desarrollada en este trabajo bajo tecnología Android resultó ser la mejor
opción en cuanto a los costos de sistema operativo y desarrollo de software, ya que las
aplicaciones similares para el diagnóstico de lesiones en piel, son en su mayoría diseñadas
en iOS (Sistema Operativo de Apple), esto implica altos costos en su adquisición,
programación y mantenimiento4. El modelo implementado se fundamentó en RNC para el
reconocimiento de un grupo de lesiones cutáneas, usando para ello transfer learning como
método de aprendizaje, este método es ampliamente usado por muchos sistemas de
reconocimiento basados en ML1,26,27,30–34. Existen sistemas de identificación de lesiones que
usan en sus algoritmos diferentes modelos de RNC, entre estos destacan AlexNet30,
VGGNet26,28 y ResNet31,34–36, cuyo desempeño es similar al modelo usado para este trabajo.
En cuanto al entrenamiento del modelo se ha evidenciado en diferentes investigaciones el
uso TensorFlow1,34,37,38 para aplicaciones móviles y otros programas como MATLAB27–29
para soluciones en computadores de escritorio.

9
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

La naturaleza del entrenamiento de los modelos de RNC para la identificación de lesiones


requiere de un banco de imágenes. En este caso el número de ítems por clases fue pequeño,
alrededor de 60 imágenes por clases, lo que implicó usar el método de transformaciones
lineales, acercamiento y rotaciones para ampliar la base de datos al momento del
entrenamiento. La cantidad de imágenes usadas en diferentes estudios supera por mucho al
usado en este trabajo25,28,30–32,35,36,38–40, es de resaltar que por esta razón estas investigaciones
no hacen uso de las transformaciones aleatorias lineales. El reconocimiento de las imágenes
no es directo, sino hecho en base a la probabilidad de pertenecer a una de las clases
programadas en la RNC. Durante las pruebas se obtuvo que el tiempo de inferencia para el
modelo no supera los 500ms, lo que resulta excelente cuando se usa como herramienta de
diagnóstico. Este tiempo se considera rápido para la identificación, así como también lo es el
cambio de porcentaje de certeza arrojado cuando se identifica la lesión.

Las lesiones de tipo melanoma, psoriasis en placa y dermatitis atópica, presentaron un buen
desempeño al evaluar las métricas correspondientes a cada lesión. Debido a la importancia
clínica y la severidad asociada, los melanomas son lesiones cutáneas frecuentemente
estudiadas para la identificación por métodos de ML. En este trabajo para la lesión de
melanoma se obtuvo una precisión del 85,2% al igual que otras investigaciones cuya
precisión y desempeño fue similar25,26,30,35,40, otros estudios basados en RNC obtuvieron en
sus resultados un desempeño regular y precisión menor al 80%3,28,42,43, sin embargo hay
evidencia de investigaciones que superan el 90% en la precisión al reconocer
melanomas5,24,31,33,41.

La lesión psoriasis en placa ha sido incluida dentro de otras investigaciones, en las cuales se
ha obtenido con una precisión del 72,2%1 y 80%37, valores próximos al 74,2% obtenido por
la aplicación desarrollada en este trabajo. Las métricas para esta enfermedad se encuentran
dentro del rango considerado como bueno y las predicciones se interpretan como correctas
con cierto margen de error. En cuanto al comportamiento para predecir correctamente la
dermatitis atópica se obtuvo un resultado regular, menor al 70%, sin embargo, la sensibilidad
para esta clase se encuentra cerca del 80% (79,3%) haciendo confiable las predicciones
hechas.

10
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

La aplicación PICDiDIT ofrece un desempeño regular para lesiones tipo sarcoma de Kaposi.
Con menor frecuencia se identificó esta clase, demostrado en la matriz de confusión y las
métricas calculadas, mostrando una precisión (68.9%) y sensibilidad (68.9%) regular, lo que
implica un aumento en el número de casos falsos positivos. Este desempeño se debe al
número y calidad de imágenes usadas para el entrenamiento.

La literatura reporta un gran número de investigaciones basadas exclusivamente en métodos


de ML para el reconocimiento de melanomas cutáneos. Estas piezas de software
acondicionan la imagen a identificar usando una serie de filtros digitales con el fin de extraer
sus características y emitir un diagnóstico3,28,29,32,33,38–41. La aplicación móvil PICDiDIT, a
diferencia de estas otras, se basa en el reconocimiento clínico de varias lesiones cutáneas
tomando en cuenta la observación y la visión por computadora desde un smartphone, tal
como lo realizado por otras investigaciones que presentaron un rendimiento en la predicción
mayor del 85%25,34,37,41 o como la de Yang y cols. en 2018 que presentó una exactitud de
75%39.

Conclusiones
La aplicación desarrollada para el reconocimiento de enfermedades cutáneas mostró más de
un 75% de precisión y más de un 77% de sensibilidad para tres de las cuatro lesiones elegidas,
demostrando un buen comportamiento y desempeño a pesar de la baja cantidad de imágenes
usadas para el entrenamiento. El poder efectuar el reconocimiento de forma local en tiempo
real usando smartphones presenta una gran ventaja para el uso de esta aplicación como
herramienta de diagnóstico en áreas remotas sin acceso a internet.

El incremento del número de imágenes al momento del entrenamiento de la RNC permitiría


mejorar los valores de precisión y sensibilidad en esta aplicación, así como también el
acondicionamiento previo de las imagines para extraer características clínicas que permitan
aportar más datos para el reconocimiento de lesiones cutáneas con métodos de ML.

11
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Referencias
1. Suárez-Sánchez J, Colín-Rivas L, Mejía-González A, Ambríz-Polo J, García-Mejía
J. Una aproximación al diagnostico de enfermedades de la piel por medio de
aprendizaje profundo. Aristas Investig Básica y Apl [Internet]. 2018;6(12):13–6.
Disponible en:
http://fcqi.tij.uabc.mx/usuarios/revistaaristas/numeros/N12/articulos/13-16.pdf
2. Leguizamon Correa DN, Bareiro Paniagua LR, Vazquez Noguera JL, Pinto-Roa DP,
Salgueiro Toledo LA. Computerized Diagnosis of Melanocytic Lesions Based on the
ABCD Method. En: 2015 Latin American Computing Conference (CLEI) [Internet].
Arequipa, Perú: IEEE; 2015. p. 1–12. Disponible en:
https://ieeexplore.ieee.org/document/7360029/
3. Serrano-Fernández J. Sistema de ayuda al diagnóstico para la detección temprana de
melanomas [Internet]. [Madrid, Españal]: Universidad Carlos III de Madrid; 2017.
Disponible en: https://e-
archivo.uc3m.es/bitstream/handle/10016/28200/TFG_Jose_Serrano_Fernandez.pdf?s
equence=1
4. Hameed N, Ruskin A, Abu Hassan K, Hossain MA. A comprehensive survey on
image-based computer aided diagnosis systems for skin cancer. En: 2016 10th
International Conference on Software, Knowledge, Information Management &
Applications (SKIMA) [Internet]. Chengdu, China: IEEE; 2016. p. 205–14.
Disponible en: https://ieeexplore.ieee.org/document/7916221/
5. Shoieb DA, Youssef SM, Aly WM. Computer-Aided Model for Skin Diagnosis
Using Deep Learning. J Image Graph [Internet]. 2016;4(2):122–9. Disponible en:
http://www.joig.org/index.php?m=content&c=index&a=show&catid=44&id=145
6. González-Cruz C, Jofre MA, Podlipnik S, Combalia M, Gareau D, Gamboa M, et al.
Uso del aprendizaje automático en el diagnóstico del melanoma. Limitaciones por
superar. Actas Dermosifiliogr [Internet]. mayo de 2020;111(4):313–6. Disponible
en: https://linkinghub.elsevier.com/retrieve/pii/S0001731020300041
7. Fernández-Blázquez P. Detección del cáncer de piel mediante técnicas de visión
artificial [Internet]. [Leganés]: Universidad Carlos III de Madrid; 2017. Disponible
en: https://e-
archivo.uc3m.es/bitstream/handle/10016/27843/TFG_Paula_Fernandez_Blazquez.pd
f?sequence=1
8. Artola-Moreno A. Clasificación de imágenes usando redes neuronales convoluciones
en Python [Internet]. Universidad de Sevilla; 2019. Disponible en:
https://idus.us.es/bitstream/handle/11441/89506/TFG-2402-
ARTOLA.pdf?sequence=1
9. Tincopa-Flores JP. Diseño y evaluación de un sistema de ayuda al diagnóstico para
neuropatía diabética basado en la lectura de puntos de presión plantar y Machine
Learning [Internet]. [Lima, Perú]: Universidad Peruana Cayetano Heredia; 2019.
Disponible en: http://190.116.48.43/handle/upch/7239

12
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

10. de Bruijne M. Machine learning approaches in medical image analysis: From


detection to diagnosis. Med Image Anal [Internet]. octubre de 2016;33:94–7.
Disponible en: https://linkinghub.elsevier.com/retrieve/pii/S1361841516301098
11. Chen H, Zhang K, Lyu P, Li H, Zhang L, Wu J, et al. A deep learning approach to
automatic teeth detection and numbering based on object detection in dental
periapical films. Sci Rep [Internet]. el 7 de diciembre de 2019;9(1):3840. Disponible
en: http://www.nature.com/articles/s41598-019-40414-y
12. Cheng C, Shueng P-W, Chang C-C, Kuo C-W. Adapting an Evidence-based
Diagnostic Model for Predicting Recurrence Risk Factors of Oral Cancer. J Univers
Comput Sci [Internet]. 2018;24(6):742–52. Disponible en:
http://jucs.org/jucs_24_6/adapting_an_evidence_based/jucs_24_06_0742_0752_che
ng.pdf
13. Leivi AE. Análisis de la implementación de Machine Learning en el diagnóstico por
imágenes [Internet]. [Buenos Aires, Argentina]: Universidad de San Andrés; 2019.
Disponible en:
http://repositorio.udesa.edu.ar/jspui/bitstream/10908/16748/1/%5BP%5D%5BW%5
D T. M. Ges. Leivi%2C Alejo Ezequiel.pdf
14. Del Río-Solá M, López Santos J, Vaquero Puerta C. La inteligencia artificial en el
ámbito médico. Rev Española Investig Quirúrgicas [Internet]. 2018;21(3):113–6.
Disponible en: http://www.reiq.es/ING/pdf/REIQ21.3.2018.pdf#page=47
15. Zhan A, Mohan S, Tarolli C, Schneider RB, Adams JL, Sharma S, et al. Using
Smartphones and Machine Learning to Quantify Parkinson Disease Severity. JAMA
Neurol [Internet]. el 1 de julio de 2018;75(7):876. Disponible en:
http://www.ncbi.nlm.nih.gov/pubmed/29582075
16. González J. Diseño e implementación de una aplicación móvil inteligente en
Android para reconocimiento de lesiones y enfermedades cutáneas y en la mucosa
bucal. [Mérida, Venezuela]: Universidad de Los Andes; 2019.
17. Finnane A, Dallest K, Janda M, Soyer HP. Teledermatology for the Diagnosis and
Management of Skin Cancer: A Systematic Review. JAMA dermatology [Internet].
el 1 de marzo de 2017;153(3):319–27. Disponible en:
http://archderm.jamanetwork.com/article.aspx?doi=10.1001/jamadermatol.2016.436
1
18. Freeman K, Dinnes J, Chuchu N, Takwoingi Y, Bayliss SE, Matin RN, et al.
Algorithm based smartphone apps to assess risk of skin cancer in adults: systematic
review of diagnostic accuracy studies. BMJ [Internet]. el 10 de febrero de
2020;368:m127. Disponible en: http://www.bmj.com/lookup/doi/10.1136/bmj.m127
19. de Carvalho TM, Noels E, Wakkee M, Udrea A, Nijsten T. Development of
Smartphone Apps for Skin Cancer Risk Assessment: Progress and Promise. JMIR
Dermatology [Internet]. el 11 de julio de 2019;2(1):e13376. Disponible en:
http://derma.jmir.org/2019/1/e13376/
20. Caiza Caizabuano JR, Mise-Pasuña JL, Andaluz-Espinosa DF, Reyes-Chicango R.

13
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Analysis of mobile applications that help skin care through facial recognition: A
systematic analysis. KnE Eng [Internet]. el 8 de enero de 2020;2020:76–88.
Disponible en: https://knepublishing.com/index.php/KnE-
Engineering/article/view/5922
21. Mariakakis A, Patel S. Ocular symptom detection using smartphones. En:
Proceedings of the 2016 ACM International Joint Conference on Pervasive and
Ubiquitous Computing: Adjunct [Internet]. New York, NY, USA: ACM; 2016. p.
435–40. Disponible en: https://dl.acm.org/doi/10.1145/2968219.2971354
22. Kang SH, Joe B, Yoon Y, Cho GY, Shin I, Suh JW. Cardiac Auscultation Using
Smartphones: Pilot Study. JMIR mHealth uHealth [Internet]. el 28 de febrero de
2018;6(2):e49. Disponible en: http://mhealth.jmir.org/2018/2/e49/
23. Hubiche T, Valério L, Boralevi F, Mahe E, Bodemer Skandalis C, Phan A, et al.
Visualization of Patients’ Skin Lesions on Their Smartphones. JAMA Dermatology
[Internet]. el 1 de enero de 2016;152(1):95. Disponible en:
http://archderm.jamanetwork.com/article.aspx?doi=10.1001/jamadermatol.2015.297
7
24. Kanimozhi T, Murthi A. Computer aided Melanoma skin cancer detection using
Artificial Neural Network classifier. Singaporean J Sci Res [Internet]. 2016;8(2):35–
43. Disponible en: http://www.sjsronline.com/Papers/Papers/sjsrvol8no22016-5.pdf
25. Kawahara J, BenTaieb A, Hamarneh G. Deep features to classify skin lesions. En:
2016 IEEE 13th International Symposium on Biomedical Imaging (ISBI) [Internet].
Praga: IEEE; 2016. p. 1397–400. Disponible en:
http://ieeexplore.ieee.org/document/7493528/
26. Romero-Lopez A, Giro-i-Nieto X, Burdick J, Marques O. Skin Lesion Classification
from Dermoscopic Images Using Deep Learning Techniques. En: Biomedical
Engineering [Internet]. Calgary,AB,Canada: ACTAPRESS; 2017. p. 49–54.
Disponible en: http://www.actapress.com/PaperInfo.aspx?paperId=456417
27. Alcoceba-Álvarez D. Detector automático de lesiones de piel en imágenes
dermoscópicas con Deep Learning [Internet]. EscuelaTécnica Superior de Ingeniería
y Sistemas de Telecomunicación; 2018. Disponible en:
http://oa.upm.es/54096/1/TFG_DIEGO_ALCOCEBA_ALVAREZ.pdf
28. Burdick J, Marques O, Weinthal J, Furht B. Rethinking Skin Lesion Segmentation in
a Convolutional Classifier. J Digit Imaging [Internet]. el 18 de agosto de
2018;31(4):435–40. Disponible en: http://link.springer.com/10.1007/s10278-017-
0026-y
29. Rojas J. Aplicaciones Biomédicas de Visión Computacional: Detección Automática
de Melanoma [Internet]. Universidad Central “Marta Abreu” de Las Villas; 2013.
Disponible en: https://dspace.uclv.edu.cu/bitstream/handle/123456789/1652/Jessica
Rojas Rosales.pdf?sequence=1&isAllowed=y
30. Bhattacharya A, Young A, Wong A, Stalling S, Wei M, Hadley D. Precision
Diagnosis Of Melanoma And Other Skin Lesions From Digital Images. AMIA Jt

14
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Summits Transl Sci proceedings AMIA Jt Summits Transl Sci [Internet].


2017;2017:220–6. Disponible en: http://www.ncbi.nlm.nih.gov/pubmed/28815132
31. Han SS, Kim MS, Lim W, Park GH, Park I, Chang SE. Classification of the Clinical
Images for Benign and Malignant Cutaneous Tumors Using a Deep Learning
Algorithm. J Invest Dermatol [Internet]. 2018;138(7):1529–38. Disponible en:
https://linkinghub.elsevier.com/retrieve/pii/S0022202X18301118
32. Coronado RR. Reconocimiento De Patrones En Imagenes No Dermatoscopicas Para
La Detección De Enfermedades Malignas En La Piel, Utilizando Redes Neuronales
Convolutivas Y Autocodificadores [Internet]. [Arequipa, Perú]: Universidad
Nacional de San Agustín; 2018. Disponible en:
http://repositorio.unsa.edu.pe/bitstream/handle/UNSA/6520/ISMcoperr.pdf?sequenc
e=1&isAllowed=y
33. Salido JAA, Jr. CR. Using Deep Learning for Melanoma Detection in Dermoscopy
Images. Int J Mach Learn Comput [Internet]. febrero de 2018;8(1):61–8. Disponible
en:
http://www.ijmlc.org/index.php?m=content&c=index&a=show&catid=76&id=771
34. Ziaten-Cerezo E. Clasificación de lesiones en la piel usando aprendizaje profundo
[Internet]. [Málaga, España]: Universidad de Málaga; 2018. Disponible en:
https://riuma.uma.es/xmlui/bitstream/handle/10630/19213/Ibn Ziaten
CerezoMemoria.pdf?sequence=1&isAllowed=y
35. Yap J, Yolland W, Tschandl P. Multimodal skin lesion classification using deep
learning. Exp Dermatol [Internet]. noviembre de 2018;27(11):1261–7. Disponible
en: http://doi.wiley.com/10.1111/exd.13777
36. Domènech T. Clasificación de imágenes dermatoscópicas utilizando Redes
Neuronales Convolucionales e información de metadatos [Internet]. [Barcelona,
España]: Universidad Politécnica de Catalunya; 2019. Disponible en:
https://upcommons.upc.edu/bitstream/handle/2117/165606/Final_thesis_TDA.pdf
37. Velasco J, Pascion C, Alberio JW, Apuang J, Cruz JS, Gomez MA, et al. A
Smartphone-Based Skin Disease Classification Using MobileNet CNN. Int J Adv
Trends Comput Sci Eng [Internet]. el 15 de octubre de 2019;8(5):2632–7. Disponible
en: http://www.warse.org/IJATCSE/static/pdf/file/ijatcse116952019.pdf
38. Méndez-Hernández R. Aprendizaje profundo para la segmentación de lesiones
pigmentadas de la piel [Internet]. [Sevilla, España]: Universidad de Sevilla; 2019.
Disponible en: https://idus.us.es/bitstream/handle/11441/92186/TFM-1430-
MENDEZ.pdf?sequence=1
39. Yang J, Sun X, Liang J, Rosin PL. Clinical Skin Lesion Diagnosis Using
Representations Inspired by Dermatologist Criteria. En: 2018 IEEE/CVF Conference
on Computer Vision and Pattern Recognition [Internet]. Utah, Estados Unidos:
IEEE; 2018. p. 1258–66. Disponible en:
https://ieeexplore.ieee.org/document/8578235/
40. Pham TC, Luong CM, Visani M, Hoang VD. Deep CNN and Data Augmentation for

15
Revista de Investigación, Docencia y Extensión de la Universidad de Los Andes. Num 1 (2021)

Skin Lesion Classification. En: Lecture Notes in Computer Science (including


subseries Lecture Notes in Artificial Intelligence and Lecture Notes in
Bioinformatics) [Internet]. 2018. p. 573–82. Disponible en:
http://link.springer.com/10.1007/978-3-319-75420-8_54
41. Kalwa U, Legner C, Kong T, Pandey S. Skin Cancer Diagnostics with an All-
Inclusive Smartphone Application. Symmetry (Basel) [Internet]. el 13 de junio de
2019;11(6):790. Disponible en: https://www.mdpi.com/2073-8994/11/6/790
42. Gal Y, Islam R, Ghahramani Z. Deep Bayesian Active Learning with Image Data.
Proc 34th Int Conf Mach Learn [Internet]. el 8 de marzo de 2017; Disponible en:
http://arxiv.org/abs/1703.02910
43. Sánchez-Hernández J, Hernández-Rabadán D. Comparación de métodos de
clasificación aplicados al diagnóstico de melanomas malignos mediante asimetría.
Program Matemática y Softw [Internet]. 2014;6(2):51–6. Disponible en:
http://riaa.uaem.mx/handle/20.500.12055/109

Información sobre los Autores

Jormany Quintero
[email protected], ORCID: https://orcid.org/0000-0002-7180-4685
Profesor asistente en el Departamento de Sistemas da Control, Escuela de Ingeniería de
Sistemas, Facultad de Ingeniería Universidad de Los Andes. MSc. en Modelado y
Simulación de Sistemas ULA, Ingeniero de Sistemas opción Control y Automatización
ULA

Jesús David González


[email protected], ORCID: https://orcid.org/0000-0002-9828-0594
Desarrollador de aplicaciones móviles. Ingeniero de Sistemas opción Control y
Automatización ULA

16

View publication stats

También podría gustarte