Coursera 2
Coursera 2
Coursera 2
Introducción a CRISP-DM
Metodologías de la Ciencia de Datos
Este curso se enfoca en la Metodología Fundacional para la Ciencia de Datos de John
Rollins, que fue presentada en el video anterior. Sin embargo, esta no es la única
metodología que encontrarás en la ciencia de datos. Por ejemplo, en la minería de
datos se usa comúnmente la metodología CRISP-DM (del inglés Cross Industry
Standard Process for Data Mining).
¿Qué es CRISP-DM?
La metodología CRISP-DM es un proceso orientado a incrementar el uso de la
minería de datos en una amplia variedad de aplicaciones de negocios e industrias. La
intención es tomar escenarios de casos específicos y comportamientos generales
para volverlos de dominio neutro. La CRISP-DM está compuesta por 6 pasos que
debe implementar una entidad para tener una probabilidad razonable de éxito.
Estos seis pasos se muestran en el siguiente diagrama:
Fig.1 CRISP-DM model, IBM Knowledge Center, CRISP-DM Help Overview
3. Preparación de datos:
4. Modelado:
Cuando estén listos para ser usados, los datos deben expresarse a través de los
modelos apropiados, brindando perspectivas significativas y ojalá conocimiento
nuevo. Este es el propósito de la minería de datos: crear información y conocimiento
que tenga sentido y utilidad. El uso de modelos revela patrones y estructuras dentro
de los datos que ofrecen una mirada a las características de interés. Los modelos se
eligen con una porción de los datos y se hacen ajustes de ser necesario. La elección
de modelos es un arte y una ciencia. Tanto la Metodología Fundacional y la CRISP-
DM se necesitan en la etapa subsiguiente.
5. Evaluación
El modelo elegido debe ser probado. Esto suele llevarse a cabo con una prueba
preseleccionada sobre la cual se ejecuta el modelo. Esto te permitirá ver la
efectividad del modelo sobre un conjunto que percibe como nuevo. Los resultados
de esta prueba se usan para determinar la eficacia del modelo y deja entrever su
papel en la siguiente y última etapa.
6. Despliegue:
En la fase de despliegue, el modelo se usa con datos nuevos por fuera del alcance del
conjunto de datos inicial y por parte de nuevos actores. Las interacciones nuevas en
esta fase pueden revelar nuevas variables y necesidades del conjunto de datos y el
modelo. Estos nuevos desafíos podrían dar lugar a la revisión de las necesidades y
acciones del negocio, o del modelo y los datos, o de ambos.
Business Understanding
Welcome to Data Science Methodology 101 From Problem to Approach Business Understanding!
Has this ever happened to you?
You've been called into a meeting by your boss, who makes you aware of an important
task one with a very tight deadline that absolutely has to be met.
You both go back and forth to ensure that all aspects of the task have been considered
and the meeting ends with both of you confident that things are on track.
Later that afternoon, however, after you've spent some time examining the various issues
at play, you realize that you need to ask several additional questions in order to truly
accomplish the task.
Unfortunately, the boss won't be available again until tomorrow morning.
Now, with the tight deadline still ringing in your ears, you start feeling a sense of
uneasiness.
So, what do you do?
Do you risk moving forward or do you stop and seek clarification.
Data science methodology begins with spending the time to seek clarification, to attain
what can be referred to as a business understanding.
Having this understanding is placed at the beginning of the methodology because getting
clarity around the problem to be solved, allows you to determine which data will be used to
answer the core question.
Rollins suggests that having a clearly defined question is vital because it ultimately directs
the analytic approach that will be needed to address the question.
All too often, much effort is put into answering what people THINK is the question, and while
the methods used to address that question might be sound, they don't help to solve
the actual problem.
Establishing a clearly defined question starts with understanding the GOAL of the person
who is asking the question.
For example, if a business owner asks: "How can we reduce the costs of performing an activity?"
We need to understand, is the goal to improve the efficiency of the activity?
Or is it to increase the businesses profitability?
Once the goal is clarified, the next piece of the puzzle is to figure out the objectives
that are in support of the goal.
By breaking down the objectives, structured discussions can take place where priorities
can be identified in a way that can lead to organizing and planning on how to tackle the
problem.
Depending on the problem, different stakeholders will need to be engaged in the discussion
to help determine requirements and clarify questions.
So now, let's look at the case study related to applying "Business Understanding"
In the case study, the question being asked is: What is the best way to allocate the limited
healthcare budget to maximize its use in providing quality care?
This question is one that became a hot topic for an American healthcare insurance provider.
As public funding for readmissions was decreasing, this insurance company was at risk of having
to make up for the cost difference,which could potentially increase rates for its customers.
Knowing that raising insurance rates was not going to be a popular move, the insurance
company sat down with the health care authorities in its region and brought in IBM data
scientists
to see how data science could be applied to the question at hand.
Before even starting to collect data, the goals and objectives needed to be defined.
After spending time to determine the goals and objectives, the team prioritized "patient
readmissions" as an effective area for review.
With the goals and objectives in mind, it was found that approximately 30% of individuals
who finish rehab treatment would be readmitted to a rehab center within one year; and that
50% would be readmitted within five years.
After reviewing some records, it was discovered that the patients with congestive heart failure
were at the top of the readmission list.
It was further determined that a decision-tree model could be applied to review this scenario,
to determine why this was occurring.
To gain the business understanding that would guide the analytics team in formulating and
performing their first project, the IBM Data scientists, proposed and delivered an on-site
workshop to kick things off.
The key business sponsors involvement throughout the project was critical, in that the sponsor:
Set overall direction
Remained engaged and provided guidance.
Ensured necessary support, where needed.
Finally, four business requirements were identified for whatever model would be built.
Namely:
Predicting readmission outcomes for those patients with Congestive Heart Failure
Predicting readmission risk.
Understanding the combination of events that led to the predicted outcome
Applying an easy-to-understand process to new patients, regarding their readmission
risk.
This ends the Business Understanding section of this course.
Thanks for watching!
Enfoque analítico
¡Bienvenido(a) a Metodología de la Ciencia de Datos 101 Del Problema al Enfoque! Enfoque
Analítico.
Seleccionar el enfoque analítico adecuado dependerá de la pregunta a responder.
El enfoque incluye buscar aclaraciones de la persona que hace la pregunta,
para poder elegir la ruta o enfoque más apropiado.
En este video veremos cómo aplicar la segunda etapa de la metodología de la ciencia de datos.
Una vez definido el problema a resolver, el enfoque analítico apropiado para este
problema se selecciona en el contexto de las necesidades del negocio.
Esta es la segunda etapa de la metodología de la ciencia de datos.
Habiendo logrado una sólida comprensión de la pregunta, se puede seleccionar el
enfoque analítico.
Esto significa identificar el tipo de patrones necesarios para responder la pregunta del modo
más
efectivo.
Si la pregunta es determinar las probabilidades de una acción, podría usarse un modelo
predictivo.
Si la pregunta es mostrar relaciones, podría necesitarse un enfoque descriptivo.
Éste observaría grupos de actividades similares con base en eventos y
preferencias.
El análisis estadístico aplica para los problemas que requieren conteos.
Por ejemplo, si la pregunta requiere una respuesta "sí" o "no", sería adecuado un enfoque
de clasificación para predecir una respuesta.
El Aprendizaje Automático es un campo de estudio que dota a las computadoras de capacidad
para aprender sin
ser explícitamente programadas.
El Aprendizaje Automático puede usarse para identificar relaciones y tendencias en los datos,
que de otro modo no serían
accesibles o identificadas.
En casos donde la pregunta sea aprender sobre el comportamiento humano, una respuesta
apropiada sería usar enfoques de Análisis de Grupos.
Ahora, veamos el estudio de caso en relación con la aplicación del Enfoque Analítico.
Para el estudio de caso, se usó un modelo de clasificación de árbol de decisión para identificar la
combinación
de condiciones que conducen al resultado de cada paciente.
En este enfoque, examinar las variables de cada nodo a lo largo de la ruta de cada
hoja, condujo a un respectivo valor de umbral.
Esto significa que la clasificación de árbol de decisión indica tanto el resultado predicho, como
la
probabilidad de cada desenlace, con base en la proporción de un resultado dominante, "sí" o
"no", en cada
grupo.
Con esta información, los analistas pueden obtener el riesgo de readmisión, o la probabilidad de
un "sí" para cada paciente. Si el resultado dominante es "sí", entonces el riesgo
es simplemente la proporción de pacientes "sí" de la hoja.
Si es "no", entonces el riesgo es 1 menos la proporción de pacientes "no" de la hoja.
Un modelo de clasificación de árbol de decisión es fácil de aplicar y entender para los no
científicos
de datos, para puntuar a nuevos pacientes según su riesgo de readmisión.
Los médicos ven fácilmente las condiciones que hacen que un paciente sea puntuado como de
alto riesgo,
y pueden construirse y aplicarse múltiples modelos en varios puntos de la estadía en el hospital.
Esto brinda una imagen móvil del riesgo del paciente y cómo éste evoluciona con los diversos
tratamientos aplicados. Por ello, se eligió el enfoque de clasificación de árbol
de decisión para construir el modelo de readmisión de Insuficiencia Cardíaca.
Aquí termina la sección de Enfoque Analítico de este curso.
¡Gracias por tu atención!
Requerimientos de datos
Bienvenido a Data Science Metodología 101 De los requisitos a los requisitos de recopilación de
datos!
Si tu objetivo es hacer una cena de espaguetis pero no tienes los ingredientes adecuados
para hacer este plato, entonces tu éxito se verá comprometido.
Piense en esta sección de la metodología de la ciencia de datos como cocinar con datos.
Cada paso es fundamental para hacer la comida.
Por lo tanto, si el problema que debe resolverse es la receta, por así decirlo, y los datos
son un ingrediente, entonces el científico de datos necesita identificar: qué ingredientes se
requieren, cómo obtener o recolectarlos,
cómo entenderlos o trabajar con ellos, y cómo preparar los datos para cumplir con el
resultado deseado.
Basándose en la comprensión del problema en cuestión, y luego utilizando el enfoque analítico
seleccionado, el Data Scientist está listo para comenzar.
Ahora veamos algunos ejemplos de los requisitos de datos dentro de la metodología de la ciencia
de datos.
Antes de emprender las etapas de recopilación y preparación de datos de la metodología,
es vital definir los requisitos de datos para la clasificación del árbol de decisiones.
Esto incluye la identificación del contenido de datos, formatos y fuentes necesarios para la
recopilación inicial de datos.
Así que ahora, veamos el estudio de caso relacionado con la aplicación de «Requisitos de Datos».
En el estudio de caso, la primera tarea fue definir los requisitos de datos para el
enfoque de clasificación del árbol de decisiones seleccionado.
Esto incluyó la selección de una cohorte de pacientes adecuada de la
base de afiliados de proveedores de seguros médicos. Con el
fin de compilar las historias clínicas completas, se identificaron tres criterios
para su inclusión en la cohorte.
Primero, un paciente necesitaba ser ingresado como paciente internado dentro del área de
servicio del proveedor, para
que tuviera acceso a la información necesaria.
En segundo lugar, se centraron en pacientes con diagnóstico primario de insuficiencia cardíaca
congestiva durante
un año completo.
En tercer lugar, el paciente debe haber tenido una matrícula continua durante al menos seis
meses, antes
del ingreso primario por insuficiencia cardíaca congestiva, para
poder compilar la historia clínica completa.
Los pacientes con insuficiencia cardíaca congestiva que también habían sido diagnosticados con
otras
afecciones médicas significativas, fueron excluidos de la cohorte porque estas afecciones
provocarían
tasas de reingreso superiores a la media y, por lo tanto, podrían sesgar los resultados.
Luego se
definió el contenido, el formato y las representaciones de los datos necesarios para la
clasificación del árbol de decisiones.
Esta técnica de modelado requiere un registro por paciente, con columnas que representan
las variables del modelo.
Para modelar el resultado de la readmisión, era necesario contar con datos que cubran todos los
aspectos de la
historia clínica del paciente.
Este contenido incluiría admisiones, diagnósticos primarios, secundarios y terciarios,
procedimientos,
prescripciones y otros servicios prestados durante la hospitalización o durante las
visitas al paciente o al médico.
Por lo tanto, un paciente en particular podría tener miles de registros, representando todos sus
atributos relacionados.
Para llegar al formato de un registro por paciente, los científicos de datos enrollaron los
registros transaccionales al nivel del paciente, creando una serie de nuevas variables para
representar esa información.
Este fue un trabajo para la etapa de preparación de datos, por lo que
es importante pensar en el futuro y anticipar las etapas posteriores.
Esto finaliza la sección Requisitos de datos para este curso.
¡ Gracias por mirar!
Recolección de datos
¡Bienvenido(a) a Metodología de la Ciencia de Datos 101 De los Requerimientos a la Recolección!
Recolección de datos.
Luego de hacer la recolección de datos inicial, el científico de datos hace una evaluación
para determinar si tiene o no tiene lo que necesita.
Como ocurre cuando se compran ingredientes para la cena, algunos ingredientes pueden estar
fuera de temporada y ser más difíciles de obtener, o más costosos de pensado.
En esta fase se revisan los requerimientos de datos y se decide si la recolección
requiere más, o menos datos.
Una vez recolectados los ingredientes de datos en la etapa de recolección, el científico de datos
tendrá una buena comprensión de los insumos con los cuales trabajará.
Técnicas como la estadística descriptiva y la visualización pueden aplicarse al conjunto
de datos para evaluar su contenido, calidad y conclusiones iniciales.
Se identificarán vacíos en los datos y se harán planes, ya sea para llenarlos o
hacer sustituciones.
En esencia, los ingredientes están ahora sobre la tabla de corte.
Ahora veamos algunos ejemplos de la etapa de recolección de la metodología de la ciencia de
datos.
Esta etapa se emprende al finalizar la etapa de requerimientos de datos.
Veamos el estudio de caso en relación con la aplicación de la "Recolección de datos".
Para recolectar datos, necesitas saber la fuente o el modo de hallar los elementos de datos
que se requieren.
En el contexto de nuestro estudio de caso, estos pueden incluir:
información demográfica, clínica o de cobertura de los pacientes,
información de proveedor, registros de reclamos, al igual que
información farmacéutica y adicional relacionada con diagnósticos de pacientes de
insuficiencia cardíaca.
En este estudio de caso, se necesitaba cierta información de medicamentos, pero esa fuente de
datos
aún no estaba integrada al resto de las fuentes de datos.
Esto nos lleva a un punto importante: Está bien aplazar decisiones acerca de datos no
disponibles,
e intentar adquirirlos en una etapa posterior.
Por ejemplo, esto puede hacerse aún después de obtener resultados intermedios del modelado
predictivo.
Si esos resultados indican que la información de medicamentos será importante para lograr un
buen modelo,
se invertiría el tiempo para intentar conseguirla.
Sin embargo, resultó que pudieron construir un modelo razonablemente bueno sin esta
información de medicamentos.
Los DBA y programadores a menudo trabajan juntos para extraer datos de diversas fuentes,
y luego la combinan.
Esto permite eliminar datos redundantes, dejándolos a disposición para la próxima etapa de la
metodología,
que es la comprensión de datos.
En esta etapa, si es necesario, científicos de datos y miembros del equipo de análisis pueden
discutir maneras
de manejar mejor sus datos, como automatizar ciertos procesos en la base de datos, para que
la recolección de datos sea más fácil y rápida.
¡Gracias por tu atención!
Modelado - Conceptos
¡Bienvenido(a) a Metodología de la Ciencia de Datos 101 Del Modelado a la Evaluación! Modelado
- Conceptos.
¡El modelado es la etapa de la metodología de la ciencia de datos donde el científico de datos
tiene la
oportunidad de probar la salsa y decidir si está en el punto o necesita más condimentos!
Esta porción del curso está dirigida a responder dos preguntas claves:
Primero, cuál es el propósito del modelado de datos, y,
segundo, ¿cuáles son algunas características de este proceso?
El Modelado de Datos se enfoca en desarrollar modelos que sean, o descriptivos, o predictivos.
Un modelo descriptivo podría examinar, por ejemplo, cosas como: si una persona hace esto,
entonces es probable que prefiera aquello.
Un modelo predictivo intenta dar resultados de tipo sí/no, o stop/go.
Estos modelos se basan en el enfoque analítico que se haya elegido, ya sea impulsado por la
estadística,
o por el aprendizaje automático.
El científico de datos usará un conjunto de entrenamiento para el modelado predictivo.
Un conjunto de entrenamiento es un conjunto de datos históricos para los cuales ya se conoce el
resultado.
El conjunto de entrenamiento funciona como un medidor para definir si el modelo debe ser
calibrado.
En esta etapa, el científico de datos jugará con distintos algoritmos para asegurar
que las variables en acción realmente se requieran.
El éxito de la compilación, preparación y modelado de datos, dependerá de la comprensión
del problema a mano y de la elección del enfoque analítico apropiado.
Los datos ayudan a la resolución de la pregunta, y como la calidad de los ingredientes al
cocinar, preparan el terreno para el resultado.
Se debe refinar, ajustar y afinar constantemente en cada paso, para asegurar que el
resultado sea uno sólido.
En la descriptiva Metodología de la Ciencia de Datos de John Rollins, el marco de referencia
busca
conseguir 3 cosas: Primero,
comprender la pregunta a mano. Segundo,
elegir un enfoque analítico o método para resolver el problema, y,
tercero,
obtener, comprender, preparar y modelar los datos.
La meta final es llevar al científico de datos a un punto donde pueda construir un modelo de
datos
para responder la pregunta.
Cuando la cena está lista para servir y el huésped hambriento está a la mesa, la pregunta clave
es: ¿He preparado bastante para comer?
Bien, esperemos que así sea.
En esta etapa de la metodología, los bucles de evaluación, despliegue y retroalimentación del
modelo aseguran
que la respuesta sea cercana y relevante.
Esta relevancia es crucial para el campo de la ciencia de datos
en general, por ser un campo de estudio más bien reciente, y nos interesan las posibilidades
que tiene para ofrecer.
Entre más gente se beneficie con los resultados de esta práctica, más lejos avanzará su
desarrollo.
Aquí termina la sección de Modelado a Evaluación de este curso, en la cual repasamos los
conceptos
clave relacionados con el modelado. ¡Gracias por tu atención!
Evaluación
¡Bienvenido(a) a Metodología de la Ciencia de Datos 101 Del Modelado a la Evaluación!
Evaluación.
La evaluación de un modelo va de la mano de su misma construcción. Las etapas de
modelado y evaluación se hacen iterativamente.
La evaluación de un modelo se hace durante su desarrollo y antes de ser desplegado.
La evaluación permite evaluar la calidad del modelo pero también es una oportunidad
para ver si cumple con la solicitud inicial.
La evaluación responde a la pregunta: ¿El modelo usado realmente responde la pregunta inicial,
o necesita ser ajustado?
La evaluación del modelo puede tener dos fases principales.
La primera es la fase de medidas de diagnóstico, que se usa para asegurar que el modelo
funcione
como se pretendía.
Si es modelo es predictivo, se puede usar un árbol de decisión para evaluar si la respuesta
que arroja el modelo está alineada con el diseño inicial.
Se puede usar para ver dónde hay áreas que requieran ajustes.
Si el modelo es descriptivo, uno donde se evalúen relaciones, entonces puede aplicarse
un conjunto de prueba con resultados conocidos, y el modelo puede refinarse como sea
requerido.
La segunda fase de evaluación que puede usarse es la prueba de importancia estadística.
Este tipo de evaluación puede aplicarse al modelo para asegurar que los datos estén siendo
manejados e interpretados adecuadamente dentro del modelo.
Está diseñado para evitar dudas innecesarias cuando la respuesta sea revelada.
Ahora, volvamos a nuestro estudio de caso para aplicar el componente de Evaluación
de la metodología de la ciencia de datos.
Veamos una forma de hallar el modelo óptimo con una medida de diagnóstico con base en
el ajuste de uno de los parámetros de construcción del modelo.
En particular, veremos cómo ajustar el costo relativo de mala clasificación de resultados "sí" y
"no".
Como indica esta tabla, se hicieron cuatro modelos con cuatro costos relativos diferentes de
mala
clasificación.
Como vemos, cada valor de este parámetro de construcción de modelos aumenta la tasa de
verdaderos positivos,
o la sensibilidad, de la precisión para predecir "sí", a expensas de una menor precisión para
predecir
"no". Esto es, una creciente tasa de falsos positivos.
La pregunta es, ¿cuál modelo es mejor con base en el ajuste de este parámetro?
Por razones de presupuesto, la intervención de reducción de riesgo no podía aplicarse a la
mayoría o la totalidad
de los pacientes de insuficiencia cardíaca, muchos de los cuales no habrían sido readmitidos de
cualquier manera.
Por otra parte, la intervención no sería tan efectiva para mejorar la atención al paciente
como debería, si no se enfocaran suficientes pacientes de insuficiencia cardíaca de alto riesgo.
Entonces, ¿cómo definir cuál era el modelo óptimo?
Como puedes ver en esta dispositiva, el modelo óptimo es el que brinda la máxima separación
entre la curva ROC azul con respecto a la línea base roja.
Vemos que el modelo 3, con un costo relativo de mala clasificación de 4 a 1, es el mejor de los 4
modelos.
Y por si acaso tenías curiosidad, el acrónimo ROC se traduce como Característica Operativa del
Receptor,
creada en la Segunda Guerra Mundial para detectar aviones enemigos en el radar.
Desde entonces ha sido usada en muchos otros campos.
Hoy es de uso común en el aprendizaje automático y la minería de datos.
La curva ROC es una útil herramienta de diagnóstico para definir el modelo óptimo de
clasificación.
Esta curva cuantifica el desempeño de un modelo binario de clasificación, desclasificando los
resultados
"sí" y "no" cuando cambia algún criterio de discriminación.
En este caso, el criterio es el costo relativo de mala clasificación.
Al graficar la tasa de verdaderos positivos contra la tasa de falsos positivos para distintos valores
del costo relativo de mala clasificación, la curva ROC ayudó a seleccionar el modelo
óptimo.
Aquí termina la sección de Evaluación de este curso.
¡Gracias por tu atención!
Despliegue
¡Bienvenido(a) a Metodología de la Ciencia de Datos 101 Del Despliegue a la Retroalimentación!
Despliegue.
Si bien un modelo de ciencia de datos dará una respuesta, la clave para hacerla relevante
y útil para abordar la pregunta inicial, implica familiarizar a los actores
con la herramienta producida.
En un escenario de negocios, los actores tienen distintas especialidades que ayudarán a
este objetivo, como el dueño de la solución, mercadeo, desarrolladores y administración de IT.
Cuando el modelo ha sido evaluado y el científico de datos confía en que funcionará, se
despliega
y se somete a la prueba definitiva.
Dependiendo del propósito del modelo, puede lanzarse entre un grupo limitado de usuarios
o en un entorno de prueba, creando confianza en la aplicación del resultado con miras a un uso
generalizado.
Ahora, veamos el estudio de caso en relación con la aplicación del "Despliegue".
Como preparación para el despliegue de la solución, el próximo paso era asimilar el
conocimiento
al grupo de negocios que diseñaría y administraría el programa de intervención para reducir
el riesgo de readmisión.
En este escenario, la gente de negocios tradujo los resultados del modelo para que el equipo
médico
entendiera cómo identificar pacientes de alto riesgo y diseñara acciones de intervención
adecuadas.
La meta, claro, era reducir la probabilidad de que aquellos pacientes fueran readmitidos dentro
de
30 días después del alta.
En la etapa de requisitos del negocio, la Directora del Programa de Intervención y su equipo
querían una aplicación que brindara evaluaciones de riesgo de insuficiencia cardíaca
automáticas,
casi en tiempo real.
También debía ser de fácil uso para el equipo médico, ojalá mediante una aplicación
de tablet basada en navegador, que cada miembro del equipo pudiera portar.
Los datos del paciente se generarían a lo largo de la hospitalización.
Automáticamente se prepararían en el formato que el modelo requería y cada paciente sería
puntuado cerca de la hora del alta.
Así los médicos tendrían la evaluación de riesgo más actualizada de cada paciente, ayudándoles
a escoger cuáles pacientes recibirían intervenciones después del alta.
Como parte del despliegue de la solución, el equipo de Intervención crearía y brindaría
entrenamiento
al equipo médico.
También, se desarrollarían procesos para seguir y monitorear a los pacientes que recibieran
la intervención, en colaboración con desarrolladores de IT y administradores de bases de datos,
para que los resultados pasaran por la etapa de retroalimentación y el modelo fuera refinado
con
el tiempo.
Este mapa ejemplifica el despliegue de una solución por una aplicación Cognos.
Aquí, el estudio de caso era el riesgo de hospitalización de pacientes con diabetes juvenil.
Como el caso de uso de insuficiencia cardíaca, este usó una clasificación de árbol de decisión
para crear un modelo de riesgo que serviría como base para esta aplicación.
El mapa muestra un resumen del riesgo nacional de hospitalización, con un análisis interactivo
del riesgo previsto según varias afecciones del paciente y otras características.
Esta dispositiva muestra un reporte interactivo del riesgo según la población del paciente dentro
de cada
nodo del modelo, para que los médicos pudieran entender la combinación de condiciones para
este subgrupo de pacientes.
Y este reporte entrega un resumen detallado de un paciente individual, incluyendo el riesgo
previsto
del paciente y detalles de su historia clínica, brindando una síntesis concisa para el
doctor.
Aquí termina la sección de Despliegue de este curso.
¡Gracias por tu atención!
Retroalimentación
¡Bienvenido(a) a Metodología de la Ciencia de Datos 101 Del Despliegue a la Retroalimentación!
Retroalimentación.
Sobre la marcha, la retroalimentación de los usuarios ayudará a refinar el modelo y evaluar su
desempeño e impacto.
El valor del modelo dependerá de incorporar exitosamente la retroalimentación y hacer
ajustes durante todo el tiempo que se requiera la solución.
En la Metodología de la Ciencia de Datos, cada fase le da paso a la siguiente.
Volver cíclica la metodología, asegura refinamiento en cada etapa del juego.
El proceso de retroalimentación nace de la noción de que, entre más conozcas, más querrás
conocer.
Así es como lo ve John Rollins y con suerte tú también.
Cuando el modelo ha sido evaluado y el científico de datos confía en que funcionará, se
despliega
y se somete a la prueba definitiva: el verdadero uso de campo en tiempo real.
Entonces, miremos de nuevo nuestro estudio de caso, para ver cómo se aplica la porción de
retroalimentación
de la metodología.
El plan para la etapa de retroalimentación incluyó estos pasos:
Primero, se definiría y prepararía el proceso de revisión, con la responsabilidad general
de medir los resultados de un modelo de "vuelo al riesgo" de la población de riesgo por
insuficiencia cardíaca.
Los ejecutivos de manejo clínico serían los responsables del proceso de revisión.
Segundo, se haría seguimiento a los pacientes de insuficiencia cardíaca que recibieran
intervención
y se registrarían sus resultados de readmisión.
Tercero, la intervención se mediría para determinar qué tan efectiva era para reducir
las readmisiones.
Por razones éticas, los pacientes de insuficiencia cardíaca no se dividirían en grupos de
control y tratamiento.
En cambio, las tasas de readmisión se compararían antes y después de la lamentación del
modelo para medir su impacto.
Luego de las etapas de despliegue y retroalimentación, se revisaría el impacto del programa de
intervención
en las tasas de readmisión después del primer año de su implementación.
Entonces se refinaría el modelo, con base en los datos compilados después de la
implementación del modelo
y el conocimiento obtenido a lo largo de estas etapas.
Otros refinamientos incluían: Incorporar información de participación
en el programa de intervención, y posiblemente refinar el modelo para incorporar
datos farmacéuticos detallados.
Si recuerdas, la recolección de datos se aplazó inicialmente porque los datos farmacéuticos no
estaban disponibles en ese momento.
Pero después de la retroalimentación y de experimentar el modelo en la práctica, podría
decidirse que
agregar esos datos ameritaría la inversión de tiempo y esfuerzo.
También cabe la posibilidad de que otros refinamientos se presentaran por sí mismos
durante la etapa de retroalimentación.
Además, las acciones y procesos de intervención serían revisados y muy seguramente refinados
también, con base en la experiencia y el conocimiento adquiridos en el despliegue y la
retroalimentación iniciales.
Finalmente, el modelo y las acciones de intervención refinadas se desplegarían de nuevo,
manteniendo
el proceso de retroalimentación a lo largo de todo el programa de intervención.
Aquí termina la porción de Retroalimentación de este curso.
¡Gracias por tu atención!