Castro-Rebolledo (2018) Evaluación de Competencias Clínicas en Los Contextos Médicos Curriculares Actuales
Castro-Rebolledo (2018) Evaluación de Competencias Clínicas en Los Contextos Médicos Curriculares Actuales
Castro-Rebolledo (2018) Evaluación de Competencias Clínicas en Los Contextos Médicos Curriculares Actuales
Resumen
Recibido: 21 | 09 | 2017 La introducción de los nuevos modelos curriculares en la enseñanza de
Aprobado: 28 | 02 | 2018 la medicina en todos sus niveles, ha traído consigo grandes cambios que
han llevado a la consolidación de nuevas formas de enseñar y de evaluar.
DOI: http://dx.doi.org/10.18270/rsb.v8i1.2375 En el aprendizaje basado en competencias las evaluaciones únicas ya no
son prácticas, por lo que hay una exigencia de distintas aproximaciones a
los conocimientos y al quehacer del estudiante en su proceso formativo.
En esta revisión se busca hacer una síntesis de las herramientas de evaluación
de competencias clínicas más difundidas a nivel mundial. Se presentan las
diferentes aproximaciones a la dura tarea de consolidar un cuerpo integrado
de distintos puntos de vista, que permitan al docente y a las instituciones co-
nocer qué tanto se acercan los estudiantes al perfil establecido por cada una
de ellas y cómo están preparando a los profesionales que exige esta época.
Abstract
Introduction of new curricular models in medical education both in under-
graduate and graduate levels has brought considerable changes leading to
the consolidation of various teaching and assessing strategies. Competen-
ce-based learning revises assessment as a sustained process. Thus requi-
ring various approaches to both students´ knowledge and roles within their
educative path. This review seeks to summarize the world´s most extensive
clinical competences assessment tools. Different approaches regarding the
challenging task of consolidating a comprehensive frame that allows both
the teachers and education institutions to gauge medical students´ compe-
Rodrigo Castro-Rebolledo tences and job requirements are included.
iD orcid.org/0000-0002-2367-4919
66 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
un conocimiento clínico más gradual, estable y, al fi- Frank, et al., en 2010, mencionaron que, aunque la
nal, con mayor nivel de dominio de las competencias definición de la educación médica basada en com-
esperadas. Además, el estudio encontró que el fuerte petencias es un concepto muy variable en la litera-
énfasis en ciencias básicas al comienzo de la carre- tura y a pesar que falta consenso en los términos
ra condujo a una mejoría pronunciada en la curva de que abarca, se han descrito y aclarado los términos
aprendizaje del dominio de conocimiento básico, clí- específicos. Además, se han definido los pasos para
nicamente relevante y que continúa desarrollándose planear un currículo de educación médica basado en
aún sin enseñanza formal, durante los últimos años del competencias [16]:
currículo [1].
1. Identificar las habilidades necesarias de
El modelo por competencias abre las puertas a eva- los graduados.
luar distintas dimensiones en los estudiantes que pre- 2. Definir de manera explícita las competencias re-
viamente se daban por hechas y simplemente tenían queridas y sus componentes.
una aproximación superficial y tangencial por parte de
los evaluadores. 3. Definir los hitos a lo largo del camino del desarrollo
de las competencias.
Dentro de esta aproximación, es necesario puntualizar
4. Seleccionar las actividades educativas, las expe-
lo siguiente [10]: riencias y los métodos instructivos.
1. La nueva información debe estar ligada al conoci- 5. Seleccionar las herramientas de evaluación para
miento previo. medir el progreso a lo largo de los hitos.
2. Las estrategias pedagógicas deberían mejorar el 6. Diseñar una evaluación de los resultados
aprendizaje significativo, al disminuir la dependen- del programa.
cia en contextos particulares y al brindar múltiples La anterior visión lleva implícito el concepto de “hi-
oportunidades de práctica. tos” (milestones) basados en el nivel de competencias
según el grado de formación de los estudiantes den-
3. Los estudiantes deberían tener oportunidades pa-
tro del proceso, tal como los define el Accreditation
ra practicar en rutinas de aprendizaje basado
Council for Graduate Medical Education (ACGME), y
en problemas. resalta la concordancia que debe haber entre el hito
4. Se deben presentar casos a los estudiantes, con el definido y la forma de evaluarlo [17,18].
fin de mejorar sus destrezas de razonamiento.
Con la globalización emergente de los estándares ba-
A pesar del riesgo de que los estudiantes se centren sados en competencias, se presentó un movimiento
más en las ciencias clínicas que en las básicas durante simultáneo que reformuló el enfoque tradicional lineal
el proceso, lo que se espera al final de la implemen- de la educación médica. En 2008, Albanese, et al. [19],
tación de un currículo innovador, es que los nuevos publicaron un estudio de las competencias centrales
médicos sean aprendices de por vida y que se adapten globales y concluyeron, en ese momento, que la di-
de manera flexible a los nuevos cambios en su am- versidad mundial de definiciones para las competen-
biente profesional [11], lo que implica la capacidad de cias centrales de los médicos limitaba cualquier com-
“aprender a aprender”. paración significativa de sistemas cruzados. Aunque
la literatura provee varias listas de competencias, las
A pesar de las dudas con respecto a la evidencia de definiciones de qué es lo que exactamente constituye
si la educación médica basada en competencias ga- una competencia tienden a ser imprecisas e inespecífi-
rantiza una mejoría en la calidad de la atención de cas. Muchas de estas definiciones de competencias se
los pacientes, y que es necesario enfocar la energía dan dentro de los contextos de cómo se desarrolla la
en mantener la competencia clínica a lo largo de la práctica de la medicina. Es así como, en Estados Uni-
vida profesional y no solo centrarse en el proceso dos, el ACGME define ciertos tipos de competencias
educativo formal [12], el modelo por competencias ha como dirigidas a un sistema de atención de salud que
demostrado ser una herramienta útil en la formación generalmente se caracteriza como una operación con
médica de pregrado y posgrado, en la cual la obser- fines de lucro, por lo que la terminología que se utiliza
vación directa y la retroalimentación son elementos para definir ciertas competencias sugiere que estas han
fundamentales [13-15]. surgido desde el mundo de los negocios, como en el
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 67
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
caso de los términos “basados en sistemas” y “basa- la práctica amplia de la salud pública. (En la actuali-
dos en la práctica” [19], aunque se ha argumentado dad, se han definido las siguientes competencias en
que representan un reconocimiento de que la práctica esta área: destrezas analíticas y de evaluación; de-
de la medicina depende en gran medida del contexto sarrollo de políticas y destrezas de planeamiento de
en el que esta sucede, enmarcando un componente programas; destrezas de comunicación; habilidades
más sociológico. de competencia cultural; dimensiones comunitarias
Albanese, et al., en 2008, recolectaron de la literatura de las habilidades de práctica; habilidades en cien-
cuatro ejemplos de definiciones de las competencias cias de salud pública; destrezas en planeación fi-
que debe tener un médico y agregaron una quinta; son nanciera y administrativas; habilidades en liderazgo
las siguientes [19]: y sistemas de pensamiento) [20].
1. Los médicos pueden brindar atención médica u 4. Las competencias son conocimientos, habilidades y
otros servicios profesionales, de acuerdo con los actitudes observables importantes.
estándares de práctica establecidos por los miem- 5. Las competencias son “conocimientos, habilidades,
bros de la profesión y de manera que se ajusten a actitudes y cualidades personales esenciales para la
las expectativas de la sociedad.
práctica de la medicina”.
2. Las competencias son un conjunto complejo de com- Por lo tanto, es claro que hay una gran variabilidad en
portamientos basados en los componentes del cono- la conceptualización y clasificación de las competen-
cimiento, las habilidades y las actitudes, en el cual la cias médicas. Des Cruser, et al., en 2012, facilitaron
“competencia” se ve como una habilidad personal.
un sistema de comparación cruzada entre los distin-
3. Las competencias representan un conjunto de habi- tos modelos de clasificación de competencias a nivel
lidades, conocimientos y actitudes necesarias para mundial, como se expresa en la tabla 1 [21].
Estados Unidos (1) CanMEDS GMC (2) AMC (3) MEDINE (4) IIME-GMER (5)
Conocimiento Médico Experto médico Practicante Conocimiento Conocimiento Fundamentos
(Medical expert) (Practicioner) cientifico y medicina médico científicos de la
basada en la medicina
evidencia
Cuidado del paciente Experto médico Practicante Ciencias clínicas, Cuidado del paciente Destrezas Clínicas
defenosr de la (Practicioner) destrezas clínicas; Defensor de la salud
salud salud de los
indígenas
Habilidades Comunicador Profesional Habilidades Habilidades de Habilidades
de comunicación de comunicación comunicación de comunicación
interpersonal interpersonal interpersonal
68 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
Estados Unidos (1) CanMEDS GMC (2) AMC (3) MEDINE (4) IIME-GMER (5)
Aprendizaje basado Alumno (Scholar) Alumno y científico Epidemiología Conocimiento Manejo de la
en la práctica y estadística, científico, estudiante infomación,
(y mejoramiento) pensamiento crítico colaborador, pensamiento crítico
y métodos de mejoramiento del e investigación
investigación cuidado de la salud
1. En Estados Unidos esto incluye el ACGME, el LCME, el AOA y el NBOME
2. The General Medical Council (cuatro países del Reino Unido: Inglaterra, Irlanda del Norte, Escocia y Gales)
3. Australian Medical Council (Australia y Nueva Zelanda)
4. Educación Médica en Europa
5. Requerimientos Esenciales Mínimos Globales del Instituto Internacional de Educación Médica
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 69
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
70 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 71
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
Figura 2. Jerarquía del conocimiento y ejemplos de preguntas que determinan el conocimiento del estudiante
Según Case y Swanson, el objetivo de toda evaluación Una lista de opciones en esta estrategia evaluativa
es extraer conclusiones con respecto a las aptitudes de puede contener desde 7 hasta 26 alternativas [39], de
los alumnos, que se extienden más allá de los proble- manera que, dentro de un mismo examen, puede utili-
mas particulares que se incluyen en el examen, hasta zarse la misma lista de opciones en diferentes pregun-
alcanzar el dominio más amplio a partir del cual se ha- tas; no obstante, debido a la composición al azar de
ce el muestreo de los casos. Primero, hay que decidir lo la evaluación, esas preguntas no son necesariamente
que se desea incluir en el examen, reflejando su impor- consecutivas. La intención en este tipo de evaluacio-
tancia relativa. Es muy importante comprender que el nes es analizar el razonamiento clínico y no necesa-
rendimiento observado en la muestra proporciona una riamente solo el conocimiento. Se ha encontrado que
base para calcular los logros en el dominio más amplio, los evaluados con esta modalidad que han puntuado
lo que permite determinar el grado de reproducibilidad mejor en las pruebas, demuestran un razonamiento
del cálculo de la capacidad verdadera (si es confiable, más eficaz hacia delante –visto principalmente en re-
generalizable) y de exactitud (si es válido). De lo con- sidentes– y menos hacia atrás –como se evidencia en
trario, los resultados del examen estarán sesgados. Por los estudiantes de pregrado–, lo que permite que esta
último, puntualizan estos autores, para generar un pun- herramienta sea útil para evaluar el razonamiento clíni-
taje reproducible, es necesario elaborar una muestra co (razonamiento hipotético-deductivo) independien-
con contenido amplio, es decir, normalmente una do- temente del nivel de entrenamiento [40].
cena o más de casos, 100 o más preguntas de opción
múltiple o preguntas de respuesta breve [36]. Métodos de evaluación formativa
Ítems de emparejamiento ampliado Examen clínico objetivo estructurado
Son preguntas de opción múltiple que están organizadas Harden, et al., en 1975, describieron el modelo del exa-
en conjuntos que usan una sola lista de opciones, para to- men clínico objetivo estructurado, en un esfuerzo por
dos los ítems del conjunto. Según Case y Swanson (2006), evaluar las destrezas clínicas de los estudiantes, de una
debe incluir un tema general, una lista de opciones, una manera consistente y objetiva [41,42]. El examen clí-
oración introductoria y, al menos, dos enunciados [36]. nico objetivo estructurado fue rápidamente adoptado
72 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
como herramienta de evaluación de las competencias mayor en la medida en que el estudiante progresa. Los
clínicas de los estudiantes [43]; es un método innova- estudiantes deben estar previamente preparados para
dor de evaluación para analizar las destrezas clínicas, la prueba, lo que favorece sus habilidades metacogni-
que incluyen la comunicación efectiva y las destrezas tivas [51,52]. Wilby, et al., describieron cuatro desafíos
de examen físico de manera adicional a la memori- en la implantación del examen clínico objetivo estruc-
zación de hechos. A diferencia del encuentro con un turado: las herramientas de evaluación; los actores
paciente real, el examen clínico objetivo estructurado estandarizados (principalmente por la dificultad en el
ocurre en un ambiente de bajo riesgo, lo cual permite a reclutamiento y en su preparación); la calibración del
los estudiantes estar cómodos con la toma de la histo- asesor, la cual implica un proceso de estandarización
ria, la realización del examen físico y la comunicación de sus capacidades para evaluar; y la estandarización
interpersonal [23]. El método también incluye una re- del lugar de evaluación [53,54].
visión de la ejecución del evaluado y una retroalimen-
tación durante una información después del examen. La estructura básica del examen clínico objetivo es-
Un elemento importante de este tipo de evaluación es tructurado consiste en un circuito de estaciones de
la flexibilidad [43], la cual posibilita su implementación evaluación, en donde un rango de destrezas en prácti-
en lugares de bajos recursos [44,45]. cas clínicas es evaluado por un examinador, utilizando
una plantilla de registro (lista de chequeo) de objetivos
El análisis del desempeño del estudiante en el examen previamente determinada [55,56].
clínico objetivo estructurado puede revelar deficien-
cias en la exposición de los estudiantes a tópicos par- En 1995, Selby C, et al., describieron los pasos necesa-
ticulares y, de esa manera, se puede analizar la cali- rios para el desarrollo de un ECOE [57] (tabla 3):
dad de la enseñanza, promoviendo un mejoramiento
continuo en la educación médica. Aunque el examen Tabla 3. Pasos necesarios en el desarrollo de un examen clínico
clínico objetivo estructurado puede no ser óptimo en objetivo estructurado
todas las situaciones, es un valioso complemento junto
a otros métodos de evaluación [23]. • Determine las competencias y destrezas que se van a examinar
• ¿Cuántas estaciones de evaluación de destrezas se necesitan?
El examen clínico objetivo estructurado se recomienda • Evaluación de las destrezas
más para evaluar destrezas, técnicas, clínicas y prácti- • Plantilla de registro
cas, así como para demostrar habilidades de alto or- • Espacio para el examen
den, asociadas con los objetivos educacionales vincu- • Personal necesario:
Examinadores
lados a conocimientos y destrezas. Además, todas las Coordinadores y cronometradores
competencias recomendadas por el ACGME durante Pacientes o voluntarios
las rotaciones clínicas (atención del paciente, conoci- • Arreglos el día del examen
miento médico, habilidades de comunicación interper- • Revisión de resultados
sonal –que varían según el sexo del estudiante– [46],
profesionalismo, aprendizaje basado en la práctica y Entre esos pasos se menciona que las competencias
mejoramiento, y práctica basada en sistemas), pueden por evaluar deben ser muy claras, es decir, pueden ir
evaluarse mediante el examen clínico objetivo estruc- dirigidas solamente a la la anamnesis o a evaluar la
turado [47]. También, se ha usado para demostrar la competencia en la práctica del examen físico; los vo-
progresión de las destrezas clínicas con el entrena- luntarios simulan a los pacientes y la plantilla de re-
miento, tanto en pregrado como en posgrado [48], gistro debe concentrarse en técnicas correctas o reco-
convirtiéndose en un factor predictor del desempeño lección apropiada de información durante el registro
en la evaluación de las pruebas estatales [48-50]. de la historia. Además, en otras estaciones se pueden
examinar interpretaciones de imágenes o datos. Por el
Un elemento clave en el desarrollo del examen clínico contrario, al finalizar la carrera, un examen clínico ob-
objetivo estructurado como herramienta de evalua- jetivo estructurado podría incluir casos más comple-
ción, es la selección del contenido del caso. Para esto, jos, en los cuales se describan signos físicos de mane-
es de vital importancia desarrollar las metas especí- ra adecuada y cuyo análisis tiene como meta trabajar
ficas y las tareas correspondientes en circunstancias sobre una formulación diagnóstica [57], mientras que
clínicas simuladas [23]. La complejidad de los casos las evaluaciones en posgrado ponen un gran énfasis
es otro elemento que debe variar en el tiempo, aso- en técnicas prácticas avanzadas y habilidades de solu-
ciado con la formación de los estudiantes, y debe ser ción de problemas. En todos los niveles de evaluación,
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 73
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
se pueden examinar destrezas de comunicación. Un ser de diferentes tipos y de dificultad variada, para proveer
elemento importante que se debe tener en cuenta es un circuito de evaluación mixto que permite discriminar
el papel que juega la objetividad del evaluador en el entre las distintas habilidades de los candidatos.
puntaje final, de ahí, la importancia de su estandariza-
En la siguiente tabla se muestra un esquema de 10 es-
ción y de un adecuado entrenamiento de quienes se
taciones en la Universidad de Edimburgo, citado por
encargarán de hacer la evaluación [58,59].
Selby, et al., [57]:
Una de las preguntas más complejas con respecto a
esta modalidad de evaluación es: ¿cuántas estaciones Tabla 4. Circuito para un examen clínico objetivo estructurado
para estudiantes de pregrado
son suficientes para hacer una evaluación adecuada?
Según Selby, et al. [57], menos de 10 estaciones son in- Circuito para un examen clínico objetivo
adecuadas para tener un rango satisfactorio de tópicos estructurado para estudiantes de pregrado
por evaluar, pero más de 20 pueden ser demasiadas y
requerir un gran número de evaluadores. Selby men- • Fundoscopia
• Examen cardiovascular (dirigido)
ciona, además, que para un examen clínico objetivo • Medida de presión sanguínea
estructurado en un curso clínico inicial en el pregrado, • Examen respiratorio (dirigido)
es suficiente tener entre 10 y 15 estaciones, cada una • Análisis de orina
de las cuales requiere seis minutos para la evaluación. • Examen de la articulación de la rodilla
• Historia 1: cardiovascular
Algo importante al respecto es que se ha demostrado que • Examen de abdomen
la confiabilidad durante el examen clínico objetivo estruc- • Neurología: reflejos tendinosos profundos
turado se asocia más al número de estaciones y competen- • Historia 2: respiratorio
cias evaluadas, que a la longitud de las estaciones. Es así
como un examen clínico objetivo estructurado que tiene Para esas 10 estaciones cuando la evaluación está sien-
seis estaciones de 20 minutos (2 horas de evaluación), pro- do diseñada, es útil construir una tabla para demostrar
duce resultados menos confiables que 16 estaciones con las competencias y contenidos por evaluar, como se
una duración promedio de 7,5 minutos (tiempo de evalua- evidencia en el siguiente ejemplo [57]:
ción equivalente a 2 horas) [35]. Con respecto a la evalua-
ción en sí, Selby dice que las tareas por evaluar deberían
Competencias a evaluar
Contenidos Toma de historia Examen físico Procedimientos paraclínicos
Sistema cardiovascular x x
Ojos x
Sistema respiratorio x x
Sistema urinario x
Sistema musculoesquelético x
Sistema digestivo x
Sitema nervioso x
Debe desarrollarse un sistema de registro (hoja de una ejecución buena de una mala [56]. Se ha encon-
registro) simple y carente de ambigüedad para cada trado que es esencial incluir, en la parte superior de
destreza evaluada, que limite las digresiones entre los cada esquema de registro, lineamientos para los eva-
evaluadores. Los esquemas de registro deben ser con- luadores, en los cuales están las instrucciones que de-
cisos y deben enfocarse en acciones que discriminen ben ser leídas por los candidatos al comienzo de la
74 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
evaluación y esbozando exactamente la tarea requeri- clínicos tempranos, en los cuales se requieran técnicas
da. Se recomienda tener disponibles suficientes hojas de anamnesis y de examen físico. Aquellos empleados
de registro por cada estación [57]. La lista de chequeo para evaluar las destrezas de comunicación, requieren
no debe tener más de 10 a 12 ítems para evaluar, ya más entrenamiento que aquellos en que solo se va a
que se ha establecido que superar esta cifra se asocia hacer el examen físico. En caso de que se requiera eva-
de manera negativa con la validez y la confiabilidad luar signos clínicos anormales, es necesario contratar
de la prueba [60]. pacientes reales.
En la evaluación, se requieren suficientes espacios pa- El día del examen es importante comenzar temprano,
ra el evaluador, para el estudiante evaluado, para el hay que establecer con anticipación el circuito de las
paciente o voluntario y para algún aparato [57]. Selby, estaciones, y estas deben numerarse tempranamente.
et al., disponen de una unidad de atención programa- Las camas, las sillas y otros aparatos deben ser colo-
da, en la cual se han eliminado todas las citas de pa- cados de manera adecuada. Los voluntarios y pacien-
cientes y actividades programadas para ese día, pero tes deben llegar un poco antes que los evaluadores, y
esta no se encuentra siempre disponible. Las estacio- pueden requerir un refuerzo por parte de los mismos.
nes para evaluación de imágenes o interpretación de Es muy importante para los evaluadores el hecho de
datos requieren menos espacio. Las estaciones donde que deben ser muy claros con respetar el tiempo de
se evalúan destrezas de comunicación, deben quedar la estación, y en puntos particulares de sus destrezas
distantes de aquellas en donde se hace la auscultación. de evaluación, instrucciones y esquemas de registro.
Otra recomendación importante es numerar de mane- Es fundamental que los estudiantes evaluados reciban
ra lógica y clara los sitios de las estaciones, para que unas instrucciones adecuadas al comienzo de cada
los evaluados que estén nerviosos puedan encontrar estación y detener su actividad cuando el tiempo de
su ruta en un orden correcto; también, se recomienda la estación se haya completado, para moverse rápida-
utilizar cinta de enmascarar para indicar la ruta en el mente a la siguiente estación en el circuito [57].
suelo, lo que facilita la ronda en el circuito [57].
Al finalizar el examen clínico objetivo estructurado y
Otro factor de vital importancia es el examinador, ya antes que cada grupo de evaluados abandone el si-
que esta modalidad de evaluación consume muchos tio, es necesario revisar sus experiencias para proveer
recursos humanos y tiempo. Es necesario comprome- una retroalimentación inmediata. También, deberían
ter con anticipación a los evaluadores; de esto se en- ser consultados los evaluadores para identificar cual-
cargará la persona responsable de la organización y quier problema en su estación o aquellos evaluados
esta, a su vez, debe estar familiarizada con cada una con desempeño bajo.
de las estaciones de evaluación, en caso de que se
Por último, a pesar de los costos en personal y tiempo
requiera una intervención de último momento [57]. Se
(aunque ya se comentó que se puede hacer con ba-
requiere por parte del evaluador una información pre-
jos recursos), el examen clínico objetivo estructurado
via al examen, para estar seguro de que no se den am-
permite una retroalimentación temprana e identificar
bigüedades. Se recomienda tener, dentro del proceso,
precozmente a aquellos estudiantes que presentan una
profesores con experiencia en docencia y evaluación
ejecución pobre. A estos se les puede indicar repetir el
para dar credibilidad al sistema de evaluación.
examen posteriormente. Un sitio web didáctico para la
Es fundamental tener unos adecuados coordinadores preparación de un examen clínico objetivo estructura-
y cronometradores, para limitar el tiempo de duración do se encuentra en http://www.osceskills.com.
de la estación y garantizar el tiempo para el relevo; se
necesita que la señal para el cambio de estación sea Miniejercicio de evaluación clínica
clara y sin ambigüedad.
El miniejercicio de evaluación clínica es una herra-
Con respecto al empleo de pacientes reales en las esta- mienta de evaluación formativa usada para evaluar la
ciones, puede ser difícil e inconveniente [57]. Debido ejecución de los estudiantes de medicina en el con-
a que hay muchas actividades de naturaleza repetitiva texto clínico [61], diseñada en Estados Unidos por el
e íntima, se recomienda utilizar modelos plásticos de American Board of Internal Medicine (ABIM), derivada
simulación que puedan emplearse en caso de requerir- de una evaluación más extensa y que duraba apro-
se el tacto rectal o el examen de seno. Se pueden usar ximadamente dos horas, el ejercicio de evaluación
voluntarios sanos en caso de evaluaciones en cursos clínica (Clinical Evaluation Exercise, CEX), el cual se
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 75
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
varió para hacerse en máximo 15 a 20 minutos y que, respecto al mini-CEX ocurre cuando se emplea sin
de esa manera, permitiera que se pudiera hacer varias la intención de utilizarlo como una herramienta de
veces en un año [62]. En la actualidad, el mini-CEX aprendizaje, dando la impresión en los evaluados de
es una herramienta de uso mundial, que requiere que que los evaluadores se preparan poco y no dedican
el evaluado se encuentre en un lugar de trabajo real el suficiente tiempo que esta herramienta necesita. Lo
de encuentro con el paciente, mientras es observado anterior ha llevado a que se haya propuesto cambios
por su docente evaluador. El estudiante realiza tareas en la terminología al hablar de “eventos de aprendizaje
clínicas tales como elaborar una historia específica o supervisado” [79], para enfatizar su uso como una he-
desempeñar algún aspecto relevante del examen físi- rramienta de utilidad en el proceso educativo, yendo
co, después del cual el evaluado provee un resumen más allá de ser una simple evaluación. Se ha aconseja-
de lo encontrado en el paciente, relacionado con los do grabar las evaluaciones de mini-CEX en video, para
siguientes pasos: el diagnóstico clínico y el plan de entrenar a los evaluadores en su uso [80,81]. Un ejem-
manejo. Los encuentros se pueden llevar a cabo en plo de lo anterior se pude ver en http://www.eprepp.
una gran variedad de lugares de trabajo que incluyen ie/assessment/
hospitalización, consulta ambulatoria e, incluso, en el
servicio de urgencias [63]. También, el mini-CEX se En 2017, Walsh, et al. [61], recomendaron la imple-
puede usar en pacientes que consultan por primera mentación de talleres de trabajo de dos horas dirigidos
vez o en aquellos en seguimiento. a los docentes evaluadores, con la siguiente estructura:
76 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
mismo y tareas de las tácticas y estrategias cognitivas”. [87]. Por un lado, existe la necesidad de ayudar a los
Por lo tanto, el propósito principal de la retroalimenta- estudiantes a aprender y desarrollarse y, por otro, la
ción es reducir la diferencia entre las prácticas, los en- de establecer criterios acerca de su progresión ya que
tendimientos actuales y los resultados esperados [84]. como refiere Kumar, et al, cerca del 50% de los estu-
diantes no son observados mientras realizan el exa-
Según Norcini y Burch [34], para los estudiantes es im-
men clínico y los estudiantes de posgrado el 80% del
portante saber primero hacia dónde van, cómo van y
qué viene a continuación. De un análisis adecuado de tiempo no reciben ningún tipo de retroalimentación
la brecha entre el aprendizaje actual y el esperado, en [88]. También, se ha pasado del concepto de observa-
ocasiones, es poco claro para los estudiantes entender ción en el sitio de trabajo al de evento de aprendizaje
que hay una necesidad de reducir esa brecha; de ahí, supervisado (Supervised Learning Event, SLE) para que
la importancia de tener muy claras las competencias no se diluya su valor.
que se deben lograr durante el proceso. La retroali-
mentación requiere criterios que provean indicadores La DOPS consiste en una escala de evaluación que, al
claros, acerca de si las tareas requeridas se desempe- igual que el mini-CEX, provee una retroalimentación,
ñan de una manera adecuada. Aquí falla mucho la re- pero en procedimientos prácticos [35]. La manera de
troalimentación, ya que hay mucha dificultad en los puntuación es una escala de seis puntos: de 1 a 2, está
profesores clínicos para ofrecer una retroalimentación por debajo del nivel de competencia esperado, 3 es el
honesta, en particular, cuando la ejecución ha sido límite inferior de competencia, 4 cumple con el nivel
deficiente [34,85]. La tercera fase del proceso de re- de competencia, y de 5 a 6 está por encima del nivel
troalimentación tiene que ver con cuáles son las accio- de competencia esperado. Se espera que el proceso de
nes indispensables para disminuir esa brecha entre el evaluación tenga una duración de 15 minutos de obser-
aprendizaje actual y el esperado. vación y 5 minutos dedicados a la retroalimentación.
La retroalimentación debe brindarse de una manera Los estudiantes deben recibir previamente una lista de
inmediata después del evento evaluativo y los estu- los procedimientos que se realizan con regularidad, en
diantes deben tener múltiples oportunidades de eva- los que se espera demuestren suficiente competencia,
luación. En 1983, Ende [86], sugirió las siguientes es- como es el caso de la intubación endotraqueal, la in-
trategias para brindar una adecuada retroalimentación: serción de una sonda nasogástrica, la administración
yy Ubique un sitio y el tiempo apropiado para
de medicación intravenosa, la venopunción y el mues-
la retroalimentación. treo de gases arteriales, entre otros. Los estudiantes son
evaluados por múltiples profesores clínicos a lo largo
yy Provea la retroalimentación solamente conside- del período de entrenamiento.
rando comportamientos específicos y no la ejecu-
ción general. Entre las ventajas de la DOPS se encuentra que po-
yy Dé la retroalimentación sobre decisiones y accio- sibilita la observación directa de las destrezas en los
nes, y no sobre la interpretación de los motivos y procedimientos, permite una evaluación global del es-
las intenciones de los estudiantes. tudiante y su forma de realizarlos, es práctica y fácil de
yy Ofrezca la retroalimentación en cantidades peque- usar, y es posible personalizarla según el contexto y las
ñas, “digeribles”. necesidades locales [35]. Entre sus desventajas están el
hecho de que no es posible evaluar todos los aspectos
yy Utilice un lenguaje que no sea evaluativo ni que
de ese tipo de competencias mediante un encuentro
implique un juicio.
único y que, por ser un procedimiento de naturaleza
técnica, es necesario que el asesor u observador sea
Observación directa experto en el procedimiento evaluado.
de destrezas de procedimiento Así como otras medidas de evaluación, se comenzó
La observación directa de destrezas de procedimien- a utilizar la DOPS en el ámbito de los posgrados y,
to (Direct Observation of Procedural Skills, DOPS) es progresivamente se han solucionado las dudas de su
una manera de evaluar las destrezas en la realización utilidad como un instrumento confiable, para evaluar
de procedimientos mediante la observación en el si- las destrezas clínicas en etapas tempranas del currícu-
tio de trabajo (Workplace Based Assessment, WBA) lo en el pregrado.
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 77
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
En 2012, McLeod estableció los siguientes usos poten- de la historia clínica y el examen, al basarse ambos en
ciales de la DOPS en el pregrado [89]: el encuentro clínico documentado con el paciente [91].
yy proveer evidencia de adquisición de destre- Consiste en una entrevista estructurada, en la cual los
zas prácticas. estudiantes evaluados discuten aspectos de un caso en
el cual ellos han estado involucrados, para explorar su
yy demostrar el entendimiento del estudiante en el uso razonamiento subyacente, la toma de decisiones y el
seguro de los equipos. entendimiento ético. Puede utilizarse en una gran va-
yy demostrar que el estudiante puede trabajar de ma- riedad de lugares, como hospitales, salas o unidades
nera segura en áreas de simulación y clínicas. de evaluación, en donde pueden discutirse distintos
temas clínicos.
yy indicar que el estudiante interactúa de manera
apropiada con los pacientes cuando los procedi- El estudiante o el docente selecciona dos registros
mientos los comprometen. apropiados de caso, en los cuales el evaluado ha he-
yy indicar la capacidad, potencial y comportamiento cho notas –el registro pudo haber sido escrito a mano
del estudiante. o por un medio electrónico– y los entrega a su asesor
[34]. Se espera que se escojan casos de complejidad
yy fomentar el desarrollo profesional y el autodesarrollo; variable. El asesor selecciona uno de los casos para la
yy generar una retroalimentación constructiva de las discusión. Posteriormente, se presenta el caso al ase-
aptitudes y el progreso del estudiante. sor, quien hace preguntas para probar el razonamiento
y el juicio profesional. Después, se asigna un puntaje
yy facilitar que el estudiante considere la práctica ba- en un número de dominios para analizar las compe-
sada en la evidencia, y proveer retroalimentación tencias esperadas en el programa de entrenamiento.
a los estudiantes acerca de su progreso y las nece- Una discusión basada en casos usualmente dura entre
sidades de aprendizaje, al resaltar sus fortalezas e 15 y 20 minutos, y la retroalimentación, entre 5 y 10
identificar sus debilidades. minutos [76]; la retroalimentación puede incluir planes
No obstante, McLeod, et al., establecieron ciertos de acción para mejorar la futura toma de decisiones
desafíos que se deben tener en cuenta [89], como clínicas [92,93].
los siguientes:
Se ha demostrado que es una herramienta útil en me-
yy Algunos procedimientos no son requeridos fre- jorar las destrezas en los estudiantes de posgrado, por
cuentemente, por lo que las oportunidades para ejemplo, en radiología, en la calidad de los reportes
observar las destrezas son escasas. en términos de validez, confiabilidad, reproducibilidad
y aceptación [94]. Se ha empleado esta modalidad de
yy El entrenamiento en la DOPS no es posible en un evaluación en el aprendizaje pues identifica en los estu-
amplio rango de destrezas, a menos que haya even- diantes áreas de fortaleza y debilidad, por lo cual es útil
tos programados. para emplear las estrategias aprendidas en la práctica
yy La coordinación entre los asesores y los estu- [95,96]. Como en las otras modalidades de evaluación,
diantes requiere reservar períodos regulares de la discusión basada en casos tiene elementos prácticos
observación, de manera que algún tipo de hora- de costo, tiempo y necesidad de asesores experimen-
rio de la DOPS organizado localmente pueda ser tados, lo que puede dificultar su implementación [91].
más eficiente. Otro problema que se puede presentar es que los ses-
En 2015, Profanter encontró que la DOPS funciona bien gos cognitivos del evaluador pueden afectar tanto la
en las destrezas de los estudiantes en el ámbito del labo- administración de la evaluación como su puntaje [97].
ratorio y se encontró una buena correspondencia entre Por tal razón, se recomienda desarrollar dos áreas: pri-
los resultados de la DOPS y el examen clínico objetivo mero, cómo conducir la evaluación y, segundo, cómo
estructurado, con respecto a las destrezas esperadas [90]. seleccionar el contenido de la evaluación [91].
Esta herramienta de evaluación (anexo 3) se emplea
Discusión basada en casos principalmente en el entrenamiento avanzado de re-
sidentes, sirve para evaluar competencias difíciles de
La discusión basada en casos (Chart-Stimulated Recall, documentar y alinea las evaluaciones con las compe-
DBC) es una evaluación híbrida que combina la revisión tencias sugeridas [92].
78 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 79
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
80 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
Referencias 16. Frank JR, Snell LS, Cate OT, Holmboe ES, Carraccio C,
Swing SR, et al. Competency-based medical education:
1. van der Veken J, Valcke M, De Maeseneer J, Derese A. Theory to practice. Med Teach. 2010;32:638-45.
Impact of the transition from a conventional to an inte- 17. Logio LS. Shifting approaches for evaluation of resident
grated contextual medical curriculum on students’ learning performance. From competencies to milestones. JAMA.
patterns: A longitudinal study. Med Teach. 2009;31:433-41. 2016;316:2197-9.
2. Brauer DG, Ferguson KJ. The integrated Curricu- 18. ACGME-Accreditation Council for Graduate Medical Edu-
lum in medical education. AMEE Guide No. 96. Med cation. Milestones. Fecha de consulta: 20 de agosto de
Teach. 2015;37:312-22. 2017. Disponible en: http://www.acgme.org/What-We-Do/
Accreditation/Milestones/Overview.
3. Cooke M, Irby DM, Sullivan W, Ludmerer KM. American
medical education 100 years after the Flexner report. N 19. Albanese MA, Mejicano G, Mullan P, Kokotailo P, Grup-
Engl J Med. 2006;355:1339-44. pen L. Defining characteristics of educational competen-
cies. Med Educ. 2008;42:248-55.
4. Klement BJ, Paulsen DF, Wineski LE. Anatomy as the back-
bone of an integrated first year medical curriculum: Design 20. Council on Linkages between Academia and Public
Health Practice. Core competencies for public health pro-
and implementation. Anat Sci Educ. 2011;4:157-69.
fessionals. 2014. Fecha de consulta: 18 de noviembre de
5. Wijnen-Meijer M, Cate OT, Rademakers JJ, van der Scha- 2017. Disponible en: http://www.phf.org/resourcestools/
af M, Borleffs JC. The influence of a vertically integrated Documents/Core_Competencies_for_Public_Health_
curriculum on the transition to postgraduate training. Med Professionals_2014June.pdf.
Teach. 2009;31:e528-32. 21. Des Cruser A, Brown SK, Ingram JR, Papa F, Podawiltz
6. Bandiera G, Boucher A, Neville A, Kuper A, Hodges B. AL, Lee D, et al. Medical Science Educator Practitioner
Integration and timing of basic and clinical sciences edu- Research Literacy Skills in Undergraduate Medical edu-
cation. Med Teach. 2013;35:381-7. cation: Thinking Globally, acting locally. Med Sci Educ.
2012;22:162-84.
7. Harden RM, Stamper N. What is a spiral curriculum? Med
22. Kassebaum DG, Eaglen RH. Shortcomings in the evalua-
Teach. 1999;21:141-3.
tion of student’s clinical skills and behaviors in medical
8. Harden RM. Curriculum mapping: A tool for transparent school. Acad Med. 1999;74:842-9.
and authentic teaching and learning. AMEE Guide No. 21. 23. Casey PM, Goepfert AR, Espey EL, Hammound MM, Kacz-
Med Tech. 2001;23:123-37. maczyk JM, Katz NT, et al. To the point: Reviews in medi-
9. Harden RM, Sowden S, Dunn WR. Educational strategies cal education –the Objective Structured Clinical Examina-
in curriculum development: The spices model. Med Educ. tion. Am J Obst Gynecol 2009;200:25-34.
1984;18:284-97. 24. Branch WP, Paranjape A. Feedback and reflection: Teaching
methods for clinical settings. Acad Med. 2002;77:1185-8.
10. Regehr G, Norman GR. Issues in cognitive psycholo-
gy: Implications for professional education. Acad Med. 25. Holmboe ES, Sherbino J, Long DM, Swing SR, Frank JR.
1996;71:988-1001. The role of assessment in competency-based medical edu-
cation. Med Teach. 2010;32:676-82.
11. O’Neill PA. The role of basic sciences in a problem based
learning clinical curriculum. Med Educ. 2000;34:608-13. 26. Gipps C. Socio-cultural aspect of assessment. Rev Educ
Res. 1999;24:355-92.
12. Whitcomb ME. Transforming medical education: Is com-
petency-based medical education the right approach? 27. Gibbs G, Simpson C. Conditions under which assessment
supports student learning. Learn Teach Higher Educ. 2004-
Acad Med. 2016;91:618-20.
2005;1:3-31.
13. O´Keefe M, Henderson A, Chick R. Defining a set of com-
28. Kirch W, Schafii C. Misdiagnosis at a university hospital in
mon interprofessional learning competencies for health 4 medical eras. Medicine (Baltimore). 1996;75:29-40.
profession students. Med Teach. 2017;39:463-8.
29. Chellis M, Olson J, Agustine J, Hamilton G. Evaluation of
14. Gruppen LD, Burkhardt JC, Fitzgerald JT, Funnell M, Haf- missed diagnoses for patients admitted from the emergen-
tel HM, Lypson ML, et al. Competency-based education: cy department. Acad Emerg Med. 2001;8:125-30.
Programme design and challenges to implementation. Med
Educ. 2016;50:532-9. 30. Kachalia A, Gandhi TK, Puopolo AL, Yoon C, Thomas EJ,
Griffey R, et al. Missed and delayed diagnoses in the emer-
15. Holmboe ES, Realizing the promise of Competency-Based gency department: A study of closed malpractice claims
Medical Education. Acad Med. 2015;90:411-3. from 4 liability insurers. Ann Emerg Med. 2007;49:196-205.
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 81
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
31. Beck RS, Daughtride R, Sloane PD. Physician-patient com- 47. ACGME. Outcome Project. Fecha de consulta: 20 de julio
munication in the primary care office: A systematic review. de 2017. Disponible en: http://www.acgme.org/outcome/
J Am Board Fam Med. 2002;15:25-38. assess/toolbox.asp.
32. Dean MD, Oetzel J, Sklar DP. Communication in acute 48. Pugh D, Bhanji F, Cole G, Dupre J, Hatala R, Humphrey-
ambulatory care. Acad Med. 2014;89:1617-22. Murto S, et al. Do OSCE progress test scores predict perfor-
mance in a national high-stakes examination? Med Educ.
33. Finset A. 50 years of research on the effect of physician 2016;50:351-8.
communication behavior on health outcomes. Patient
Educ Couns. 2014;96:1-2. 49. Yang YY, Lee FY, Hsu HC, Huang CC, Chen JW, Lee WS, et
al. A core competence-based objective structured clinical
34. Norcini J, Burch V. Workplace-based assessment as examination (OSCE) in evaluation of clinical performance
an educational tool: AMEE Guide No. 31. Med Teach. of postgraduate year-1 (PGY1) residents. J Chin Med Assoc.
2007;29:855-71. 2011;74:198-204.
35. Miller GE. The assessment of clinical skills/competence/ 50. Short MW, Jorgensen JE, Edwards JA, Blankenship RB,
performance. Acad Med. 1990;65:S63-7. Roth BJ. Assessing intern core competencies with an Ob-
jective Structured Clinical Examination. J Grad Med Educ.
36. Case SM, Swanson DB. Cómo elaborar preguntas para 2009;1:30-6.
evaluaciones escritas en el área de ciencias básicas y clí-
nicas. National Board of Medical examiners. 3ª edición. 51. Lafleur A, Laflamme J, Leppink J, Coté L. Task demands
in OSCEs influence learning strategies. Teach Learn Med.
Philadelphia; 2006.pp.71-97.
2017;29:286-95.
37. Lake FR, Vickery AW, Ryan G. Teaching on the run tips
52. Lafleur A, Leppink J, Coté L. Clinical examination in the
7: Effective use of questions. Med J Aust. 2005;182:126-7. OSCE era: Are we maintaining the balance between OS
38. Germain F, Vicente J, Pérez-Rico C, Villa P. Formulación de and CE? Postgrad Med J. 2017;93:241.
preguntas de respuesta múltiple: un modelo de aprendiza- 53. Ben-David MF. AMEE Guide No. 18: Standard setting in
je basado en competencias. FEM. 2016;19:27-38. student assessment. Med Teach. 2000;22:120-30.
39. Beullens J, Struyf E, van Dame B. Do extended matching 54. Wilby KJ, Diab M. Key challenges for implementing a
multiple-choice questions measure clinical reasoning? Canadian-based objective structured clinical examina-
Med Educ. 2005;39:410-7. tion (OSCE) in a Middle Eastern context. Can Med Educ
J. 2016;7:e4-9.
40. Dory V, Gagnon R, Charlin B. Is case-specificity content-
specificity? An analysis of data from extended-matching 55. Lowry S. Assessment of students. BMJ. 1993;306:51-4.
questions. Adv in Health Sci Educ. 2010;15:55-63. 56. Frank C. Evidence based checklist for objective structured
41. Harden RM, Stevenson M, Downie WW, Wilson GM. As- clinical examinations. BMJ. 2006;333:546-8.
sessment of clinical competence using objective structured 57. Selby C, Osman L, Davis M, Lee M. Set up and run an
examination. Br Med J. 1975;1:447-51. objective structured clinical exam. BMJ. 1995;310:1187-90.
42. Harden RM, Gleeson FA. Assessment of clinical compe- 58. Schleicher I, Leitner K, Juenger J, Moeltner A, Ruesseler
tence using an objective structured clinical examination M, Bender B, et al. Does quantity ensure quality? Stan-
(OSCE). Med Educ. 1979;13:41-54. dardized OSCE-stations for outcome-oriented evaluation
of practical skills at different medical faculties. Ann Anat.
43. Harden RM. Revisiting “Assessment of clinical competence 2017;212:55-60.
using an objective structured clinical examination (OSCE)”.
Med Educ. 2016;50:376-9. 59. Schleicher I, Leitner K, Juenger J, Moeltner A, Ruesseler M,
Bender B, et al. Examiner effect on the objective structured
44. Abdelaziz A, Hany M, Atwa H, Talaat W, Hosny S. Deve- clinical exam – a study at five medical schools. BMC Med
lopment, implementation, and evaluation of an integrated Educ. 2017;17:71-7.
multidisciplinary Objective Structured Clinical Examina-
60. Wilkinson TJ, Frampton CM, Thompson-Fawcet M, Egan T.
tion (OSCE) in primary health care settings within limited
Objectivity in objective structured clinical examinations:
resources. Med Teach. 2016;38:272-9.
Checklists are no substitute for examiner commitment.
45. Lucchetti G, Ezequiel OS, Lucchetti ALG. An OSCE Acad Med. 2003;78:219-23.
with very limited resources: Is it posible? Med Teach. 61. Walsh E, Foley T, Sinnot C, Boyle S, Smithson H. Develo-
2017;39:227. ping and piloting a resource for training assessors in use of
46. Graf J, Smolka R, Simoes E, Zipfel S, Junne F, Holderried F, the Mini-CEX (mini clinical evaluation exercise). Educ Prim
et al. Communication skills of medical students during the Care. 2017;28:243-5.
OSCE: Gender-specific differences in a longitudinal trend 62. Norcini JJ, Blank LL, Fortna GS. The Mini-CEX: A method for
study. BMC Med Educ. 2017;17:1-9. assessing clinical skills. Ann Intern Med. 2003;138:476-81.
82 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
63. Brazil V, Ratcliffe L, Zhang J, Davin L. Mini-CEX as a work- Are learning needs and learning goals aligned? Med Educ.
place-based assessment tool for interns in an emergen- 2014;48:1008-19.
cy department – Does cost outweigh value? Med Teach.
2012;34:1017-23. 79. Lee V, Brain K, Martin J. Factors influencing Mini-CEX rater
judgments and their practical implications: A systematic li-
64. Holmboe ES, Huot S, Chung J, Norcini JJ, Hawkins RE. terature review. Acad Med. 2017;92:880-8.
Construct validity of the mini Clinical Evaluation Exercise
(MiniCEX). Acad Med. 2003;78:826-30. 80. Weston P, Smith C. The use of mini-CEX in UK foundation
training six years following its introduction: Lessons still to
65. Kim S, Willett LR, Noveck H, Patel MS, Walker JA, Terre- be learned and the benefit of formal teaching regarding its
gino CA. Implementation of Mini-CEX requirement across utility. Med Teach. 2014;36:155-63.
all third-year clerkships. Teach Learn Med, 2016;28:424-31.
81. Foley T, Walsh E, Sweeney C, James M, Maher B, O’Flynn
66. Hill F, Kendall K, Galbraith K, Crossley J. Implemen-
S. Training the assessors: A Mini-CEX workshop for GPs
ting the undergraduate mini-CEX: A tailored approach at
Southampton University. Med Educ. 2009;43:326-34. who assess undergraduate medical students. Educ Prim
Care. 2015; 26:446-7.
67. Baños JE, Gomar-Sancho J, Guardiola E, Palés-Argullós J.
La utilización del Mini Clinical Evaluation Exercise (mini- 82. Arora V, Berthie S, Horwitz LI, Saathof M, Staisiunas P, Far-
CEX) en estudiantes de medicina. FEM. 2015;18:417-26. nan JM. Using standardized videos to validate a measure
of handoff quality: The handoff Mini-Clinical Examination
68. Eggleton K, Goodyear-Smith F, Paton L, Falloon K, Wong Exercise. J Hosp Med. 2014;7:441-6.
C, Lack L, et al. Reliability of Mini-CEX assessment of me-
dical students in general practice clinical attachments. Fam 83. Moore K, Vaughan B. Students today… educators tomo-
Med. 2016;48:624-30. rrow. The Clin Teach. 2016;13:1-5.
69. Lau-Yanting S, Sinnathamby A, Wang D, Tan Mon Heng 84. Rogausch A, Beyeler C, Montagne S, Jucker-Kupper P. The
M, Wen Hao JL, Shing Lee S, et al. Conceptualizing work influence of students’ prior clinical skills and context cha-
place based assessment in Singapore: Undergraduate Mi- racteristics on mini-CEX scores in clerkships – a multilevel
ni-Clinical Evaluation Exercise experiences of students and analysis. BMC Med Educ. 2015;15:1-10.
teachers. Tzu Chi Med J. 2016;28:113-20.
85. Hattie J, Timperley H. The power of feedback. Rev Educ
70. Mortaz Hejri S, Jalili M, Shirazi M, Masoomi R. The utility Res. 2007;77:81-112.
of mini-Clinical Evaluation Exercise (mini-CEX9 in under-
graduate and postgraduate medical education: 86. Telio S, Regehr G, Ajjawi R. Feedback and the educational
alliance: Examining credibility judgements and their conse-
71. protocol for a systematic review. Syst Rev. 2017;6:146. quences. Med Educ. 2016;50:933-42.
72. Khalil S, Aggarwal A, Mishra D. Implementation of a Mini-
87. Ende J. Feedback in medical education. JAMA.
Clinical Evaluation Exercise (Mini-CEX) program to assess
1983;250:777-81.
the clinical competence of postgraduate trainees in pedia-
trics. Indian Pediatr. 2017;54:284-87. 88. Kumar N, Kant Singh N, Rudra S, Pathak S. Effect of for-
73. Joshi MK, Singh T, Badyal DK. Acceptability and feasibi- mative evaluation using direct observation of procedural
lity of mini-clinical evaluation exercise as a formative as- skills in assessment of postgraduate students of obstetrics
sessment tool for workplace-based assessment for surgical and gynecology: Prospective study. J Adv Med Educ Prof.
postgraduate students. J Postgrad Med. 2017;63:100-5. 2017;5:1-5.
74. Castanelli DJ, Jowsey T, Chen Y, Weller JM. Perceptions of pur- 89. Batty L, McKinnon K, Skidmore A, McKinnon M, Faculty
pose value and process of the mini-Clinical Evaluation Exercise Workplace-Based Assessment Advisory Group. Supervi-
in anesthesia training. Can J Anesth. 2016;63:1345-56. sed learning events: Direct observation of procedural skills
pilot. Occup Med. 2016 Aug 6. pii: kqw090. [Epub ahead
75. Goel A, Singh T. The usefulness of Mini Clinical Evaluation
of print]
Exercise as a learning tool in different pediatric clinical set-
tings. Int J Appl Basic Med Res. 2015;5:S32-4. 90. McLeod R, Mires G, Ker J. Direct observed procedural
76. Abadie Y, Battolla J, Zubieta A, Dartiguelongue J, Pascual skills assessment in the undergraduate setting. The Clin
C, Elias Costa C, et al. Uso de descriptores durante la im- Teach. 2012;9:228-32.
plementación de Mini-CEX en la residencia de pediatría. 91. Profanter C, Perathoner A. DOPS (Direct Observation of
Medicina (Bs As). 2015;75:289-96. Procedural Skills) in undergraduate skills-lab: Does it work?
77. Davies H, Archer J, Southgate L, Norcini J. Initial evalua- Analysis of skills-performance and curricular side effects.
tion of the first year of the foundation assessment program- GMS Zeitschrift für Medizinische Ausbildung. 2015;32:1-14.
me. Med Educ. 2009;43:74-81. 92. Reddy ST, Endo J, Gupta S, Tekian A, Soo Park Y. A ca-
78. Montagne S, Rogausch A, Gemperli A, Berendonk C. The se for caution: Chart-Stimulated Recall. J Grad Med Educ.
mini-clinical evaluation exercise during medical clerkships: 2015;7:531-5.
Rev. salud. bosque. | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | ene - jun de 2018 | Volumen 8 | Número 1 | Págs. 65-84 | 83
Evaluación de competencias clínicas en los contextos médicos curriculares actuales
Castro-Rebolledo R
93. Schipper S, Ross S. Structured teaching and assessment. A 105. Riveros R, Kimatian S, Castro P, Dhumak V, Honar H, Mas-
new chart-stimulated recall worksheet for family medicine cha EJ, et al. Multisource feedback in professionalism for
residents. Can Fam Phys. 2010;56:958-9. anesthesia residents. J Clin Anest. 2016;34:32-40.
94. Williamson JML, Osborne AJ. Critical analysis of case ba- 106. Wright C, Campbell J, McGowan L, Roberts MJ, Jelley D,
sed discussions. BJMP. 2012;5:a514 Chatterjee A. Interpreting multisource feedback: online
95. Nadeem N, Mueed Zafar A, Haider S, Zuberi RW, Na- study of consensus and variation among GP appraisers. Br
deem Ahmad M, Ojili V. Chart-stimulated recall as a lear- J Gen Pract. 2016;66:e277-84.
ning tool for improving radiology residents’ reports. Acad 107. Bartman I, Roy M, Smee S. Catching the hawks and doves:
Radiol. 2017;24:1023-6. A method for identifying extreme examiners on objective
96. Wamsley MA, Steiger S, Julian KA, Gleason N, O’Sullivan structured clinical examinations (technical report). Ottawa,
PS, Guy M, et al. Teaching residents screening, brief inter- ON: Medical Council of Canada; 2011.
vention, and referral to treatment (SBIRT) skills for alcohol 108. Snadden D, Thomas M. The use of protfolio learning in
use: Using chart-stimulated recall to assess curricular im- medical education. Med Teach. 1998;20:192-9.
pact. Substance Abuse. 2016;37:419-26.
109. Sánchez-Gómez S, Cabot-Ostos EM, Maza-Solano JM,
97. Cunnington JPW, Hanna E, Turnbull J, Kaigas TB, Norman Herrero-Salado TF. An electronic portfolio for quantitative
GR. Defensible assessment of the competency of the prac- assessment of surgical skills in undergraduate medical edu-
ticing physician. Acad Med. 1997;72:9-12.
cation. BMC Med Educ. 2013;13:65-74.
98. Gingerich A, Kogan J, Yeates P, Govaerts M, Holmboe E.
110. Tochel C, Hesketh A, Cadzow A, Beggs K, Colthart I, Pea-
Seeing the “black box” differently: Assessor cognition from
cock H. The effectiveness of portfolios for post-graduate
three research perspective. Med Educ. 2014;48:1055-68.
assessment and education: BEME guide No 12. Med Teach.
99. Abdulla A. A critical analysis of mini peer assessment tool 2009;31:299-318.
(mini-PAT). J R Soc Med. 2008;101:22-6.
111. Cordier R, McAuliffe T, Wilson NJ, Totino R, Dender A,
100. Jani H, Narmawala W, Ganjiwale J. Evaluation of com- Smith C, et al. The appropriateness and feasibility of an
petencies related to personal attributes of resident doctors online e-Portfolio for assessment of undergraduate allied
by 360 degree. J Clin Diag Res. 2017;11:9-11. health students. Aus Occup Ther J. 2016;63:154-63.
101. Emke AR, Cheng S, Dufault C, Cianciolo AT, Musick D, 112. McEwen LA, Griffiths J, Schultz K. Developing and suc-
Richards B, et al. Developing professionalism via multisou- cessfully implementing a Competency-Based portfolio
rce feedbacking Team-Based Learning. Teach Learn Med. assessment system in a postgraduate family medicine resi-
2015;27:362-5. dency program. Acad Med. 2015;90:1515-26.
102. Emke AR, Cheng S, Chen L, Tian D, Dufault C. A novel 113. Haldane T. “Portfolios” as a method of assessment in
approach to assessing professionalism in preclinical me- medical education. Gastroenterol Hepatol Bed Bench.
dical students using multisource feedback through paired 2014;7:89-93.
self – and peer evaluation. Teach Learn Med. 2017;12:1-9.
114. Roberts C, Newble DI, Rourke AF. Med Educ. 2002;36:899-
103. Hoffman LA, Shew RL, Vu TR, Brokaw JJ, Frankel RM. The 900.
association between peer and self-assessment and profes-
sionalism lapses among medical students. Eval Health Prof. 115. Challis M. AMEE Medical education guide No. 11 (revi-
2016;40:219-43. sed): Portfolio-based learning and assessment in medical
education. Med Teach. 1999;21:370-86.
104. Zhao Y, Zhang X, Chang Q, Sun B. Psychometric characteristics
of the 360º feedback scales in professionalism and interperso- 116. Buckley S, Coleman J, Khan K. Best evidence on the edu-
nal and interpersonal and communication skills assessment of cational effects of undergraduate portfolios. The Clinical
surgery residents in china. J Surg Educ. 2013;70:628-35. Teacher 2010;7:187-91.
84 | Págs. 65-84 | Número 1 | Volumen 8 | ene - jun de 2018 | ISSN 2248-5759 (impresa) | ISSN 2322-9462 (digital) | Rev. salud. bosque.
Copyright of Revista Salud Bosque is the property of Universidad El Bosque and its content
may not be copied or emailed to multiple sites or posted to a listserv without the copyright
holder's express written permission. However, users may print, download, or email articles for
individual use.