Analíticas Del Aprendizaje y La Educación PDF
Analíticas Del Aprendizaje y La Educación PDF
Analíticas Del Aprendizaje y La Educación PDF
MONOGRÁFICO / MONOGRÁFICO
Presentación / Apresentação
Gabriela Sabulsky, Analíticas de aprendizaje para mejorar la enseñanza y el
mayo - agosto
seguimiento a través de entornos virtuales
Arturo Corona Ferreira y otros, Analítica del aprendizaje y las neurociencias
educativas: nuevos retos en la integración tecnológica
Mª Covadonga de la Iglesia Villasol, Learning Analytics para una visión
tipificada del aprendizaje de los estudiantes. Un estudio de caso
Ismene Ithaí Bras Ruiz, Learning Analytics como cultura digital de las
universidades: Diagnóstico de su aplicación en el sistema de
educación a distancia de la UNAM basado en una escala compleja
Maurício Vieira Dias Júnior e Luís Paulo Leopoldo Mercado, Ações docentes
nos Ambientes Virtuais de Aprendizagem proporcionadas pelas
ferramentas de Learning Analytics
Shamaly Alhelí Niño Carrasco, Juan Carlos Castellanos Ramírez y Esperanza
Viloria Hernández,, Una propuesta piloto de herramienta analítica del
80
aprendizaje para la mejora de procesos colaborativos en la plataforma
Blackboard
La REVISTA es una publicación indizada en: / A REVISTA é uma publicação indexada em:
REDIB: www.redib.org/
LATINDEX: www.latindex.unam.mx
IRESIE: www.iisue.unam.mx/iresie
Dialnet: https://dialnet.unirioja.es/
DOAJ: https://doaj.org/
ABES SUDOC: www.sudoc.abes.fr
Biblioteca Digital: www.oei.es/bibliotecadigital.php
Qualis - CAPES: http://qualis.capes.gov.br/webqualis
Portal periodicos. Capes: http://www.periodicos.capes.gov.br/
La Revista selecciona los trabajos mediante el A Revista seleciona os trabalhos mediante o
sistema de arbitraje «ciego por pares» a través sistema de arbitragem «cego por pares» através
de especialistas externos a la Redacción. de especialistas externos à Redação.
Todos los números MONOGRÁFICOS pueden ser consultados Todos os números TEMÁTICOS podem ser consultados nos formatos
en los formatos html y pdf en la web de la revista. Además en html e pdf no site da revista. Além disso, rie apresenta números es-
la web se editan números especiales no temáticos dedicados peciais não temáticos com espaços abertos à recepção de «Inves-
a recoger «Investigaciones y estudios» de los lectores, tigações e estudos» dos leitores, «Debates» sobre temas propostos
«Experiencias e innovaciones», artículos de «Opinión», entre pela comunidade acadêmica, «Experiências e inovações», artigos
otras secciones, que puedan servir de referencia u objeto de de «Opinião», entre outras seções que possam servir de referência
estudio para quienes trabajan o investigan en el campo de la ou objeto de estudo para quem trabalha ou pesquisa no campo da
educación en Iberoamérica. educação na comunidade Ibero-americana.
La OEI no se responsabiliza de las opiniones expresadas en A OEI não se responsabiliza pelas opiniões expressas nos
los artículos firmados ni comparte necesariamente las ideas artigos assinados nem compartilha necessariamente as ideias
manifestadas en los mismos. Igualmente, no mantiene corres- manifestadas nos mesmos. Igualmente, não mantém corres-
pondencia con los autores de trabajos no solicitados. pondência com os autores de trabalhos não solicitados.
Consejo de Redacción / Conselho de Redação
Director / Diretor: Alejandro Tiana
Educación Superior, Ciencia y EFTP: Ana Capilla
Equipo de redacción / Equipe de redação: Juan Carlos Toscano, Bárbara García, Paula Sánchez-Carretero, Andrés Viseras
Traducción (portugués) / Tradução (português): Elaine C. Vernek Troster
SUMARIO / SUMÁRIO
Referencia bibliográfica
Long, Ph. y Siemens, G. (2011). Penetrating the Fog: Analytics in Learning and Education.
EDUCAUSE Review, 46(5), 30-40.
1. Presentación
El presente artículo es fruto de una revisión bibliográfica sobre el tema
analíticas de aprendizaje, que pretende sistematizar algunos aportes teóricos
y visualizar su potencialidad para la mejora de los procesos educativos. Las
analíticas de aprendizaje son dispositivos tecnológicos1 que se incorporan a
1
Del latín disposĭus (“dispuesto”, un dispositivo es un aparato o mecanismo
que desarrolla determinadas acciones. Su nombre está vinculado a que dicho artificio está
dispuesto para cumplir con su objetivo.
2
Disponible en http://epress.lib.uts.edu.au/journals/index.php/JLA/issue/archive
O bien como:
Estudiar las redes de esta manera puede ayudar a identificar a las perso-
nas de las cuales un individuo aprende, donde pueden surgir conflictos
de comprensión y qué factores contextuales influyen en el aprendizaje.
Una visión de toda la red, por otro lado, considera la distribución de la
información y el desarrollo del aprendizaje a través de un conjunto de
personas. En este caso, el análisis puede caracterizar la red en términos
de su carácter, intereses y prácticas. Esta visión de toda la red es capaz
de tomar “los resultados de las conexiones de pares para describir lo que
mantiene unida a la red (Haythornthwaite y De Laat, 2010, p.189) (citado
por Buckingham y Ferguson 2012 p. 5).
6. Conclusiones
Referencias bibliográficas
Arnold, K.E. (2010). Signals: Applying academic analytics. Educause Quarterly, 33(1), 10.
Baker, R. S. J. D., & Yacef, K. (2009). The state of educational data mining in 2009: A review
and future visions. Journal of Educational Data Mining, 1(1), 3-17
Borgatti, S. P., Mehra, A., Brass, D. J., & Labianca, G. (2009). Network analysis in the social
sciences. Science, 323(5916), 892-895.
Buckingham, S. (2012). Learning Analitics. Policy Brief, UNESCO Instituto para las Tecnologías
de la Información en Educación. Recuperado de https://bit.ly/2TXK1rh.
Buckingham, S, & Deakin, R. (2016). Learning analytics for 21st century competencies. Journal
of Learning Analytics, 3(2), 6-21. Recuperado de https://bit.ly/2W581FB.
Buckingham, S., & Ferguson, R. (2012). Social Learning Analytics. Educational Technology &
Society, 15(3), 3-26. Recuperado de https://bit.ly/2UBlweH.
Burburles, N.C., y Callister, T. A. (2001). Educación: riesgos y promesas de las nuevas tecnologías
de la información. Barcelona: Granica.
Clauset, A., Newman, M. E. J., & Moore, C. (2004). Finding community structure in very large
networks. Physical Review E, 70(6).
Coll, C., Engel, A., Niño, S. (2017). La actividad de los participantes como fuente de información
para promover la colaboración. Una analítica del aprendizaje basada en el modelo
de Influencia Educativa Distribuida. RED. Revista de Educación a Distancia, 53.
DOI: http://dx.doi.org/10.6018/red/53/2 Recuperado de http://www.um.es/ead/
red/53/coll_et_al.pdf.
De Laat, M., Lally, V., Lipponen, L., & Simons, R.-J. (2006). Analysing student engagement with
learning and tutoring activities in networked learning communities: A multi-method
approach. International Journal of Web Based Communities, 2(4), 394-412.
Doueihi, M. (2010). La gran conversión digital. Buenos Aires: Fondo de Cultura Económica.
Durall, E., Gros, B., Maina, M., Johnson, L. & Adams, S. (2012). Perspectivas tecnológicas:
educación superior en Iberoamérica 2012-2017. Austin, Texas: The New Media
Consortium. Recuperado de https://bit.ly/1jfsDrm
Fidalgo-Blanco, Á., Sein-Echaluce, M. L., García-Peñalvo, F. J., & Conde, M. Á. (2015). Using
Learning Analytics to improve teamwork assessment. Computers in Human Behavior,
47, 149-156.
Haythornthwaite, C., & de Laat, M. (2010). Social networks and learning networks: Using social
network perspectives to understand social learning. Paper presented at the 7th
International Conference on Networked Learning, Aalborg, Denmark.
Jones, C., & Steeples, C. (2003). Perspectives and issues in networked learning. In C. Steeples
& C. Jones (Eds.), Networked Learning: Perspectives and Issues. Lancaster: Centre
for Studies in Advanced Learning Technology
Levine, A. (2006) Educación Superior: Una Revolución Interna y Otra Externa. In Serbin Pittinsky,
Matthew. La Universidad conectada (pp.25-42). Málaga: El Aljibe.
Long, P, & Siemens, G. (2011). Penetrating the Fog: Analytics in Learning and Education,
Educause Review, 46(5), 31-40. Recuperado de https://bit.ly/2UvNXuA.
Mazza, R., & Dimitrova, V. (2007). CourseVis: A graphical student monitoring tool for supporting
instructors in web-based distance courses. International Journal of Human-Computer
Studies, 65(2), 125-139.
Mitchell, J., & Costello, S. (2000). International e-VET market research report: A report on
international market research for Australian VET online products and services.
Sydney, Australia: John Mitchell & Associates and Education Image.
Miege, B. (2010) La cuestión de las TIC: hacia nuevos planteamientos. In D. de Moraes (org.)
Mutaciones de lo visible. Comunicación y procesos culturales en la era digital, (pp.
15-44). Bs.As: Paidós.
Pistilli, M., & Arnold, K. (2012). Course signals at Purdue: Using learning analytics to increase
student success. Paper presented at the 2nd International Conference on Learning
Analytics and Knowledge, Vancouver, Canada.
Reffay, C., & Chanier, T. (2003). How social network analysis can help to measure cohesion in
collaborative distance-learning. International Conference on Computer Supported
Collaborative Learning (pp. 243-352). Bergen: Kluwer Academic Publishers.
Romero, C., & Ventura, S. (2007). Educational data mining: A survey from 1995 to 2005.
Expert Systems with Applications, 33(1), 135-146.
Sadin, E. (2013). Las tecnologías digitales debilitan la capacidad de decidir. Diario Página 12.
Recuperado de https://bit.ly/2PzQROh.
Siemens, G., Gasevic, D., Haythornthwaite, C., Dawson, S., Buckingham, S., Ferguson, R., Duval,
E., Verbert, K., Baker, R, S.J.d . (2011). Open learning analytics: an integrated &
modularized platform. Proposal to design, implement and evaluate an open platform
Siemens, G., Baker, R. S.J.d. (2012). “Learning analytics and educational data mining: towards
communication and collaboration”. En: Proceedings of the 2nd International
Conference on Learning Analytics and Knowledge (Vancouver, Canada), pp. 252-254.
Suthers, D., & Verbert, K. (2013, April). Learning analytics as a middle space. In Proceedings
of the Third International Conference on Learning Analytics and Knowledge (pp.
1-4). ACM. Recuperado de https://bit.ly/2UCEYHY.
Wasserman, S., & Faust, K. (1994). Social network analysis: Methods and applications (Structural
analysis in the social sciences). Cambridge: Cambridge University Press
30
Resumen. La analítica del aprendizaje (LA) tiene como objetivo comprender y optimizar
el aprendizaje y los entornos en los que se produce. Dada la compleja naturaleza de
los procesos de aprendizaje, se ha hecho necesario usar herramientas de diversos
campos de investigación que permitan obtener, describir, analizar e interpretar datos
sobre los alumnos, durante sus procesos de aprendizaje y en sus contextos. Más que
tomar métodos o técnicas aisladas para el estudio de este proceso, la analítica del
aprendizaje está comenzando a integrar las perspectivas de otros campos para lograr
una investigación del aprendizaje con una visión transdisciplinaria. Uno de estos
campos es el de la neurociencia, específicamente la relacionada con el aprendizaje
o neurociencia educativa. El objetivo de esta investigación es explorar las implicacio-
nes y retos del uso de las tecnologías por medio de los electroencefalogramas (EEG)
-tradicionalmente empleados en estudios neurológicos- en conjunto con las analíticas
del aprendizaje para el estudio de los procesos de aprendizaje en los estudiantes.
Palabras clave: analíticas del aprendizaje; neurociencias; retos educativos.
Analítica da aprendizagem e a neurociência educacional: novos desafios na inte-
gração tecnológica
Resumo. A Analítica da Aprendizagem (LA) tem como objetivo compreender e otimizar
a aprendizagem e os ambientes nos quais ela ocorre. Dada a complexa natureza do 31
processo de aprendizagem, tornou-se necessário o uso de ferramentas de diversos
campos de pesquisa para a obtenção, descrição, análise e interpretação de dados
sobre os alunos durante seus processos de aprendizagem e em seus contextos. Ao
invés de usar métodos ou técnicas isoladas para o estudo deste processo, a Analítica 31
da Aprendizagem está começando a integrar as perspectivas de outros campos para
alcançar uma pesquisa de aprendizagem com uma visão transdisciplinar. Um destes
campos é o da neurociência, especificamente aquela relativa à aprendizagem ou
neurociência educacional. O objetivo desta pesquisa é explorar as implicações e os
desafios do uso das tecnologias por meio do eletroencefalograma (EEG), tradicionalmente
aplicado em estudos neurológicos, em conjunto com as Analíticas de Aprendizagem
para o estudo dos processos de aprendizagem nos estudantes.
Palavras-chave: Analítica de aprendizagem; neurociência; desafios educacionais.
Analytics of Learning and Educational Neurosciences: challenges in technological
integration
Abstract. The aim of learning analytics (LA) is to understand and optimize learning
and the environments in which it occurs. Given the complex nature of learning, it has
become necessary to use tools from various fields of research to obtain, describe, analyze
and interpret data about students, their learning processes and contexts. Rather than
taking isolated methods or techniques for the study of this process, learning analytics is
beginning to integrate the perspectives of other fields to achieve a research of learning
with a transdisciplinary vision. One of these fields is neurosciences, specifically those
related to learning or educational neurosciences. The objective of this research is to
explore the implications and challenges of the use of EEG technologies (traditionally
used in neurological studies) in conjunction with learning analytics for the study of
students learning processes and their context.
Keywords: learning analytics; neuroscience; educational challenges.
1. Introducción
36
2. Analíticas del aprendizaje y las neurociencias educativas
Por su parte, Lodge et al. (2018) señalan que existen claros paralelos
entre las analíticas del aprendizaje y la neurociencia educativa:
Por otro lado, para estudiar los procesos cognitivos asociados con
el aprendizaje, se requiere un estudio más específico dentro de la extensión
de las neurociencias, término acuñado como neurociencia cognitiva desde
finales de 1970, con el fin de explorar realmente los procesos de aprendizaje
desde la perspectiva de la naturaleza humana a través de la neurociencia
(Immordino-Yang y Damasion, 2008).
Por su parte, Di Mitri et al. (2018) señalan que los recientes desa-
rrollos tecnológicos, como la internet de las cosas (interconexión digital de
objetos), los sensores portátiles, el almacenamiento de datos en la nube y el
aumento del poder de cómputo para procesar y analizar grandes conjuntos de
datos, han facilitado la recopilación y análisis de datos.
Figura 1. Áreas del conocimiento de las analíticas del aprendizaje multimodal. CE:
caracterización del estudiante. Gráfica creada a partir de las interpretaciones de
Blikstein y Worsley, 2016. Fuente: Elaboración propia.
Las emociones son procesos innatos que poseen todos los seres
humanos desde su nacimiento. De acuerdo con Salas, en Linarez (2016),
las emociones son uno de los elementos clave para comprender los procesos
de aprendizaje de un individuo.
6. Metodología
7. Resultados
El profesor camina El alumno El profesor asiste y El alumno regresa a El alumno empieza a programar
entre los alumnos y explica realiza lectura explica al alumno 1 realizar la lectura y el profesor sigue explicando
El profesor da su clase desde el frente El profesor actualiza El alumno interactúa El alumno empieza a programar
el pizarrón directo con el profesor y el profesor sigue explicando
Recibe asistencia Mantine contacto visual con su El alumno busca El profesor cierra la El alumno empieza
del profesor computadora mientras sigue la clase archivos en su computadora clase de ese día a programar
49
El profesor da su clase El alumno deja de ver al frente El alumno busca El profesor atiende El alumno empieza
desde el frente voltea con su compañero y conversa al profesor visualmente a un alumno cercano a programar
El alumno toma nota El alumno se enfoca la compañera de al lado Interactúa con el profesor El alumno se enfoca
y usa su computadora en programar le pide ayuda y la asiste en programar
50
El alumno refleja Opera la computadora bajo las instrucciones Atiende al frente al profesor. Lee un PDF, minetras el
cansancio físico del profesor Mantiene contacto visual con el profesor profesor explica la clase
8. Discusión
y cuáles no. Esto puede llegar a ser un buen referente para que los docentes
adecuen sus actividades dentro del salón de clase tanto en lo particular de
cada alumno como en lo general de todo el grupo, ya que podremos entender
a las nuevas generaciones de manera más precisa.
9. Conclusiones
Referencias bibliográficas
Alberca, E. y Borrueco, M, (2018). Aprendizaje: el cerebro en el aula. Ciencia e innovación docente
en el aprendizaje de lenguas extranjeras. Ediciones Egregius.
Amo, D. y Santiago, R. (2017) Learning Analytics. La narración del aprendizaje a través de los
datos. Barcelona: Editorial UOC.
Banihashem S. K., Aliabadi, K., Pourroostae, S., Delaver A, Nili Ahmadabadi, M. (2018). Learning
Analytics: A Systematic Literature Review, Interdisciplinary Journal of Virtual Learning
in Medical Science. 9(2). https://doi.org/10.5812/ijvlms.63024.
Blikstein, P. y Worsley, M. (2016). Multimodal Learning Analytics and Education Data Mining:
Using Computational Technologies to Measure Complex Learning Tasks. Journal of
Learning Analytics, 3(2), 220-238. https://doi.org/10.18608/jla.2016.32.11
Corrin, L., Alhadad, S., Jones, H. y Colvin, C. (2018). Where is the field of learning analytics
heading? Reflections from the Learning Analytics & Knowledge Conference. Recuperado
de: https://bit.ly/2V3pkKR.
Das, R., Chatterjee, D., Sinharay, A. y Sinha, A. (2014). Cognitive Load Measurement - A
Methodology to Compare Low Cost Commercial EEG Devices. Advances in Computing,
Communications and Informatics, ICACCI International Conference. IEEE pp.1188–
1194.
Di Mitri, D., Schneider, J., Specht, M., y Drachsler, H. (2018). From signals to knowledge: A 53
conceptual model for multimodal learning analytics. Journal of Computer Assisted
Learning, 34(4), 338-349. https://doi.org/10.1111/jcal.12288
Díaz, C., Martínez, P., Roa, I y Sanhueza, M.G. (2010). Los docentes en la sociedad actual: sus
creencias y cogniciones pedagógicas respecto al proceso didáctico, Polis. Revista
Latinoamericana, 25.
Durall, E., Leinonen, T., Gros, B., y Rodriguez-Kaarto, T. (2017). Reflection in Learning through
a Self-monitoring Device: Design Research on EEG Self-Monitoring during a Study
Session. Designs for Learning, 9(1), 10–20. https://doi.org/10.16993/dfl.75
Falconi, A., Alajo, A., Cueva, M., Mendoza, R. Ramírez, S. y Palma, E. (2017). Las neurociencias.
Una visión de su aplicación en la educación. Revista Órbita Pedagógica 4(1), 61-74
Ferguson, R. y Clow, D. (2017). Where is the evidence? A call to action for learning analytics. In:
LAK ’17 Proceedings of the Seventh International Learning Analytics & Knowledge
Conference, ACM International Conference Proceeding Series, pp. 56-65. New York,
USA.
Linarez, G. (2016). Aprendizaje significativo y neurociencia: la conexión del siglo XXI. Revista
Iberoamericana de Producción Académica y Gestión Educativa, 4. 116-141
Lodge, J. M., y Corrin, L. (2017). What data and analytics can and do say about effective learning. Npj
Science of Learning, 2(1). https://doi.org/10.1038/s41539-017-0006-5
Lodge, J., Hoovarth, J. y Corrin, L. (ed.) (2018) Learning Analytics in the Classroom: Translating
Learning Analytics Research for Teachers. (1st Edition). London: Taylor and Francis.
https://doi.org/10.4324/9781351113038
Mandinach, E.B. ( 2012 ). Un momento perfecto para el uso de datos: usar la toma de decisiones
basada en datos para informar la práctica . Psicólogo de la educación , 47 (2), 71 - 85
Mills, C., Fridman, I., Soussou, W., Waghray, D., Olney, A., y D’Mello, S.K. (2017). Put your thinking
cap on: detecting cognitive load using EEG during learning. LAK. 80-89
Nigay, L., y Coutaz, J. (1993). A design space for multimodal systems: Concurrent processing and
data fusion. Proceedings of the SIGCHI Conference on Human Factors in Computing
Systems –CHI 93, (January 1993), 172–178. http://doi.org/10.1145/169059.169143
Ninaus, M., Kober, S. E., Friedrich, E. V., Neuper, C. y Wood, G. (2014). The Potential Use of
Neurophysiological Signals for Learning Analytics. 2014 6th International Conference
on Games and Virtual Worlds for Serious Applications (VS-GAMES). Valleta: Malta.
https://doi.org/10.1109/vs-games.2014.7012169
Ramos-Galarza, C., Paredes, L., Andrade, S., Santillán, W. y González,L (2017). Sistemas de
Atención Focalizada, Sostenida y Selectiva en Universitarios de Quito-Ecuador. Revista
54 Ecuatoriana de Neurologia 25(1-3):34-38
Reimann, P. (2016). Connecting learning analytics with learning research: the role of design-based
research. Learning: Research and Practice, 2:2, 130-142. https://doi.org/10.1080/
23735082.2016.1210198
Rogers, J. M., Johnstone, S. J., Aminov, A., Donnelly, J. y Wilson, P. H. (2016). Test-retest reliability
of a single-channel, wireless EEG system. International Journal of Psychophysiology,
106, 87-96.
Romero, C., Luna, J.M., Bogarín, A., Luque, M., y Gonzalez. P. (2018) Análisis del nivel de atención
de los alumnos en clase utilizando Neurosky’s mindwave mobile. Revista de Innovación
y Buenas Prácticas Docentes. 5, 57-62 Recuperado de: https://bit.ly/2Wckc3r
Siemens, G. (04, marzo, 2016) Neuroscience and Learning Analytics: a historic leap in understanding
learning. [audio en Podcast]. Recuperado de: https://bit.ly/2IQAHiY
Tseng, S., Yu, L. y Wu, H. (2014). Measuring Engagement: Student Profiling and the Effects of
Remedial Learning Counseling. International Workshop on Learning Analytics and
Educational Data Mining (LAEDM 2016) In conjunction with CRIWG/CollabTech, 14-17.
Zadina, J. (2015) The emerging role of educational neuroscience in education reform. Psicología
Educativa, 21, 71-77. Recuperado de https://bit.ly/2PC9DUY
cally, the case study includes descriptive results of the interaction of students’ use of
digital resources with continuous assessment and grades in the course of Advanced
Microeconomic Analysis, of the degree in Economics (GECO), at the UCM in the 2018-
19 academic year, providing a profile of use that is still very traditional and polarized,
linked to minimum lags in the timetable of the proposed activities by the teacher.
Keywords: records of uses, students, learning, gamifying, skills, learning analytics.
1. Introducción y justificación
1
Algunos materiales han sido elaborados para diversos proyectos de innovación
y mejora de la calidad docente, la UCM.
2
El Real Decreto 1105/2014, de 26 de diciembre, vigente en el curso 20018-
19, establece el currículo básico de la Educación Secundaria Obligatoria y del Bachillerato
(BOE Núm. 3, 3 de enero de 2015 Sec. I. Pág. 169 y ss), e indica como competencias
del currículo la Comunicación lingüística (lengua materna y extranjeras); la Competencia
matemática y competencias básicas en ciencia y tecnología; la Competencia digital; Aprender
a aprender; Competencias sociales y cívicas; Sentido de iniciativa y espíritu emprendedor;
y la Conciencia y expresiones culturales.
3
La información, en general, se analiza a posteriori y no en tiempo real, lo
cual requeriría algoritmos de aplicación secuencial.
4
La definición oficial de Learning Analytics se realiza en la First international
Conference on Learning Analytics and Knowledge (LAK 2011), adoptada por la Society
for Learning Analytics Research (SoLAR), como la medición, recopilación, análisis e
informe de datos sobre los alumnos y sus contextos, con el fin de comprender y optimizar
el aprendizaje y los entornos en los que se produce.
Con esta visión radial, Harrison y Killion (2007), indican que será
un facilitador del éxito en el aprendizaje de los estudiantes, especialista cu-
rricular, un proveedor de recursos, instructor, facilitador de apoyo en el aula
y del aprendizaje, mentor de sus estudiantes, analista de datos, catalizador
del cambio, líder de equipos y aprendiz. Prensky (2013) señaliza el rol de
competente digital5, y su incidencia en tres grandes rúbricas como son el de
entrenador (por la observación individual y motivación al estudiante), guía
(ayuda a conseguir los objetivos) y de experto en la instrucción (a través del
conocimiento y la creatividad), con el objetivo de conseguir un efectivo, moti-
vador y atractivo aprendizaje, para lo cual utiliza la tecnología disponible para
mejorar la metodología del proceso de enseñanza-aprendizaje (Bates, 2015).
Para Viñals y Cuenca (2016), los nuevos roles pasan por convertirse en un
organizador, guía, generador, acompañante, coacher, gestor de aprendizaje,
5
El informe A Framework for Developing and Understanding Digital Competence
in Europe (Ferrari, 2013), indica que se es competente digital si se cubren las dimensiones
referidas a la búsqueda y gestión de la información digital; comunicar e interactuar; crear
contenido multiformato y multimedia; identificar y resolver problemas, y gestionar la
protección y seguridad digital de la información. https://bit.ly/23osQI7
6
A partir de numerosas referencias que aportan, sistematizan y clasifican en
un catálogo estandarizado por tipo de datos, técnicas utilizadas y aspectos educativos que
abordan, como son: Educación tradicional; Educación basada en la web y e-learning; Sistemas
de gestión de aprendizaje; Sistemas Inteligentes de Tutoría; Sistemas Educativos Adaptativos;
Pruebas y Cuestionarios; Textos y Contenido, y otros, y establecen una clasificación de los
usos de la minería de datos en la analítica educativa: Análisis y visualización de datos;
Predicción del rendimiento del alumno; Proporcionar retroalimentación para los instructores;
Agrupación de estudiantes; Detectar conductas estudiantiles atípicas; Recomendaciones
para estudiantes; Análisis de redes sociales; Modelado de estudiantes; Planificación y
programación; Desarrollo de mapas conceptuales; Construcción de cursos.
7
Como el Multi Layer Perception (MLP).
8
En el curso 2017-18 se realizó un análisis parcial de los registros, a modo
de prueba, con el único objetivo de aprender sobre los mismos, y planificar con antelación
los elementos a trabajar para que la actual investigación, referida al curso 2018-19, no
fuera fallida por falta de previsión.
9
Blog o campus virtual en abierto.
10
Conciliar la investigación y las normas europeas de protección de datos
(Europe’s General Data Protection Regulation, GDPR, de 2016) es necesario y está
generando cambios en el uso futuro del Learning Analytics, por cuanto las instituciones
tienen responsabilidad y obligaciones en dicha protección.
11
Examina más de 70.000 registros para determinar los indicadores más sólidos
(factores robustos) del éxito de los estudiantes, a partir de modelos de regresión estadística.
13
El test de diferencias no es significativo dada la limitación de las submuestras.
Dado este perfil de usos, sea cual sea el cálculo del indicador
hecho para identificar la brecha digital, como criterio de mejora para cursos
posteriores se deben supervisar los registros de forma casi automática en
períodos diversos, que permita un seguimiento continuado para recuperar
a ritmos óptimos a aquellos estudiantes que evidencian signos de subacti-
vidad o descolgamiento del curso, especialmente tras la primera prueba de
evaluación como medida preventiva.
69
Gráfico 3. Brecha porcentual registros respecto del alumno más activo A12 (en positivo)
70 Sem 2 47,12 0,76 4,34 0,53 47,07 0,00 0,18 24,34 25,21
Sem 3 50,35 2,19 0,35 0,15 45,92 0,50 0,55 28,74 23,24
Sem 4 52,23 4,45 0,00 0,00 42,28 0,00 1,05 10,91 8,57
Sem 5 53,32 0,77 0,00 1,15 44,64 0,00 0,13 5,46 7,00
Sem 6 50,13 1,64 1,04 0,09 46,42 0,00 0,69 16,56 13,83
Sem 7 53,94 1,27 0,00 0,00 43,77 0,00 0,76 5,6 4,57
Sem 8 56,75 0,32 0,00 0,32 40,69 0,86 1,07 13,34 11,20
Sem 9 51,79 3,58 0,28 2,75 41,60 0,00 0,00 5,19 9,58
Sem 10 52,81 1,94 0,61 0,39 43,73 0,00 0,52 62,73 41,93
Sem 11 48,35 6,58 0,62 0,62 43,72 0,00 0,10 13,89 12,41
Sem 12 51,67 2,12 0,16 0,98 44,18 0,73 0,16 17,56 12,91
Sem 13 53,34 1,81 0,57 0,79 42,58 0,79 0,11 12,61 9,88
Sem 14 51,16 1,72 0,37 1,96 44,14 0,21 0,43 46,60 35,99
Sem 15 51,50 2,81 0,19 1,44 43,94 0,00 0,13 22,80 16,34
Sem 16 46,51 1,72 1,15 4,02 44,40 2,11 0,10 14,93 13,83
Sem 17 51,53 0,51 0,00 0,00 44,39 0,00 3,57 2,80 2,69
Sem 18 43,73 0,28 0,00 0,28 55,43 0,00 0,28 5,13 6,85
Media por 51,13 1,92 0,57 0,98 44,52 0,29 0,55 17,75 14,88
registro
Más aún, mientras que los días con docencia han sido lunes y
martes, los días de la semana que registran un porcentaje mayor de acce-
sos es el jueves y el domingo, con el 26,85% y 20,81% respectivamente,
mientras que los días más inactivos son el sábado y el miércoles, con el
5,58% y el 6,28%, temporalidad condicionado a la entrega de prácticas
o ejercicios.
71
72
74
14
A pesar de la coordinación en el cronograma de actividades evaluables para
todas las materias, disponible desde principio de curso, la cota inferior de asistencia se
registrada el día que existe examen parcial liberatorio de otra materia.
15
Las insignias son comodines para las pruebas de evaluación parciales o
finales, que permiten responder un test sin que penalice en caso de error.
77
78
Gráfico 14. Comparativa media nota del expediente y la calificación en el curso AMA, totales.
Gráfico 15. Comparativa media nota del expediente y la calificación en el curso AMA, por alumnos
Referencias bibliográficas
81
Amo, D. y Santiago, R. (2017) Learning Analytics. La narración del aprendizaje a través de los
datos. Barcelona: Editorial UOC.
Avila-Toscano, J. H., Hoyos, S. L., González, D. P., y Cabrales, A. (2011). Relación entre ansiedad
ante los exámenes, tipos de pruebas y rendimiento académico en estudiantes
universitarios. Psicogente, 14, 255–268.
Banihashem S. K., Aliabadi, K., Pourroostae, S., Delaver A, Nili Ahmadabadi, M. (2018).
Learning Analytics: A Systematic Literature Review, Interdisciplinary Journal of
Virtual Learning in Medical Science, 9(2). https://doi.org/10.5812/ijvlms.63024.
Bates, A.W. (T) (2015). Teaching in a Digital Age: Guidelines for designing teaching and learning
for a digital age. University of British Columbia. Recuperado de https://bit.ly/2roovdc
Buckingham S., Ferguson, R. (2012). Social Learning Analytics. Educational Technology &
Society, 15(3), 3–26. Recuperado de https://bit.ly/2Vja1NB.
Campbell, J. P. (2007). Utilizing Student Data within the Course Management System to
Determine Undergraduate Student Academic Success: An Exploratory Study, PhD,
Purdue University.
Cano, R. (2009). Tutoría universitaria y aprendizaje por competencias ¿Cómo lograrlo? Revista
Electrónica Interuniversitaria de Formación del Profesorado, 12(1), 181-204.
Recuperado de https://bit.ly/2YfvTHy
Ferrari, A. (2013) A Framework for Developing and Understanding Digital Competence in Europe.
Institute for Prospective Technological Studies. Recuperado de https://bit.ly/23osQI7
Ferguson, R., Brasher A., Clow, D. y otros (2016). Research Evidence on the Use of Learning
Analytics - Implications for Education Policy. R. Vuorikari, J. Castaño Muñoz (Eds.).
Joint Research Centre Science for Policy Report; EUR 28294 EN; https://doi.
org/10.2791/955210.
Ferguson, R. y Clow, D. (2017). Where is the evidence? A call to action for learning analytics. In:
LAK ’17. Proceedings of the Seventh International Learning Analytics & Knowledge
Conference, ACM International Conference Proceeding Series, pp. 56-65. New
York, USA.
Guitert, M., Romeu, T. y Pérez, M. (2007). Competencias TIC y trabajo en equipo en entornos
82 virtuales. RUSC. Universities and Knowledge Society Journal, 4(1). Recuperado de
https://bit.ly/2H9OQFJ
Gutiérrez, A., Palacios, A. y Torrego, L. (2010). Tribus digitales en las aulas universitarias.
Comunicar, 17(34), 173-181.
Harrison, C. y Killion, J. (2007). Ten roles for teachers leaders. Educational Leadership, 65(1),
74-77. Recuperado de https://bit.ly/2CbujQD
Herrero, R. (2014). El papel de las TIC en el aula universitaria para la formación en competencias
del alumnado. Pixel-Bit. Revista de Medios y Educación, 45, 173-188. Recuperado
de https://bit.ly/2vLp1oV
Ibarra, M. C., y Michalus, J. C. (2010). Análisis del rendimiento académico mediante un modelo
logit. Ingeniería Industrial, 9(2), 47–56.
Kaura, P., Singhb, M. y Josanc, G.S. (2015). Classification and prediction based data mining
algorithms to predict slow learners in education sector. 3rd International Conference
on Recent Trends in Computing (ICRTC-2015).
Leah P. M. y Dawson S., (2010). Mining LMS Data to Develop an ‘Early Warning System’ for
Educators: A Proof of Concept, Computers & Education, 54(2), 588–599.
Lodge, J. M., y Corrin, L. (2017). What data and analytics can and do say about effective
learning. Npj Science of Learning, 2(1).https://doi.org/10.1038/s41539-017-0006-5
Long, Ph. y Siemens, G. (2011). “Penetrating the Fog: Analytics in Learning and Education”.
EDUCAUSE Review, 46(5), 30-40.
Lundberg,C. (2003). The influence oftime-limitations, faculty and peer relationships on adult
student learning: A causal model. The Journal of Higher Education, 74, 665-688.
Martín, M. A., Arranz, G., González, M. A., Páramo, R., Alarcia, E., Fernandoz, M. L., y González,
M. L. (2003). Análisis del fracaso escolar y desarrollo de acciones de mejora.
XI Congreso Universitario de Innovación Educativa en las Enseñanzas Técnicas,
Barcelona.
Romero, C., y Ventura, S. (2007). Educational data mining: A survey from 1995 to 2005. Expert
Systems with Applications, 33(1), 135-146.
Romero, C., Ventura S., y García, E. (2008). Data mining in course management systems: Moodle
case study and tutorial. Computers and Education, 51(1), 368-384.
Sampson, D. (2017). Teaching and learning analytics to support teacher inquiry. In 2017
IEEE Global Engineering Education Conference (EDUCON 2017), Apr 25, 2017,
Athens, Greece.
83
Stewart, C. (2017). Learning Analytics: Shifting from theory to practice. Journal on Empowering
Teaching Excellence, 1(1), 95-105. https://doi.org/10.15142/T3G63W.
Siemens, G., Dawson S., y Lynch G. (2013). Improving the Quality of Productivity of the Higher
Education Sector: Policy and Strategy for Systems-Level Deployment of Learning
Analytics, SoLAR. Recuperadode http://bit.ly/1KNZ9HH
Tejedor, F., y García-Valcárcel, A. (2007). Causas del bajo rendimiento del estudiante universitario
(en opinión de los profesores y alumnos). Propuestas de mejora en el marco de
EEES. Revista de Educación, 342, 443–473.
Viñals, A. y Cuenca, J. (2016). El rol del docente en la era digital. Revista Interuniversitaria
de Formación del Profesorado, 86(30.2), 103-114. Recuperado de https://bit.
ly/2rq7wKK
Anexos
Imagen 1. Evaluación continua y entrega de insignia Amarilla: Reto 1: baja dificultad.
Resumen. El texto examina los resultados del estudio sobre la implementación de Lear-
ning Analytics dentro de ocho divisiones del Sistema Universidad Abierta y Educación
a Distancia de la UNAM, como forma de analizar la cultura digital y praxis digital. Para
ello, se diseñó un instrumento con un enfoque en sistemas complejos (interacciones,
conexiones e integración de agentes) que permitiera valorar el estado de la analítica
a partir de una escala de cinco niveles, basada en los campos de conocimiento pro-
puestos por Chatti, Dyckhoff, Schroeder y Thüs (2012). Las universidades tradicio-
nalmente cubren básicamente el manejo de datos con fines informativos internos a la
gestión; sin embargo, dentro de los agentes educativos, los tomadores de decisiones
han comenzado a asignar un sentido más amplio e integral al uso de los datos con
el fin de conocer a su población y resolver problemas más complejos. La conclusión
del texto se centra en mostrar que las divisiones analizadas, tienen la posibilidad de
mejorar las metodologías de extracción de datos dada su experiencia e, incluso, en
algunos casos podría darse ensayos para generar sistemas de recomendación con
base a perfiles y patrones detectados.
Palabras clave: Learning Analytics; sistemas complejos; cultura digital; educación
superior; gestión de datos académicos.
Learning Analytics como cultura digital das universidades: Diagnóstico de sua apli-
cação no sistema de educação a distância da UNAM a partir de uma escala complexa 89
Resumo. O texto examina os resultados do estudo sobre a implementação do Learning
Analytics em oito divisões do Sistema de Universidade Aberta e Educação a Distância
da UNAM, como forma de analisar a cultura digital e a práxis digital. Para tanto, foi
elaborado um instrumento com foco em sistemas complexos (interações, conexões
e integração de agentes) que permitisse avaliar o estado da análise a partir de uma 89
escala de cinco níveis, com base nos campos de conhecimento propostos por Chatti,
Dyckhoff., Schroeder e Thüs (2012). As universidades, de forma tradicional, realizam
basicamente o tratamento de dados para fins informativos internos de gestão; no
entanto, dentro dos agentes educacionais, os tomadores de decisão começaram a
atribuir um sentido mais amplo e abrangente ao uso dos dados, a fim de conhecer a
sua população e resolver problemas mais complexos. A conclusão do texto concentra-
se em mostrar que as divisões que foram analisadas são capazes de melhorar as
metodologias de extração de dados, dada a sua experiência e, até mesmo em alguns
casos, poderiam dar origem a estudos para gerar sistemas de recomendação baseados
em perfis e padrões detectados.
Palavras-chave: Learning Analytics; sistemas complexos; cultura digital; educação
superior; gestão de dados acadêmicos.
Learning Analytics as digital culture of universities: Diagnosis of its application in
the education system distance from the UNAM based on a complex scale
Abstract. The article examines the results of the study about the implementation of
Learning Analytics within eight divisions of the Open University and Distance Educa-
tion System of the UNAM, as a way to analyze digital culture as digital praxis. For this
purpose, an instrument was designed with a focus on complex systems (interactions,
connections and, agents integration) that would allow the assessment of the state of
the analytics from a scale of five levels based on the fields of knowledge proposed by
Chatti, Dyckhoff, Schroeder and Thüs, H. (2012). It is proposed initially that universities
have traditionally covered the basic level that is the management of data for internal
informational purposes; However, educational stakeholders have begun to assign
a broader and more comprehensive sense to the use of data in order to know their
population and solve more complex problems. The conclusion of the text focuses on
showing that the divisions that were analyzed are in the possibility of improving data
extraction methodologies given their experience and that in some cases there could be
trials to generate recommendation systems based on profiles and patterns detected.
Key words: Learning Analytics; complex systems; digital culture; higher education;
academic data management.
1. Introducción
Sobre este aspecto, Ferguson (2012) establece unos retos para las
entidades educativas en materia de analítica para los próximos años, que no
se limiten solo al tema de extracción de datos. Por ejemplo, en la minería
de datos la reflexión debería situarse sobre qué tipos de datos de la huella
digital que dejan los alumnos o de los registros escolares son útiles para 91
las organizaciones educativas para un micro uso o para comprender nuevas
realidades; la ética organizacional para manejar tales datos (Prinsloo y Slade,
2018); los procesos y las metodologías. La analítica del aprendizaje debería
poder mejorar los modelos educativos y, no sólo en el corto plazo, la interven-
ción sobre los procesos de enseñanza-aprendizaje. Incluso, la investigación
educativa, debería permitir mejorar la gobernanza de las universidades, así
como un mejor conocimiento de los estudiantes desde aspectos sociales y
emocionales, hasta políticos y culturales.
Educational Mejora en la
Académico-
obtención de Minería de datos
Data Mining datos académicos computacional
Recommender Búsqueda de
patrones para dar Académica Patrones, redes
Systems recomendaciones
Personalized Mejorar el
ambiente de Aprendizaje Inteligencia
adaptative aprendizaje de personalizado artificial
96 learning cada alumno
5. Preguntas de la investigación
98
7. Método y datos
102
102 Figura 3. Escala de integración de agentes y uso complejo de datos académicos
8. Resultados
c) Evaluación de metas
y objetivos a corto plazo 7 (77,8%)
d) Deserción 5 (55,6%)
e) Reprobación 6 (66,7%)
f) Titulación 5 (55,6%)
g) Proyecciones 3 (33,3%)
0 2 4 6 8
Gráfica 1. Tipos de problemáticas a partir de las cuales se recolectan datos.
a) Completamente
Gráfica 2. Relación entre objetivos y metas de la división y el uso de datos para validarlos.
b) Cruzarlos de acuerdo a
6 (66,7%)
problemáticas detectadas
c)Agruparlos de acuerdo a
patrones de enseñanza y 0 (0%)
aprendizaje
d) Agruparlos para localizar
patrones de comportamiento 0 (0%)
en el ambiente educativo
0 1 2 3 4 5 6 7 8
104
104 Gráfica 3. Procesos que se realizan con los datos académicos una vez extraídos (uso).
b) Cualitativo 3 (27,3%)
0 1 2 3 4 5 6 7 8 9 10
5
5
4
Número de registros
2 2
2
0
Sí No Tal vez
106
106 Gráfica 6. ¿Se han podido establecer instrumentos o estrategias para mejorar el aprendizaje
de los alumnos acorde a su perfil?
g) Ninguno 6 (54,5%)
0 1 2 3 4 5 6 7
Gráfica 8. Tipos de plugins que se han integrado en Moodle en los tres últimos años.
23,70%
Sí No
72,70%
5
5
4
4
Número de registros
0
No Sí
Gráfica 10. Acceso de los profesores a reportes sobre el comportamiento de sus grupos
durante y al final del curso.
5
5
4
4
Número de registros
0
No Sí
Gráfica 11. Acceso de los profesores que muestren áreas de oportunidad y habilidades
de sus alumnos.
10
9
9
7
Número de registros
0
No
Gráfica 12. Posibilidad de que el alumno adapte su curso a sus preferencias y necesidades.
5
5
4
4
Número de registros
0
No Sí
Gráfica 13. Creación de contenidos y materiales para los alumnos acorde a preferencias.
f) Estadística 9 (90%)
g) Análisis de contenidos 4 (40%)
h) Análisis de discurso 4 (40%)
i) Patrones de discurso 5 (50%)
j) Etnografía 5 (50%)
k) Machine learling 4 (40%)
0 1 2 3 4 5 6 7 8 9 10
Gráfica 14. Tipos de herramientas y técnicas con las que las divisiones quisieran trabajar
en un futuro.
9. Discusión
Las divisiones del Sistema SUAYED que formaron parte del estudio
han desarrollado metodologías propias para establecer los datos que requie-
ren para la toma de decisiones; aunque la mayor parte de éstas son para el
manejo de los programas académicos, se trata de datos de manejo regular
asociados a índices de reprobación, servicios académicos, deserción, etc. En
este sentido, se encontró que las nueve divisiones cubren el nivel inicial de
la escala que se construyó para este estudio. La información recabada les
permite tener una visión para establecer una conexión entre los objetivos y
metas, respecto a los fenómenos que se dan en cada división. No obstante,
en este nivel no se pudo encontrar que los datos de tipo informativo para
la gestión hayan sido usados para encontrar fenómenos nuevos respecto a
la gestión. En buena medida, esto se entiende porque en la práctica las
instituciones educativas tienen problemas para compartir información no
sólo en términos políticos sino técnicos: las bases de datos no siempre
tienen los mismos componentes o referentes. En el caso de las divisiones
de SUAYED dependen de una tercera entidad que es la administración
central, que gestiona los datos escolares de toda la universidad (Dirección
General de Administración Escolar, DGAE), en las diversas modalidades y
los distintos niveles. Por lo tanto, las divisiones muchas veces se ven en la
necesidad de: 1) esperar a que la DGAE le transfiera los datos, pero no con
la prontitud deseada, o 2) que establezca sus propios estudios para obtener
datos sin necesidad de solicitarlos a un tercero. Esta situación es regular en
varias instituciones de educación superior, por lo que hasta cierto punto se
entiende el por qué las divisiones que entraron al estudio no tienen mucho
margen de maniobra respecto a los otros niveles de la escala.
10. Conclusión
La mayor parte de las divisiones analizadas se encuentran en un
punto intermedio entre los niveles 2 y 3, evidentemente todas han rebasado
el primer nivel, por lo que algunas se encuentran ya en posibilidad de avan-
zar sobre el tratamiento de los datos, generar metodologías propias, mejorar
el modo en cómo se obtienen datos, analizar incluso micro-fenómenos de
manera más profunda, mejorar el uso de software para tratamiento de datos,
con el fin de mejorar los procesos de enseñanza-aprendizaje. Sin embargo,
llama la atención particularmente los casos, aproximadamente seis, en los
que ya ha habido un avance significativo y que si bien no han madurado sus
procesos de minería de datos educativos (nivel 3), los tomadores de decisión
son conscientes de la importancia de crear materiales o recomendar materia-
les o estrategias, acordes a diferentes perfiles identificados en cada división;
aunque no se trata de un sistema de recomendación avanzada (nivel 4) basado
primordialmente en sistemas computacionales, se puede considerar que es
importante que haya un esfuerzo inicial por generar opciones más cercanas
a los distintos perfiles de estudiantes.
Referencias bibliográficas
Bogarin, A., Morales, C. R., y Menéndez, R. C. (2015). Aplicando minería de datos para descubrir
rutas de aprendizaje frecuentes en Moodle. EDMETIC, 5(1), 73-92. Recuperado
de https://bit.ly/2ZeMZ9C
Chatti, M. A., Dyckhoff, A. L., Schroeder, U. y Thüs, H. (2012). A reference model for learning
analytics. International Journal of Technology Enhanced Learning, 4(5-6), 318-331.
Recuperado de https://bit.ly/2UnEDsF
Chatti M.A., Muslim A., y Schroeder U. (2017). Toward an Open Learning Analytics Ecosystem.
En Big Data and Learning Analytics in Higher Education, Kei Daniel B. (editor).
Springer. Recuperado de https://bit.ly/2vhsKup
Johnson, L., R. Smith, R., Willis, H., Levine, A., y Haywood,K. (2011) The Horizon Report:
2011. Austin, Texas: The New Media Consortium.
Lévy, P. (2007). Cibercultura: Informe al Consejo de Europa (No. 16). Anthropos Editorial.
115
Li, K. C., Lam, H. K., y Lam, S. S. (2015, July). A Review of Learning Analytics in Educational
Research, en International Conference on Technology in Education (pp. 173-184).
Springer, Berlin, Heidelberg. Recuperado de https://bit.ly/2ZeOzIA
Perrotta, C. y Williamson, B. (2018). The social life of Learning Analytics: cluster analysis and
the ‘performance’ of algorithmic education. Learning, Media and Technology, 43(1),
3-16, Recuperado de https://bit.ly/2VLESzm
Prinsloo, P., & Slade, S. (2018). Mapping responsible learning analytics: a critical proposal.
Responsible Analytics & Data Mining in Education: Global Perspectives on Quality,
Support, and Decision-Making (Khan, Badrul H.; Corbeil, Joseph Rene and Corbeil,
Maria Elena eds.). Routledge. Recuperado de https://bit.ly/2Imre2o
Romero, C., y Ventura, S. (2013). Data mining in education. Wiley Interdisciplinary Reviews:
Data Mining and Knowledge Discovery, 3(1), 12-27. Recuperado de https://bit.
ly/2KNb0kU
Siemens, G. (2014). The” Journal of Learning Analytics”: Supporting and Promoting Learning
Analytics Research. In Journal of Learning Analytics, 1(3-5). Recuperado de https://
bit.ly/2DkdEII
Snyder, K. (2008). “The digital culture and communication: More than just classroom learning”.
13th International Conference on Thinking Norrköping; Sweden June 17-21; 2007
(No. 021) Universidad de Linköping Prensa Electrónica. Recuperado de https://
bit.ly/2Gs0ZFK
Zubieta, J., Bautista, T., y Quijano, Á. (2012). Aceptación de las TIC en la docencia. México:
UNAM. Recuperado de https://bit.ly/2v7Y3Yn
116
116
Resumo. Percebe-se que há uma relevante adoção dos ambientes virtuais de apren-
dizagem (AVA) na educação superior, em especial na modalidade a distância. Estes
ambientes, com o apoio do Big Data, podem proporcionar ações para a prática avaliativa
docente a partir de ferramentas que contemplem os objetivos da learning analytics
(LA), segundo modelos e ciclos de vida já definidos na literatura. Neste estudo foi
desenvolvida a consolidação de dez possíveis ações docentes a partir destas ferra-
mentas, modelos e ciclos de vida, tendo como objetivo a confrontação destas ações
com docentes envolvidos oriundos de instituições de ensino superior (IES) que atuam
na educação a distância (EaD), evidenciando-as através de um experimento onde
utilizaram seis destas ferramentas de perfil docente em suas respectivas disciplinas
no AVA Moodle. Para coleta, foram utilizados dois questionários semi-estruturados
(pré e pós-experimento). Ficou caracterizado como resultados deste estudo que as
ferramentas que tiveram maior destaque para ações de LA foram: Completion Progress
(18,5%), Course Dedication (18,1%) e Level Up! (17,8%), já as ações de LA com
maiores graus de destaque foram: “monitoramento” (17,4%), seguido por “avaliação/
feedback” (13,0%) e “intervenção” (12,0%), havendo assim, compatibilidade com
o propósito de atingir a prática avaliativa dentro dos AVA a partir destas ferramentas.
Palavras-chave: learning analytics, ambientes virtuais de aprendizagem, educação a
distância, educação superior, big data.
Acciones docentes en los entornos virtuales de aprendizaje proporcionados por las 117
herramientas de Learning Analytics
Resumen. Empieza a percibirse una relevante adopción de los entornos virtuales de
aprendizaje (EVA) en la educación superior, en especial en la modalidad a distancia.
Estos ambientes, con el apoyo del big data, pueden proporcionar acciones para la
117
práctica de evaluación del docente a partir de herramientas contempladas en los
objetivos del Learning Analytics (LA), según modelos y ciclos de vida definidos en
la literatura. En este estudio se desarrolló la consolidación de diez posibles acciones
docentes a partir de estas herramientas, modelos y ciclos de vida. El objetivo fue la
confrontación de estas acciones con un grupo de docentes involucrados, adscritos a
instituciones de enseñanza superior (IES), que ejercen en la educación a distancia
(EaD), evidenciándolas a través de un experimento, en el que se utilizaron seis de estas
herramientas de perfil docente en sus respectivas disciplinas en el EVA Moodle. Para la
recolección, se utilizaron dos cuestionarios semiestructurados (pre y post-experimento).
Se evidenció en los resultados de este estudio que las herramientas que tuvieron más
relevancia para acciones de LA fueron: Completion Progress (18,5%), Course Dedication
(18,1%) y Level Up! (17,8%); las acciones de LA con mayor grado de destaque fueron:
“monitoreo” (17,4%), seguido por “evaluación / feedback” (13,0%) e “intervención”
(12,0%), comprobándose así, que existe compatibilidad en el propósito de alcanzar
la práctica de evaluación dentro de los EVA a partir de estas herramientas.
Palabras clave: learning analytics, entornos virtuales de aprendizaje, educación a
distancia, educación universitaria, big data.
Teacher actions in Virtual Learning Environments provided by Learning Analytics tools
Abstract. It is noticed that there is a relevant adoption of virtual learning environments
(VLE) in higher education, especially in the distance modality. These environments, with
the support of Big Data, can provide actions for teaching evaluation practice based on
tools that meet the objectives of learning analytics (LA), according to models and life
cycles already defined in the literature. The purpose of this study was to consolidate
ten possible teaching actions based on these tools, models and life cycles, with the
objective of confronting these actions with teachers involved from higher education
1. Introdução
2. Learning Analytics
1
https://tekri.athabascau.ca/analytics/
140
Submitted
120 Accepted 116 114 115
Rate
100
80 74
58
60
45% 44
38 39%
36 36 36
120 40 35
120 28% 30% 27%
31% 32% 30%
20
20 17 16
14 13
0
LAK'11 LAK'12 LAK'13 LAK'14 LAK'15 LAK'16 LAK'17 LAK'18
2
https://solaresearch.org/events/lak/
3
https://learning-analytics.info
4
https://www.nmc.org/nmc-horizon
Learners
- Learners - Interaction data
- Instructors - Traces
- Researchers - Personal date
- Educational Insti- - Academic Infor-
tutions mation
Learning Big Data
Stakeholders Environment Datasets
Optimize
Learning
Process
Analytics
Act Analytics
Objectives Techniques
- Prediction
- Statistical Analysis
121
- Intervention
- Personalization - Visualization
- Reflection & Inte- - Soxcial Network
ration - Emocional Inteli-
- Bechmarking gence
Interpret Data
122
122
DataTEL, Indicators,
Big Data Metrics
Why?
“polycontextual”
Fragmentation,
Heterogeneity
Monitoring/Analysis
Openness,
Prediction/Intervention
What?
Profiling
Tutoring/Mentoring
Data
Assessment/Feedback
Environments
Adaptation
Personalization/Recommedation
Reflection
Learning Analytics
Design, Usabililty
Competences
How? Who?
Techniques Stakeholders
(e.g. Statistics, Visualizations, Data/Web (e.g. Learners, Teachers, Tutors, Mentors,
Mining, Social Network Analysis) Institutions, Researchers, System designers)
5
https://damos.world/2013/08/30/the-moodle-activity-viewer-mav-heatmaps-
of-student-activity/
6
https://www.intelliboard.net/
7
https://www.zoola.io/
8
https://www.ht2labs.com/learning-locker-community/overview/
9
https://moodle.org/plugins/local_smart_klass
10
https://developer.chrome.com/extensions
129
Inicialmente, ainda sem as ferramentas de LA habilitadas, os
docentes responderam um questionário semi-estruturado denominado pré-
experimento13. O objetivo deste questionário foi verificar o seu conhecimento
prévio perante o conceito abordado de LA.
11
Optou-se por esta versão, por conta da compatibilidade com as versões dos
AVA-Moodle das IES que os docentes envolvidos atuam.
12
Foi solicitado o arquivo da última disciplina que o docente atuou na IES,
assegurando todos os critérios de privacidade e éticos, conforme comitê de ética, com
consentimento de ambas as partes envolvidas.
13
https://forms.gle/xT4zgRtUspaP9kme8
130
130
14
https://forms.gle/h3uGZ8HxUVJFrPWVA
132
132
6. Considerações finais
Referências bibliográficas
ABED (2017). Censo EAD.BR: relatório analítico da aprendizagem a distância no Brasil 2016.
ABED. Curitiba: InterSaberes.
Bitencourt, B. M., Severo, M. B., & Gallon, S. (2013). Avaliação da aprendizagem no ensino
superior: desafios e potencialidades na educação a distância. Revista Eletrônica
de Educação, 7(2), 211-226.
Chatti, M. A., Dyckhoff, A. L., Schroeder, U., & Thüs, H. (2012). A reference model for learning
analytics. International Journal of technology enhanced learning (IJTEL) - Special
Issue on “State-of-the-art in TEL”, 1-22.
Clow, D. (2012). The learning analytics cycle: closing the loop effectively. Proceedings...LAK
‘12 Proceedings of the 2nd International Conference on Learning Analytics and
Knowledge, 134-138.
Daniel, B. (2015). Big Data and analytics in higher education: Opportunities and challenges.
British Journal of Educational Technology, 46(5), 904-920.
Dodun, O., Panaite, E., Seghedin, N., Nagît, G., Dusa, P., Nestian, G. Slatineanu (2015).
Analysis of an e-learning platform use by means of the axiomatic design. In: 9.
International conference on axiomatic design (ICAD 2015). Proceedings...Florence,
Italy, v. 34, p. 244-249.
Einhardt, L., Tavares, T.A., & Cechinel, C. (2016, October). Moodle analytics dashboard: a
learning analytics tool to visualize users interactions in moodle. In XI Latin American
Conference on Learning Objects and Technology (LACLO) (pp. 1-6). IEEE.
Ekuase-Anwansedo, A., Craig, S. F., & Noguera, J. (2018). How to survive a learning management
system (LMS) implementation? A stakeholder analysis approach. Proceedings...18th
SIGUCCS, p. 165-168.
Gasevic, D., Kovanovic, V., & Joksimovic, S. (2017). Piecing the learning analytics puzzle: a
consolidated model of a field of research and practice. Journal Learning: Research
and Practice, 3, 63-78.
Khalil, M., & Ebner, M. (2015). Learning analytics: principles and constraints. Proceedings of
world conference on educational multimedia, hypermedia and telecommunications,
1326-1336.
Leitner, P., Khalil, M., & Ebner, M. (2017). Learning analytics in higher education: a literature
review. In: A. Peña-Ayala (ed.) Learning analytics: fundaments, applications, and
trends. Springer international publishing, 1-23.
Machado, L. R., Longhi, M. T., & Behar, P. A. (2013). Domínio tecnológico: saberes e fazeres
na educação a distância. In: P. A. Behar, Competências em educação a distância
(pp. 56-80). Porto Alegre: Penso.
136
136
Iglesias, M.J., Lozano, I., & Roldán, I. (2018). La calidad e innovación educativa en la formación
continua docente: un estudio cualitativo en dos centros educativos. Revista
Iberoamericana de Educación, 77(1), 13-34. Disponível em: https://bit.ly/2UXeBRd
Medio, C. de, Gasparetti, F., Limongelli, C., Sciarrone, F., & Temperini, M. (2017). Course-Driven
Teacher Modeling for Learning Objects Recommendation in the Moodle LMS. In:
UMAP’17 Adjunct, Bratislava, Slovakia. Proceedings...Bratislava, p. 141-145.
Peña-Ayala, A. (2017). Learning analytics: fundaments, applications, and trends: a view of the
current state of the art to enhance e-learning. Cham: Springer.
Polak, Y.N. (2009). A avaliação do aprendiz em EAD. In: F. M. Litto, & M. Formiga, (orgs.).
Educação a distância: o estado da arte (pp. 153-160). São Paulo: Pearson Education
do Brasil, .
Saccol, A., Schlemmer, E., & Barbosa, J. (2011). M-learning e u-learning: novas perspectivas
das aprendizagens móvel e ubíqua. São Paulo: Pearson Prentice Hall.
Siemens, G. (2010). What are learning analytics? In: Elearnspace: learning, networks, knowledge,
technology, community. Disponível em: https://bit.ly/2PcZKQE.
Silva, A.C., Leite, L.S., & Silva, C.M. (2009). Avaliação da aprendizagem em ambientes virtuais:
é possível inovar? Revista Meta: Avaliação, Rio de Janeiro, 1(2), 237-248.
Silva, R.S. (2013). Gestão de EaD: educação a distância na era digital. São Paulo: Novatec.
Silva, R. S. (2015). Ambientes virtuais e multiplataformas online na ead. São Paulo: Novatec.
Trigt, M. V. (2016). How data can improve the quality of higher education. SURFnet.. Disponível
em: https://bit.ly/2GhZ2vn.
Vosgerau, D., Brito, G. S., & Camas, N. (2016). PNE 2014-2024: Tecnologias educacionais e
formação de professores. Revista Formação Docente, 8(14),103-118.
137
1. Introducción
Indicadores Descripción
Índice individual de acceso Número de días que un participante accede al entorno en línea
(IIA) en el que se desarrolla la actividad sobre el número total de días
de duración de la actividad
Patrón individual de acceso Continuidad del acceso al entorno en línea
(PIA)
Índice individual de lecturas Proporción de contribuciones leídas por un participante con
(IIL) respecto al total de contribuciones hechas por el resto de los
participantes
Índice individual de contri- Proporción de contribuciones escritas por un participante en
buciones (IIC) relación con las requeridas para la realización de la tarea
Patrón individual de contri- Distribución de las contribuciones escritas por un participante a
buciones (PIC) lo largo del desarrollo de la tarea
índice individual de recipro- Proporción de relaciones comunicativas recíprocas que establece
cidad (IIR) un participante con otros participantes sobre el total de relaciones
recíprocas posibles que podría llegar a establecer
Índice grupal de acceso (IGA) Sumatorio de los días que los diferentes participantes acceden
al entorno en línea sobre los días de duración de la actividad por
el número de participantes
Índice grupal de lecturas Total de contribuciones leídas por todos los participantes sobre
(IGL) el número de lecturas posibles de las contribuciones realizadas
por todos los participantes
Índice grupal de contribucio- Total de contribuciones escritas por todos los participantes sobre
nes (IGC) el número esperado de contribuciones según las directrices de 143
desarrollo de la actividad
Índice de densidad de la Proporción de relaciones comunicativas reales que establecen los
red (IDR) participantes con otros participantes sobre el total de relaciones
posibles que podrían llegar a establecer [n(n-1)]
Índice grupal de reciprocidad Proporción de pares de participantes que tienen conexión recí-
(IGR) proca entre sí
índice individual de gestión Contribuciones o fragmentos de contribuciones que el participante
de la participación social (IIP) dedica a gestionar la participación social sobre el total de contri-
buciones o fragmentos de contribuciones del mismo participante
Índice individual de gestión Contribuciones o fragmentos de contribuciones que el participante
de la tarea académica (IIT) dedica a gestionar la tarea académica sobre el total de contribu-
ciones o fragmentos de contribuciones del mismo participante
Índice individual de gestión Contribuciones o fragmentos de contribuciones que el participante
de los significados (IIS) dedica a gestionar los significados sobre el total de contribuciones
o fragmentos de contribuciones del mismo participante
índice grupal de gestión de Contribuciones o fragmentos de contribuciones que el grupo dedica
la participación social (IGP) a gestionar la participación social sobre el total de contribuciones o
fragmentos de contribuciones del conjunto de miembros del grupo
índice grupal de gestión de la Contribuciones o fragmentos de contribuciones que el grupo dedica
tarea académica (IGT) a gestionar la tarea académica sobre el total de contribuciones o
fragmentos de contribuciones del conjunto de miembros del grupo
índice grupal de gestión de Contribuciones o fragmentos de contribuciones que el grupo de-
los significados (IGS) dica a gestionar los significados sobre el total de contribuciones o
fragmentos de contribuciones del conjunto de miembros del grupo
Nota. Adaptada de Coll, Engel y Niño, 2017, p. 6-8.
3. Metodología
3.2 Diseño
Para valorar el efecto que la información de la actividad de los
participantes tiene sobre sus propios procesos, al inicio de cada foro de ela-
boración del informe, se les entregó información individual sobre la actividad
del foro que acababan de finalizar; para ello se utilizó el correo electrónico
institucional de los participantes. Por lo tanto, de los cinco foros programa-
dos, los estudiantes recibieron la información correspondiente a la actividad
desarrollada en cuatro foros: la primera entrega de información se realizó
toda vez que concluyó el foro 1 con fines de mejora de la actividad del foro
2, las tres entregas restantes también se realizaron al término de cada foro
y previo al inicio del siguiente.
146
146 3.3 Análisis de los datos
Como ya se adelantaba, para el análisis de la actividad de los
participantes se han utilizado los datos registrados directamente de la pla-
taforma Blackboard. El procedimiento seguido ha consistido en seleccionar
el conjunto de indicadores de tipo estructural mencionados en la Tabla 2.
El análisis realizado a través de dichos indicadores ha permitido identificar
perfiles individuales de actividad que pueden ser valorados en función de su
mayor o menor proximidad a un perfil teóricamente idóneo.
Contribuciones 50 48 54 51 49
Relaciones recíprocas 13 19 14 22 14
Contribuciones 59 80 72 61 63
Relaciones recíprocas 14 19 17 19 20
Contribuciones 47 60 64 62 52
Relaciones recíprocas 9 18 19 18 15
Contribuciones 40 51 58 41 41
Relaciones recíprocas 10 13 15 10 11
4. Resultados 147
GB IIA 6 6 6 6 6
(N=6) PIA 5 6 6 6 6
IIC 6 6 6 5 4
IIR 2 6 4 4 5
GC IIA 3 6 6 6 6
(N=6) PIA 1 5 6 6 6
IIC 6 6 6 6 4
148
148 IIR 0 4 5 4 2
GD IIA 3 5 6 6 6
(N=6) PIA 1 5 4 4 4
IIC 5 6 6 6 6
IIR 0 2 3 1 2
Nº foros (F2-F5)
Grupo Foro F1 F2 F3 F4 F5 con todos los
indicadores
Participantes
P1 1 4 3 4 2 2
P2 4 3 4 4 4 3
GA P3 4 4 4 4 3 3
(N=6) P4 3 4 4 4 4 4
P5 2 4 3 4 3 2
P6 3 4 3 4 4 3
Nº de participantes con todos
2 5 3 6 3
los indicadores
P1 2 4 4 3 3 2
P2 3 4 4 4 3 3
GB P3 3 4 3 3 4 2
(N=6) P4 3 4 4 4 4 4
P5 4 4 3 3 3 1
P6 4 4 4 4 4 4
Nº de participantes con todos
los indicadores
2 6 4 3 3 149
P1 0 2 3 3 4 1
P2 1 3 4 4 3 2
GC P3 2 4 4 4 2 3
(N=6) P4 1 4 4 4 2 3
P5 2 4 4 3 4 3
P6 3 4 4 4 3 3
Nº de participantes con todos
0 4 5 4 2
los indicadores
P1 3 4 2 3 3 1
P2 1 4 3 2 3 1
GD P3 0 1 2 2 2 0
(N=6) P4 1 3 4 3 4 2
P5 2 3 4 3 2 1
P6 2 3 4 3 4 2
Nº de participantes con todos
0 2 3 0 2
los indicadores
28 26 26 25
GB
25 24 24 25
27 27 26 26
GC
27 26 26 27
5. Discusión y conclusiones
mación en las mismas. Para ello, puede ser particularmente útil incorporar un
análisis del contenido de las contribuciones de los participantes, que permita
complementar las informaciones obtenidas a partir del análisis estructural y
definir perfiles más complejos o modalidades distintas de ejercicio de la IE,
que den cuenta de las dinámicas particulares que se instauran en los grupos.
Referencias bibliográficas
Brown, M. (2012). Learning Analytics: Moving from concept to practice. Louisville, CO: EDUCAUSE
Learning Initiative, 7. Recuperado de https://bit.ly/2n6vJ2W 153
Bustos, A. (2011). Presencia docente distribuida, influencia educativa y construcción del
conocimiento en entornos de enseñanza y aprendizaje basados en la comunicación
asíncrona escrita. Tesis doctoral. Universidad de Barcelona. Recuperado de https://
bit.ly/2IR7mF2
Bustos, A., Coll, C., y Engel, A. (2009). Presencia docente distribuida en redes asíncronas
de aprendizaje. Definición teórica y perspectiva multimétodo para su estudio. En
F. Díaz Barriga, G. Hernández, y M. Rigo (Eds.), Aprender y enseñar con TIC en
educación superior: contribuciones del socioconstructivismo (pp. 97-128). México:
Publicaciones Universidad Nacional Autónoma de México.
Coll, C., Bustos, A., y Engel, A. (2011). Perfiles de participación y presencia docente distribuida
en redes asíncronas de aprendizaje: la articulación del análisis estructural y de
contenido. Revista de Educación, 354, 657–688. Recuperado de https://bit.
ly/2US9mOK
Coll, C., Bustos, A., Engel, A., de Gispert, I., y Rochera, M. J. (2013). Distributed Educational
Influence and Computer-Supported Collaborative Learning. Digital Education
Review, 24, 23-42. Recuperado de https://bit.ly/2J4ME3B
Coll, C., Colomina, R., Onrubia, J., y Rochera, M. J. (1992). Actividad conjunta y habla: una
aproximación a los mecanismos de influencia educativa. Infancia y Aprendizaje,
59-60, 189-132. Recuperado de https://bit.ly/2GTAQQo
Coll, C., Engel, A., y Bustos, A. (2009). Distributed Teaching Presence and Participants’
Activity Profiles: a theoretical approach to the structural analysis of Asynchronous
Learning Networks. European Journal of Education, 44(4), 521-538. https://doi.
org/10.1111/j.1465-3435.2009.01406.x
Coll, C., Engel, A., y Niño, S. (2017). La actividad de los participantes como fuente de información
para promover la colaboración. Una analítica del aprendizaje basada en el modelo
de Influencia Educativa Distribuida. RED Revista de Educación a Distancia, 53.
https://doi.org/10.6018/red/53/2
Coll, C., Onrubia, J., y Mauri, T. (2008). Ayudar a aprender en contextos educativos: el ejercicio
de la influencia educativa y el análisis de la enseñanza. Revista de Educación,
346, 33-70. Recuperado de https://bit.ly/2vvqUGe
Dawson, S., y Siemens, G. (2014). Analytics to Literacies: The development of a learning analytics
framework for multiliteracies assessment. The International Review of Research in
Open and Distance Learning, 15(4), 284-305. Recuperado de https://bit.ly/2IQX2gi
Dehler, J., Bodemer, D., Buder, J., y Hesse, F. W. (2011). Guiding knowledge communication
154
154 in CSCL via group knowledge awareness. Computers in Human Behavior, 27(3),
1068-1078. https://doi.org/10.1016/j.chb.2010.05.018
Dillenbourg, P., Järvelä, S., y Fischer, F. (2009). The evolution of research on computer-supported
collaborative learning: from design to orchestration. En N. Balacheff, S. Ludvigsen,
T. de Jong, T., A. Lazonder y S. Barnes (Eds.), Technology-Enhanced Learning.
Principles and products (pp. 3-19). Springer, Dordrecht.
Durall, E., y Gros, B. (2014). Learning analytics as a metacognitive tool. In Proceedings of 6th
International Conference on Computer Supported Education (CSEDU) (pp. 380–384).
Recuperado de https://bit.ly/2XPw5ge
Engel, A., Coll, C., y Bustos, A. (2013). Distributed Teaching Presence and communicative
patterns in asynchronous learning: Name versus reply networks. Computers y
Education, 60, 184-196. doi:10.1016/j.compedu.2012.06.011
Ferguson, R. (2012). The State Of Learning Analytics in 2012: A Review and Future Challenges.
Technical Report KMI-12-01, Knowledge Media Institute, The Open University, UK.
Recuperado de https://bit.ly/2WaE8ns
García, E., Romero, C., Ventura, S., y de Castro, C. (2011). A collaborative educational association
rule mining tool. The Internet and Higher Education, 14(2), 77-88. https://doi.
org/10.1016/j.iheduc.2010.07.006
Gros, B. (2016). The design of smart educational environments. Smart Learning Environments,
3(15), 1-11. https://doi.org/10.1186/s40561-016-0039-x
Kirschner, P. A., y Erkens, G. (2013). Toward a Framework for CSCL Research. Educational
Psychologist, 48, 1–8. https://doi.org/10.1080/00461520.2012.750227
Siemens, G. y Long, P. (2011). Penetrating the Fog: Analytics in learning and Education.
EDUCAUSE Review 46(5), 30-40. Recuperado de https://bit.ly/1xlMCED
155
indicators of the dashboard as the design of the courses could impact on the elements
included on it. And that is precisely the aim of this paper: to define the indicators
needed to design a student dashboard in online courses taking into account teachers’
perspectives. This study was carried out with 10 teachers from the Faculty of Huma-
nities and Education from Mondragon Unibertsitatea. Online qualitative questionnaires
were used to gather participants’ perceptions. Results show that most of the teachers
participating in the research study identified four indicators to design a student dash-
board: number of times students access the course forum, amount of contributions in
the forum, number of times students consult the information booklet, and number of
times each student has accessed the course in a week time. Conclusions drawn from
this study highlight the importance of training teachers and students on the pedagogical
use of data visualization.
Keywords: learning analytics; dashboard; course design; teacher; student learning
process; self-regulation
1. Introducción
4. Investigacion
4.1 Objetivo
El objetivo de este trabajo es definir los indicadores necesarios
para diseñar un dashboard para los estudiantes de cursos online teniendo
en cuenta la perspectiva de los profesores.
5. Resultados
162
162 En esta línea, todos los profesores manifestaron que estarían muy
interesados en saber cómo utilizan los estudiantes los recursos educativos
ofrecidos en sus cursos. Por ejemplo, el Participante02 mencionaba que
“conocer el “consumo” de los recursos educativos me dará pistas para adap-
tar lo diseñado”. Asimismo, los resultados indican también que los datos
proporcionados en el dashboard del estudiante pueden guiar el rediseño de
los cursos online incluidos los recursos ofrecidos en la plataforma. No obs-
tante, el 90% de los profesores que participaron en el estudio afirman que
se necesita formación sobre el uso pedagógico de la visualización de datos
antes de utilizar el dashboard de los estudiantes, como puede observarse
en la siguiente cita: “necesitaría aprender a interpretar lo que hay detrás de
cada dato del dashboard” (Participante04).
Los resultados han mostrado que los participantes del estudio va-
loraron muy positivamente la importancia de visualizar los datos educativos
para fomentar el proceso de aprendizaje de los estudiantes de una manera
significativa. De la misma manera, como lo afirmaron Leony et al. (2012) y
Pardo et al. (2017), la visualización de datos se percibe como muy útil para
la autorregulación y la reflexión de los estudiantes dentro de su contexto de
aprendizaje. Además, nuestros hallazgos están alineados con los resultados
encontrados por Krum et al. (2014) y Tanes et al. (2011) en los que los
profesores indicaron que estarían muy interesados en saber cómo usan los
recursos de sus cursos los estudiantes. Es por ello que los participantes consi-
deraron que estos datos podrían ayudar en el rediseño de sus cursos (Lockyer
Referencias bibliográficas
Arnold, K. E., Hall, Y., Street, S. G., Lafayette, W., & Pistilli, M.D. (2012). Course signals at
Purdue: Using learning analytics to increase student success. In S. Buckingham
Shum, D. Gasevic, & R. Ferguson (Eds.), International Conference on Learning
Analytics and Knowledge (pp. 267-270). New York, NY: ACM Press.
Baker, B. M. (2007). A conceptual framework for making knowledge actionable through capital
formation. University of Maryland University College.
Buckingham Shum, S., & Ferguson, R. (2012). Social learning analytics. Educational Technology
& Society, 15(3), 3-26.
Corrin, L., & de Barba, P. (2015). How do students interpret feedback delivered via dashboard?
Paper presented at the International Conference on Learning Analytics and Knowledge,
Poughkeepsie, NY.
Dawson, S., Gasevic, D., Siemens, G., & Joksimovic, S. (2014). Current state and future trends:
a citation network analysis of the learning analytics field. Paper presented at the
International Conference on Learning Analytics and Knowledge, Indianapolis, IN.
Dawson, S., Bakharia, A., & Heathcote, E. (2010). SNAPP: Realising the affordances of real-
time SNA within networked learning environments. Networked Learning-Seventh
International Conference.
Dawson, S., Heathcote, E., & Poole, G. (2010). Harnessing ICT potential: The adoption and
analysis of ICT systems for enhancing the student learning experience. International
Journal of Educational Management, 24(2), 116-128.
Ferguson, R. (2012). The state of learning analytics in 2012: a review and future challenges
(KMI-12-01). The Open University, UK.
Gasevic, D., Dawson, S., & Siemens, G. (2015). Let´s not forget: learning analytics are about
learning. TechTrends, 59, 64-75.
Goodyear, P. (2015). Teaching as design. HERDSA Review of Higher Education Vol. 2, (pp. 27-50).
Ipiña, N., Basagoiti, R., Jimenez, O., & Arriaran, I. (2016). Recommendations as a key aspect for
online learning personalization: perceptions of teachers and students. International
Scholarly and Scientific Research & Innovation 10(10) 3391-3395. https://doi.
org/10.5281/zenodo.1127511
Krumm, A. E., Waddington, R. J., Teasley, S. D., & Lonn, S. (2014). A learning management
system-based early warning system for academic advising in undergraduate
engineering. In J. A. Larusson & B. White (Eds.), Learning analytics: from research
to practice (pp. 103-119). New York: Springer Science+Business Media.
Leony, D., Pardo, A., de la Fuente Valentín, L., De Castro, D. S., & Kloos, C. D. (2012). GLASS: 165
A learning analytics visualization tool. 2nd International Conference on Learning
Analytics and Knowledge.
Lockyer, L., Heathcote, E., & Dawson, S. (2013). Informing pedagogical action: Aligning learning
analytics with learning design. American Behavioral Scientist 57 (10) 1439-1459.
Means, B. (2014). Learning Online. What research tells us about whether, when and how. New
York: Routledge.
Mor, Y., Ferguson, R., & Wasson, B. (2015). Editorial: Learning design, teacher inquiry into student
learning and learning analytics: A Call for action. British Journal of Educational
Technology, 46(2), 221-229.
Pardo, A., Jovanovic, J., Dawson, S., Gasevic, D., & Mirriahi, N. (2017). Using learning analytics
to scale the provision of personalised feedback. British Journal of Educational
Technology. https://doi.org/10.1111/bjet.12592.
Rientes, B., Boroowa, A., Cross, S., Kubiak, C., Mayles, K., & Murphy, S. (2016). Analytics4Action
evaluation framework: A review of evidence-based learning analytics interventions
at the Open University UK. Journal of Interactive Media in Education, 1(2), 1-11.
https://doi.org/10.5334/jime.394
Schwendimann, A., Rodriguez-Triana, M. J., Vozniuk, A., Prieto, L. P., Shirvani Boroujeni, M.,
Holzer, A., Gillet, D., Dillenbourg, P. (2016). Perceiving learning at a glance: A
systematic literature review of learning dashboard research. IEEE Transactions on
Learning Technologies 10(1), 1-1. https://doi.org/10.1109/TLT.2016.2599522
Steiner, C. M., Kickmeier-Rust, M. D., & Albert, D. (2014). Learning analytics and educational
data mining: An overview of recent techniques. Learning analytics for and in serious
games, pp. 6-15.
Sutherland, R., Eagle, S., & Jobert, M. (2012). A vision and strategy for Technology Enhanced
Learning. STELLAR Network of Excellence.
Tanes, Z., Arnold, K. E., King, A. S., & Remnet, M. A. (2011). Using signals for appropiate
feedback: perceptions and practices. Computers & Education, 57, 2414-2422.
https://doi.org/10.1016/j.compedu.2011.05.016
Verbert, K., Govaerts, S., Duval, E., Santos, J.L., Assche, F., Parra, G., et al. (2014). Learning
dashboards: an overview and future research opportunities. Personal and Ubiquitous
Computing, 18 1499-1514. https://doi.org/10.1007/s00779-013-0751-2
Yoo, Y., Lee, H., Jo, I. H., & Park, Y. (2015). Educational dashboards for smart learning: Review
of case studies. Emerging Issues in Smart Learning. Springer, (pp. 145-155).
166
166
Resumo. Este artigo responde aos seguintes objetivos: elaborar um modelo estatístico
das ações dos tutores no AVA que interferem no desempenho dos estudantes do curso
de Licenciatura em Química, na modalidade de educação a distância, da Universidade
Aberta do Brasil / Universidade Estadual do Ceará (UAB/UECE), com fundamento na
analítica da aprendizagem; e conhecer as ações que interferem no desempenho dos
estudantes sob a perspectiva de tutores e estudantes, comparando o resultado com
o modelo estatístico obtido na pesquisa. Para tanto, a metodologia está assentada
no paradigma pragmático e na abordagem mista. Adotou o método estatístico, com
uso da técnica de análise de regressão logística binária, suplementado pelo emprego
de questionários com itens abertos e fechados, aplicados a tutores e estudantes. Ao
final, foi obtido um modelo preditivo contendo 11 ações desenvolvidas pelos tutores,
sendo sete que aumentam a probabilidade de aprovação dos estudantes e quatro que
devem ser evitadas pelos tutores ou cuja frequência deve ser diminuída, pois reduzem
a probabilidade de aprovação.
Palavras-chave: educação a distância; formação de professores; analítica da apren-
dizagem; tutoria.
Acción de los tutores y su relación con el desempeño de los estudiantes en curso 167
de Licenciatura en Química desde la perspectiva de la analítica del aprendizaje
Resumen. Este artículo responde a los siguientes objetivos: elaborar un modelo esta-
dístico de las acciones de los tutores en el EVA que interfieren en el desempeño de
los estudiantes del curso de Licenciatura en Química, en la modalidad de educación
a distancia, de la Universidad Abierta de Brasil / Universidad Estatal de Ceará (UAB / 167
UECE), con base en la analítica del aprendizaje; y conocer las acciones que interfieren
en el desempeño de los estudiantes desde la perspectiva de tutores y estudiantes,
comparando el resultado con el modelo estadístico obtenido en la investigación. Para
ello, la metodología está asentada en el paradigma pragmático y en el enfoque mixto.
Se adoptó el método estadístico, con el uso de la técnica de análisis de regresión
logística binaria, suplementado por el empleo de cuestionarios con ítems abiertos y
cerrados, aplicados a tutores y estudiantes. Al final, se obtuvo un modelo predictivo
conteniendo 11 acciones desarrolladas por los tutores, siendo siete las que aumentan
la probabilidad de aprobación de los estudiantes y cuatro las que deben ser evitadas
por los tutores o cuya frecuencia debe ser disminuida, pues reducen la probabilidad
de aprobación.
Palabras clave: educación a distancia; formación de profesores; analítica del apren-
dizaje; tutoría.
Tutors’ action and their relation to the performance of undergraduate students in
Chemistry from learning analytics perspective
Abstract. This article answers the following objectives: to elaborate a statistical model of
tutors’ actions in LMS that interfere in students’ performance of the Chemistry Degree
course, in distance education modality, at the Open University of Brazil / Ceará State
University (UAB/UECE), based on learning analytics; and to know actions that interfere
in students’ performance from tutors’ and students’ perspective, comparing the result
with statistical model obtained in the research. For this, the methodology is based on
pragmatic paradigm and mixed approach. It adopted the statistical method, using bi-
nary logistic regression analysis, supplemented by the use of questionnaires with open
and closed items, applied to tutors and students. At the end, a predictive model was
1. Introdução
Disponível em https://catalogodeteses.capes.gov.br.
3
learning-analytics.info/journals/index.php/JLA.
estudantis (Schneider & Pea, 2015), comportamentos online (Lowes, Lin, &
Kinghorn, 2015) e o engajamento em termos de hábitos de trabalho online
(Dvorak & Jia, 2016) com o desempenho acadêmico.
2. Caminho metodológico
5
O Formulários Google ou Google Forms é um aplicativo web de criação e
administração de questionários online.
3. Resultados e discussão
Tabela 1. Resultado da regressão logística binária no R com Pr(>|z|) menor que 0,05
Coefficients
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.594321 0.075967 7.823 5.14e-15 ***
A06 0.007161 0.001750 4.092 4.28e-05 ***
A08 0.008035 0.001137 7.069 1.56e-12 ***
A15 0.114503 0.030949 3.700 0.000216 ***
A17 -0.007751 0.001872 -4.140 3.47e-05 ***
A21 -0.005325 0.001387 -3.840 0.000123 ***
A27 1.343030 0.528360 2.542 0.011026 *
A29 0.413054 0.144348 2.862 0.004216 **
A36 -0.065711 0.021479 -3.059 0.002218 **
A40 0.653014 0.160122 4.078 4.54e-05 ***
A50 -0.154720 0.027514 -5.623 1.87e-08 ***
A51 2.339297 0.716788 3.264 0.001100 **
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 3085.5 on 2623 degrees of freedom
Residual deviance: 2895.5 on 2612 degrees of freedom
AIC: 2919.5
Number of Fisher Scoring iterations: 4
1
p=
1 + 𝑒𝑒 −(𝛼𝛼+𝛽𝛽1 ∗𝐴𝐴06+𝛽𝛽2 ∗𝐴𝐴08+𝛽𝛽3 ∗𝐴𝐴15+𝛽𝛽4 ∗𝐴𝐴17+𝛽𝛽5 ∗𝐴𝐴21+𝛽𝛽6 ∗𝐴𝐴27+𝛽𝛽7 ∗𝐴𝐴29+𝛽𝛽8 ∗𝐴𝐴36+𝛽𝛽9 ∗𝐴𝐴40+𝛽𝛽10 ∗𝐴𝐴50+𝛽𝛽11 ∗𝐴𝐴51)
Onde:
α = + 0,594321; β1 = + 0,007161; β2 = + 0,008035; β3 = + 0,114503;
β4 = – 0,007751; β5 = – 0,005325; β6 = + 1,343030; β7 = + 0,413054;
β8 = – 0,065711; β9 = + 0,653014; β10 = – 0,154720; β11 = + 2,339297
182
182
Perguntamos, inicialmente, a tutores e estudantes as ações que
interferiam no desempenho do aluno, livremente e, em seguida, direcionada
(as 52 ações possíveis de serem aplicadas pelos tutores no AVA, depois as
11 ações do modelo preditivo). As respostas dos sujeitos foram dirigidas
a ações relacionadas a acompanhamento e avaliação do estudante. Ao ser
expresso o modelo preditivo a tutores e estudantes, considerando as ações
citadas por mais da metade dos sujeitos, os tutores referendaram apenas seis
e os estudantes nove. Tutores e estudantes indicaram modelos diferentes
(ver Tabelas 5 e 6).
6
Para saber mais sobre essa classificação, ver: https://bit.ly/1TZDDGS.
184
184
Figura 2. Curva ROC do modelo baseado nas ações destacadas pelos estudantes.
185
Figura 3. Curva ROC do modelo baseado nas ações destacadas pelos tutores.
Tabela 9. Pseudo R2 de McFadden e área sob a curva ROC dos modelos propostos
Identificação do Modelo Pseudo R2 AUROC
Inicial 0,06160539 0.6696
Baseado nos estudantes 0,05508018 0.6647
Baseado nos tutores 0,03483518 0.6385
4. Conclusões
Por outro lado, as ações que devem ser evitadas pelos tutores ou cuja
frequência há que ser diminuída, pois reduzem a probabilidade de aprovação
dos estudantes são: Conceder prorrogação para um usuário – A17; Visualizar
tabela de notas – A21; Atualiziar ou modificar fórum – A36; e, Visualizar
relatório de log – A50. Essas ações evidenciam coeficientes negativos e fa-
tores de chance que, mantidas as demais condições constantes, diminuem
a probabilidade de aprovação.
Referências bibliográficas
Aguiar, A. N. (2016). Evasão no curso de Licenciatura em Matemática a distância da UECE sob
a perspectiva da analítica da aprendizagem (Dissertação de Mestrado, Universidade
Estadual do Ceará, Fortaleza, Brasil). Disponível em https://bit.ly/2LthgyO
Andergassen, M., Mödritscher, F., & Neumann, G. (2014). Practice and repetition during exam
preparation in blended learning courses: Correlations with learning results. Journal
of Learning Analytics, 1(1), 48-74. https://dx.doi.org/10.18608/jla.2014.11.4
Barbosa, G. M. O. S. (2019). Ação dos tutores e sua relação com o desempenho dos estudantes em
curso de licenciatura da UAB/UECE sob a perspectiva da analítica da aprendizagem
(Tese de Doutorado não publicada). Universidade Estadual do Ceará, Fortaleza, Brasil.
Cambruzzi, W. L. (2014). GVWISE: uma aplicação de learning analytics para a redução da evasão
na educação a distância (Dissertação de Mestrado, Universidade do Vale do Rio dos
Sinos, São Leopoldo, Brasil). Disponível em https://bit.ly/2V5PPuf
Chatti, M. A., Dyckhoff, A. L., Schroeder, U., & Thüs, H. (2012). A reference model for learning
analytics. International Journal of Technology Enhanced Learning, 4(5-6), 318-331.
https://dx.doi.org/10.1504/IJTEL.2012.051815
Creswell, J. W., & Clark, V. L. P. (2013). Pesquisa de métodos mistos (2 ed.). Porto Alegre: Penso.
Duarte, L. F. D. (2017). Cronologia da luta pela regulação específica para as Ciências Humanas 189
e Sociais da avaliação da ética em pesquisa no Brasil. Práxis Educativa, 12(1),
267-286. https://dx.doi.org/10.5212/PraxEduc.v.12i1.0015
Dvorak, T., & Jia, M. (2016). Online work habits and academic performance. Journal of Learning
Analytics, 3(3), 318-330. https://dx.doi.org/10.18608/jla.2016.33.15
Fávero, L. P. (2015). Análise de dados: Modelos de regressão com Excel, Stata e SPSS. Rio
de Janeiro: Elsevier.
Gray, G., McGuinness, C., Owende, P., & Hofmann, M. (2016). Learning factor models of students
at risk of failing in the early stage of tertiary education. Journal of Learning Analytics,
3(2), 330-372. https://dx.doi.org/10.18608/jla.2016.32.20
Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira. (2016). Sinopse estatística
de educação superior 2015. Brasília: Autor. Disponível em https://bit.ly/2WpnG2Y
Jayaprakash, S. M., Moody, E. W., Lauría, E. J. M., Regan, J. R., & Baron, J. D. (2014). Early
alert of academically at‐risk students: an open source analytics initiative. Journal of
Learning Analytics, 1(1), 6-47. https://dx.doi.org/10.18608/jla.2014.11.3
Johnson, L., Adams, S., & Cummins, M. (2012). The NMC horizon report: 2012 Higher education
edition. Austin, Texas: The New Media Consortium. Disponível em https://bit.ly/2VTklfg
Knight, D. B., Brozina, C., & Novoselich, B. (2016). An investigation of first-year engineering
student and instructor perspectives of learning analytics approaches. Journal of
Learning Analytics, 3(3), 215-238. https://dx.doi.org/10.18608/jla.2016.33.11
Lakatos, E. M., & Marconi, M. A. (1991). Metodologia científica (2. ed.). São Paulo: Atlas.
Leeuwen, A. (2015). Learning analytics to support teachers during synchronous CSCL: Balancing
between overview and overload. Journal of Learning Analytics, 2(2), 138-162. https://
dx.doi.org/10.18608/jla.2015.22.11
Lowes, S., Lin, P., & Kinghorn, B. (2015). Exploring the link between online behaviours and
course performance in asynchronous online high school courses. Journal of Learning
Analytics, 2(2), 169-194. https://dx.doi.org/10.18608/jla.2015.22.13
McCoy, C., & Shih, P. (2016). Teachers as producers of data analytics: A case study of a teacher-
focused educational data science program. Journal of Learning Analytics, 3(3),
193-214. https://dx.doi.org/10.18608/jla.2016.33.10
190
190
Mill, D. R. S., Ribeiro, L. R. C., & Oliveira, M. R. G. (2014). Múltiplos enfoques sobre a
polidocência na educação a distância virtual. In D. R. S. Mill, L. R. C. Ribeiro &
M. R. G. Oliveira (Org.), Polidocência na educação a distância: Múltiplos enfoques
(pp. 13-24). São Carlos: Ed. UFSCar.
Oliveira, M. R. G., Mill, D. R. S., & Ribeiro, L. R. C. (2014). A gestão da sala de aula virtual e
os novos saberes para a docência na modalidade de Educação a Distância. In D.
R. S. Mill, L. R. C. Ribeiro & M. R. G. Oliveira (Org.), Polidocência na educação a
distância: Múltiplos enfoques (pp. 61-76). São Carlos: Ed. UFSCar.
Pardos, Z. A., Baker, R. S. J. D., San Pedro, M. O. C. Z., Gowda, S. M., & Gowda, S. M. (2014).
Affective states and state tests: Investigating how affect and engagement during the
school year predict end-of-year learning outcomes. Journal of Learning Analytics, 1
(1), 107-128. https://dx.doi.org/10.18608/jla.2014.11.6
Santos, H. L., Cechinel, C., Nunes, J. B. C., & Ochoa, X. (2017). An initial review of learning analytics
in Latin America. In: A. Díaz, A. Casali, M. C. Rivas, & A. S. Sprock (Eds.), 2017 Twelfth
Latin American Conference on Learning Technologies (LACLO), (pp. 1-9). https://dx.doi.
org/10.1109/LACLO.2017.8120913
Schneider, B., & Pea, R. (2015). Does seeing one another’s gaze affect group dialogue? A
computational approach. Journal of Learning Analytics, 2(2), 107-133. https://
dx.doi.org/10.18608/jla.2015.22.9
Waddington, R. J., Nam, S., Lonn, S., & Teasley, S. D. (2016). Improving early warning systems
with categorized course resource usage. Journal of Learning Analytics, 3(3), 263-
290. https://dx.doi.org/10.18608/jla.2016.33.13
article is to understand the possible barriers that hinder student learning through ICT.
For this, we will offer the results achieved in a research carried out at the Pontifical
Catholic University Madre y Maestra, in the city of Santo Domingo, where the available
technological resources, use of them, as well as attitude and training were analyzed of
the teaching staff It is a descriptive research, with a mixed methodology where quali-
tative and quantitative techniques are combined. According to the results achieved,
the training received by teachers is limited and basically focused on technical aspects,
which makes it difficult to use them with their students from a pedagogical point of
view. The scarce perceived competence in the teaching staff causes demotivation and
little initiative to incorporate it into the teaching-learning process.
Keywords: University, training, teaching staff, technological competences, TPACK.
1. INTRODUCCIÓN
2. Metodología
2.3 Instrumentos
Para recabar información y poder dar respuesta a los objetivos
planteados se lleva a cabo una metodología mixta. Por un lado, se diseñó
dos cuestionarios, los cuales serían aplicados al profesorado universitario.
Mediante la aplicación del primer cuestionario, dividido este en dos grandes
dimensiones, se pretende: a) Conocer la conectividad y acceso a los recur-
sos tecnológicos, actividades que realizan utilizando las TIC, propósito con
el que la utiliza en su actividad docente, barreras que dificultad su uso,
y; b) Nivel de conocimiento en TIC, formación recibida, lugar y tiempo de
198
198 formación recibida y obstáculos encontrados en su proceso de formación en
TIC. Mediante la aplicación del segundo cuestionario se pretende: a) Evaluar
las actitudes de los profesores hacia la integración de las TIC en las aulas.
Para ello, se utilizó un cuestionario ya elaborado y validado con anterioridad
por (Tejedor et al., 2009) el cual constaba de 24 ítems, divididos estos en
tres dimensiones: cognitivo, afectivo y comportamental y bajo una escala de
valoración tipo Likert de cuatro categorías, del 1 al 4 si el ítem era positivo
y del 4 al 1 si el ítem era negativo.
3. Análisis y resultados
200
200 f % f % f % f %
Ordenadores 0 0.0 0 0.0 57 39.9 86 60.1
Sala de Informática 0 0.0 0 0.0 67 46.9 76 53.1
Proyector en las aulas 0 0.0 0 0.0 44 30.8 99 69.2
Software educativo 36 25.2 60 42.0 31 21.7 16 11.2
Conexión a Internet en las aulas 0 0.0 0 0.0 87 60.8 56 39.2
Conexión a Internet en los labora- 1 0.7 26 18.2 59 41.3 57 39.9
torios
Conexión Wifi 1 0.7 0 0.0 90 62.9 52 36.4
Conexión a Internet en las zonas del 0 0.0 16 11.2 46 32.2 81 56.6
profesorado
Conexión a Internet en la biblioteca 5 3.5 16 11.2 52 36.4 70 49.0
Web docente 12 8.4 14 9.8 33 23.1 84 58.7
Web del alumnado 15 10.5 26 18.2 25 17.5 77 53.8
Plataforma de la Universidad 2 1.4 3 2.1 68 47.6 70 49.0
Entornos de trabajo colaborativo 22 15.4 32 22.4 53 37.1 36 25.2
Correo institucional 3 2.1 4 2.8 35 24.5 101 70.6
Sala de Videoconferencia 19 13.3 27 18.9 50 35.0 47 32.9
Equipo de grabación de vídeo 21 14.7 55 38.5 38 26.6 29 20.3
Equipo de sonido 5 3.5 28 19.6 34 23.8 76 53.1
Agenda/Calendario virtual 7 4.9 11 7.7 41 28.7 84 58.7
Acceso a bases de datos especiali- 15 10.5 26 18.2 29 20.3 73 51.0
zadas
“Siempre” (f= 53; 37.1%) o “Casi siempre” (f= 23; 16.1%), mientras que
el 53.2% lo utilizan “Algunas veces” (f= 23; 16.1%) o “Nunca” (f= 44;
30.8%). En cuanto al uso de “Internet en el salón de profesores”, el 37.8%
de los docentes dicen utilizarlo Siempre (f =32; 22.4%) o Casi siempre (f=
22; 15.4%), mientras que el 62.3% afirma utilizarlo Algunas veces (f= 38;
26.6%) o Nunca (f= 51; 35.7%).
Los principales motivos o propósitos por los que suelen utilizar las
TIC durante su práctica docente, podemos verlo en la Tabla 4. Según los
resultados, y alcanzando los mayores porcentajes, el 84.5% de los docentes
afirman utilizarla para motivar a los estudiantes, para clarificar e ilustrar
conceptos con un 73.2%, el 85.2% afirman utilizarla para facilitar la transfe-
rencia de conocimientos, así como mejorar el aprendizaje de los estudiantes,
con un 80.3%. Con la finalidad de retroalimentación suele ser utilizado por
el 76.1% y el 53.5% para evaluar el aprendizaje. También, 74.6% expone
14%
Muy suficiente
37,8%
Suficiente
32,2%
Insuficiente
16,1%
No ha recibido ninguna formación
208
208 Figura 2. Porcentajes de frecuencias en la variable “Formación en TIC”
8 horas 11,2%
12 horas 7%
7%
16 horas
12,6%
20 horas
28,7%
Dos o más meses
33,6%
S/R
En la universidad 66,4%
Autoaprendizaje 77,3%
En el extranjero 9,1%
2010-2013 58,7%
2000-2005 2,1%
En los 90 1,4%
S/R 29,4%
Siempre 34,3%
Nunca 1,4%
S/R 23,8%
210
210
Muy fácil 17,5%
S/R 23,1%
40,4%
Buena metodología
70,8%
Actitud positiva
Práctica 59,6%
Autoaprendizaje 22,5%
La metodología 21,30%
Económicos 0%
72,4%
Falta de tiempo
Ninguno 9,5%
En la casa 100%
213
En la oficina 88,1%
Figura 11. Porcentajes de frecuencias obtenidos en la variable “Lugar desde donde acceden”
4. CONCLUSIONES
Referencias bibliográficas
Abella, V., Hortigüela, D., Pérez-Pueyo, Á. y Salicetti, A. (2016). Actitudes de los futuros
educadores hacia la integración de las TIC en la docencia. En P. Membiela, N. Casado
y M. I. Cebreiros (Coords.). Nuevos escenarios en la docencia universitaria: Novos
escenarios da docencia universitaria (pp. 169-174). Educación Editora. Accesible
en https://bit.ly/2U39jzm
Aguilar, S. y Benítez, R. (2017). Investigando desde una perspectiva inclusiva el uso de las
TIC como recurso de acceso al aprendizaje y atención a la diversidad del alumnado
mayor. El profesorado universitario y su formación en diseño universal de aprendizaje.
Angulo, J., García, R.I., Torres, C.A., Pizá, R.I. y Ortíz, E.R. (2015). Nivel de Logro de Competencias
Tecnológicas del Profesorado Universitario. International Multilingual Journal of
Contemporary Research, 3(1), 67-80.
Arancibia, M., Valdivia, I., Araneda, S. y Cabero, J. (2017). Tipologías para la Innovación tecnológica
en Docentes de Educación Superior a partir de un análisis de conglomerados: un
estudio exploratorio. RED. Revista de Educación a Distancia, 55, 1-21.
Arancibia, M., Cosimo, D. y Casanoba, R. (2018). Percepción de los profesores sobre integración
de TIC en las prácticas de enseñanza en relación a los marcos normativos para la
profesión docente en Chile. Ensaio, Avaliação e Políticas, em Educação, 98(26).
Recuperado de: http://dx.doi.org/10.1590/s0104-40362017002501119
Balanskast, A. y Blamire, R. (2007). ICT in Schools: Trends, innovations and issues in 2006-
2007. Recuperado de: https://bit.ly/2G4Zegj
Barrera-Osorio, F. y Linden, L. (2009). The use and misuse of computers in education: evidence
from a rando- mized experiment in Colombia. Washington, DC: World Bank.
Barroso, J.M. y Padrón, M.C. (2014). Competencias tecnológicas básicas de los docentes que 215
inician la formación en la mención matemática de la face-uc. Revista de Tecnología
de Información y Comunicación en Educación, 8(2), 25-40.
Bingimlas, K.A. (2009). Barriers to the successful integration of ICT in teaching and learning
environments: A review of the literature. Eurasia Journal of Mathematics, Science
& Technology Education, 5(3), 235-245.
Cabero, J. (2004). Formación del profesorado en TIC. El gran caballo de batalla. Comunicación
y Pedagogía: Nuevas tecnologías y recursos didácticos, 195, 27-31.
Cabero, J. (2014). La formación del profesorado en TIC: modelo TPACK. Sevilla: Grupo de
Investigación Didáctica.
Cabero, J. y Barroso, J. (2013). La utilización del juicio de experto para la evaluación de TIC:
el coeficiente de competencia experta. Bordon, 65(2), 25-38.
Cabero, J. y Marín, V. (2013). Valoración del entorno formativo universitario DIPRO 2.0.
Profesorado. Revista de Currículum y Formación de Profesorado, 17 (2), 369-383.
Cabero, J. y Barroso, J. (2016). Formación del profesorado en TIC: una visión del modelo TPACK.
Cultura y Educación, 28(3), 633-663.
Carrera, F.X. y Coiduras, J.L. (2012). Identificación de la competencia digital del profesor
universitario: un estudio exploratorio en el ámbito de las ciencias sociales. REDU.
Cejas, R., Navío, A. y Barroso, J. (2016). Las competencias del profesorado universitario desde
el modelo TPACK (conocimiento tecnológico y pedagógico del contenido). Pixel-Bit.
Revista de Medios y Educación, 49, 105-119.
Díaz, J.J. (2017). Análisis del Aprendizaje Social en la Educación Superior: antecedentes y
líneas de actuación futuras. Revista Educativa Hekademos, 22, Año X, 93-104.
European Commission (2008). The education and training contribution to the Lisbon strategy.
Recuperado de: http://ec.europa.eu/education/policies/2010/et_2010_en.html
Federico, A. y Agresti, P. (2017). Sociedad y estado en el mundo actual. Buenos Aires: Eudeba.
Gray, L. y Lewis, L. (2009). Educational Technology in Public School Districts: Fall 2008
(NCES 2010 – 003). NCES, Institute of Education Sciences, U.S. Washington,
DC.: Department of Education.
Gutiérrez, I. (2014). Perfil del profesorado español en torno a las competencias en tecnologías
de la información y la comunicación. Pixel Bit. Revista de Medios y educación,
44, 51-65.
Johnson, L., Adams, S., Cummins, M., Estrada, V., Freeman, A. y Ludgate, H. (2013). NMC Horizon
Report: 2013 Higher Education Edition. Austin, Texas: The New Media Consortium.
Johnson, L., Adams, S., Estrada, V. y Freeman, A. (2014). NMC Horizon Report: 2014 Higher
Education Edition. Austin, Texas, Estados Unidos: The New Media Consortium.
216
216 Kaya, Z., Emre, I. y Kaya, O. (2013). Adaptation of Technological Pedagogical Content Knowledge
Scale to Turkish. Theory & Practice, 13 (4), 2367-2375.
Leiva, J.P., Ugalde, L., Llorente-Cejudo, C. (2018). El modelo TPACK en la formación inicial de
profesores: modelo Universidad de Playa Ancha (UPLA), Chile. Pixel Bit. Revista
de Medios y educación, 53, 165-177.
Marín, V., Cabero, J. y Barroso, J. (2014). Evaluando los entornos formativos online. Redu.
Revista de Docencia Universitaria, 12(2), 375-399.
Pastor, C.A. (2012). Aportaciones del Diseño Universal para el Aprendizaje y de los materiales
digitales en el logro de una enseñanza accesible. En J. Navarro, Mª.T. Fernández,
F.J. Soto y F. Tortosa (Coords.) (2012), Respuestas flexibles en contextos educativos
diversos (1-13). Murcia: Consejería de Educación, Formación y Empleo.
Siemens, G y Long, P. (2013). Penetrating the Fog: Analytics in Learning and Education.
Educause Review, 46, 31-40. https://bit.ly/1xlMCED.
217