Dossier Data Science 2023
Dossier Data Science 2023
MÓDULOS
• Deep Learning
• Text Mining
• Redes Sociales y Big Data
• Scala
• Visualización Avanzada
• Open Data
• Trabajo Final de Máster
La importancia del
BIG DATA
La demanda de estos profesionales es cada vez mayor, ya que las empresas y organismos necesitan adaptarse a la
era digital para mantenerse competitivos y eficientes. Además, son conscientes de la importancia de la transformación
digital en todos los aspectos de su actividad.
Macrodatos
El Big Data es una herramienta valiosa en diversas
áreas, desde la creación de informes estadísticos hasta
la identificación de nuevas oportunidades de negocio,
pasando por la predicción de resultados publicitarios y
la investigación médica.
Aplicaciones prácticas
El impacto de la información a gran escala va más
allá del ámbito matemático o estadístico, ya que tiene
aplicaciones prácticas en diversos campos empresariales,
gubernamentales, científicos y sociales. El Big Data se
ha convertido en un recurso fundamental para afrontar
situaciones complejas en tiempo real, permitiendo tomar
decisiones informadas y generar conocimiento valioso en
áreas como la medicina, la seguridad, el marketing, entre
otros. El Big Data es una herramienta imprescindible en el
mundo actual que ayuda a resolver problemas y aprovechar
oportunidades en diversos entornos y sectores.
Duración:
1 año académico
Modalidades:
Presencial y Online
Créditos ECTS:
60
Clases Presenciales:
Facultad de Comercio y Turismo
Viernes
16:00 – 21:00h
Sábados
9:00 – 14:00h
Modalidad Online
100% online
en la UCM?
La Universidad Complutense de Madrid (UCM) es una de las instituciones educativas más destacadas de España
y Europa. Ofrece una amplia gama de oportunidades y beneficios para los estudiantes, así como una excelencia
académica reconocida, una calidad docente de primer nivel. Ofrece alrededor de 90 títulos de grado y más de 30
dobles grados, más de 200 programas máster, además de estudios de formación permanente. La UCM tiene más de
500 años de historia y reconocimiento social. La Universidad Complutense de Madrid es la universidad española de
referencia en 5 continentes.
El prestigio de la universidad está avalado por 7 Premios Nobel, 20 Príncipes de Asturias, 7 Premios Cervantes, Premios
Nacionales de Investigación y a la Excelencia. La Universidad Complutense de Madrid tiene estudiantes de más de 90
La preparación del Trabajo Final de Máster (TFM) garantiza la puesta en práctica de todos los
conceptos adquiridos a lo largo del curso, capacitando definitivamente al alumno para asumir
responsabilidades dentro de un entorno laboral real.
El claustro de profesores de este Máster tiene la gran ventaja de combinar destacados profesores
universitarios de prestigio con grandes profesionales en activo en compañías de referencia en
el ámbito empresarial.
Programa Máster
Diseño y modelización de base de datos y lenguaje de consulta estructurada, más conocido como SQL (Structured
Query Language). Estudio del modelo entidad-relación, modelo relacional, e implementación relacional con SQL.
En éste módulo de base de datos SQL, se estudiarán los fundamentos y conceptos necesarios de los sistemas de
gestión de bases de datos relacionales y cómo se pueden implementar y administrar utilizando el lenguaje de consulta
estructurado (SQL).
Los estudiantes tendrán como objetivo general en este módulo adquirir los conceptos fundamentales de las bases
de datos y sus técnicas básicas de diseño, gestión y explotación, haciendo hincapié en el modelo de bases de datos
relacionales.
Se realizarán prácticas para asentar correctamente estos conocimientos, pues se trata del modelo de mayor
implantación en la actualidad, y sus conceptos y técnicas están presentes en todos los demás.
Podemos afirmar que las bases de datos SQL son el punto de partida para el manejo de volúmenes de datos, ya sean
pequeños o grandes, y por tanto una parte crucial en la iniciación del proceso que lleva a sacar el máximo rendimiento
a la inteligencia de datos para ponerla al servicio de un objetivo concreto.
Índice de Contenidos:
• Introducción a las bases de datos, sus sistemas de gestión y ventajas. Se profundizará en qué es una base de datos,
su evolución y tipos.
• El modelo entidad/relación en el diseño de las bases de datos, incluyendo el modelado conceptual de datos, las
entidades, especialización y generalización. Transformación del modelo entidad/relación a tablas.
• Conceptos fundamentales del modelo relacional como relaciones, claves y restricciones de integridad, así como
normalización.
• Implementación relacional con SQL: lenguaje de definición de datos (DDL) y lenguaje de manipulación de datos
(DML). Consultas simples, subconsultas, JOIN, EXIST y NOT EXIST, HAVING Y GROUP BY, UNION, INTERSECT Y
EXCEPT, INSERT, UPDATE Y DELETE. Vistas, trigger, procedimientos almacenados y funciones.
Programación Python
Python es el lenguaje de programación más utilizados en la actualidad en el ámbito de Big Data y Data Science, ya
que es un lenguaje intuitivo y con sintaxis clara y sencilla, con amplia gama de librerías y compatibilidad con otras
tecnologías, y con una gran comunidad activa de desarrolladores.
En este módulo adquiriremos los conocimientos necesarios para programar utilizando el lenguaje Python, de forma
escalonada y mediante ejercicios prácticos que complementen la teoría, seremos capaces de programar modularmente
en dicho lenguaje haciendo uso de su sintaxis y resolviendo los supuestos planteados en clase. Los conocimientos
adquiridos nos proporcionarán las herramientas necesarias para afrontar el conocimiento de Python orientado al
entorno big data y machine learning.
Al final del módulo se introducirán algunos conceptos básicos y librerías utilizadas en el tratamiento de datos y cálculo
numérico como son Pandas y NumPy, así como desarrollo de una API que sea capaz de exponer datos y un programa
que sea capaz de ingestar datos de una API.
Índice de Contenidos:
• Variables • Plataformas de desarrollo
• Tipos y operadores • PyCharm
• Entrada/Salida de Datos • Métodos de las colecciones, cadenas de texto, listas,
• Estructuras de Control I (IF Else, While, For, Break / conjuntos y diccionarios
continue) • Módulos
• Listas • Ficheros y objetos con pickle
• Tuplas • Pandas
• Diccionarios • NumPy
• Estructuras de Control II (For) • Bases de datos
• Funciones • MongoDB
• Módulos • SQL Server
• Escribir/Leer en un fichero • Twitter como fuente de datos
Bases de Datos NoSQL
En éste módulo se aprenderá a utilizar y modelar los sistemas de gestión de bases de datos NoSQL y sus principales
operaciones. Introducción a MongoDB, operaciones CRUD, dominar el Find o proyectar los campos en resultados de
búsqueda.
Cuando hablamos de bases de datos NoSQL, nos estamos refiriendo a aquellas cuya característica más destacable
es que no requieren de estructuras fijas como tablas, a diferencia de las bases de datos tradicionales que requieren
de SQL como lenguaje principal de consultas. Sin embargo, esto no significa que no soporten dicho lenguaje SQL.
Este módulo plantea diferentes objetivos al alumno, con los que espera mejorar sus capacidades analíticas, así como
sus habilidades para desenvolverse en un entorno empresarial dentro del ámbito del “Business Intelligence”.
El módulo introduce al alumno al concepto de Business Intelligence, diferenciando éste, del concepto de Machine
Learning o de Data Science, su relación con los nuevos paradigmas de Big Data. Para pasar a un enfoque completamente
práctico en el que el alumno aprenderá a utilizar Tableau. Se acompañará al alumno en el proceso de descubrimiento
de claves (insights) aplicado sobre un conjunto de datos abiertos. Tableau es líder en el cuadrante de visionarios de
Gartner en las plataformas de BI en los últimos años. Con esta introducción el alumno podrá realizar análisis básicos
usando esta solución que complementarán al aprendizaje de otros lenguajes y técnicas analíticas de este Máster.
Como complemento de esta vertiente técnica, el alumno aprenderá otros conceptos/habilidades más orientados a
cómo desenvolverse en un entorno empresarial orientado a la analítica avanzada. Uno de estos conceptos se centra
en cómo han de usarse de forma efectiva y eficiente diferentes tipos de gráficos, y cómo preparar y comunicar de
forma eficiente los resultados de un análisis de datos a una audiencia no-técnica, de negocio. Para los analistas de
negocio estos dos elementos se están considerando como esenciales en las organizaciones.
Estadística
La estadística permite sistematizar la información proporcionada por las bases de datos cuya procedencia, como
sabemos, puede ser muy variada: datos económicos de empresas, datos sobre la realidad social, datos sobre la
economía, sobre deportes, finanzas, opinión pública y política, etc. El tratamiento estadístico de los datos, con frecuencia,
no acaba en la obtención de un resumen de la información (Estadística Descriptiva) sino que sirve para tomar decisiones
en múltiples ámbitos, resolver diversos tipos de problemas y generar modelos predictivos.
Gracias a este módulo los alumnos serán capaces de manejar las herramientas que les permiten la estimación de los
parámetros de los modelos, los contrastes de hipótesis sobre dichos parámetros, así como el acceso a la metodología
que permite el rigor en la toma de decisiones en Estadística.
Se persigue la consolidación de los conocimientos de estadística necesarios para abordar el resto de las áreas del
máster.
Estadística descriptiva:
• Se centra en la descripción de las variables estadísticas univariantes, que estudian una característica en particular
del objeto de estudio, pueden ser numéricas o de otra índole (como por ejemplo sexo, nivel de estudios o sector
profesional).
• Se profundizará en diversos tipos de medidas estadísticas de centralización, dispersión, asimetría y curtosis.
• Descripción de variables bidimensionales. A diferencia de las univariantes, tienen en cuenta dos caracteres del mismo
sujeto de estudio y las posibles relaciones entre dos objetos distintos.
• Análisis de la vinculación.
• Medidas de asociación.
• Regresión.
Inferencia estadística:
Cuando hablamos de inferencia en el contexto estadístico, nos estamos refiriendo a las diversas técnicas y metodologías
a través de las cuales, en base a una información, los datos, con la que previamente contamos, se realizan modelos
de predicción. Además, es muy relevante controlar el margen de error en las decisiones, margen que necesariamente
existe dada la aleatoriedad intrínseca en los fenómenos que analiza la estadística.
Un ejemplo muy cotidiano al respecto son las encuestas electorales de intención de voto, donde con una base de
encuestados que busca ser lo más heterogénea posible, se intenta determinar cuál será el reparto de votos entre
los distintos partidos políticos que se presentan a unas elecciones. Pero también el análisis del riesgo a la hora de
conceder un crédito personal o hipotecario, el uso de datos para el diagnóstico diferencial en medicina preventiva, o
la información que recibe un portero de fútbol sobre las habilidades y tendencias del delantero que le tirará el penalti.
Algunos de los puntos que se tratarán en este módulo en relación a la inferencia estadística serán:
• Variables aleatorias.
• Modelos de distribución de probabilidad.
• Estimulación puntual de parámetros.
• Estimulación por intervalos de confianza.
• Contrastes paramétricos.
• Contrastes no paramétricos.
Tecnologías del Big Data
El alumno aprenderá a descubrir y valorar oportunidades presentes en el día a día del ciudadano y de la empresa.
Internet de las cosas como servicio, conectividad con fuentes de datos heterogéneas a través de brókers de mensajes
y hubs con dispositivos, Hadoop, Spark y diversas técnicas de visualización y análisis de información por parte de los
usuarios finales. Aproximación a la aportación del IOT al mundo del macrodato.
Conectividad con fuentes de datos heterogéneas a través de bróker de mensajes y hubs con dispositivos
• ETL as a Service.
• Gobierno de los datos as a Service.
• Stream Analytics, CEP análisis en memoria en tiempo real en los eventos complejos as a Service.
Índice de contenidos:
Hadoop:
• Introducción a Hadoop, entorno de trabajo que soporta diversas aplicaciones distribuidas bajo una licencia libre.
• Almacenamiento HDFS para grandes volúmenes de datos en Apache Hadoop
• Acceder a los datos almacenados en HDFS como si fuera una base de datos: introducción a HIVE
Spark
• Introducción a Spark, sistema de computación basado en el paradigma de Hadoop que destaca por su velocidad
gracias al almacenamiento de datos en memoria
• Clúster de Spark
• Desarrollo de aplicaciones con Spark
• RDD, Datasets y transformaciones
• Spark Streaming
En este módulo repasaremos las tecnologías Big Data y su motivación en el contexto actual de la era digital y las
necesidades de las empresas. Proporcionará a los estudiantes una comprensión profunda de cómo funcionan estos
sistemas de procesamiento de datos distribuidos y cómo aprovecharlos para procesar grandes cantidades de datos
de manera eficiente y efectiva.
Tras describir brevemente el manejo de HDFS (Hadoop Distributed File System), el curso se centrará en Apache
Spark, sin duda la tecnología más demandada para procesamiento de grandes volúmenes de datos. Describiremos su
filosofía peculiar basada en un grafo de ejecución (DAG) y profundizaremos en cada uno de los módulos, en especial
Spark SQL, MLlib y Structured Streaming. Se usará el servicio Dataproc de Google Cloud para que cada alumno pueda
desplegar de forma sencilla y gratuita un cluster de Spark.
Índice de contenidos:
• Spark SQL
• Introducción a las tecnologías Big Data • Spark MLlib
• HDFS • Spark Streaming
• Apache Spark • GraphFrames
• Arquitectura de Spark
A lo largo de este bloque, los alumnos adquirirán los conceptos necesarios para el desarrollo de la modelización
predictiva. Para ello, detectarán patrones basados en grandes volúmenes de datos a través de diversas técnicas de
data mining.
Los alumnos del Máster, aprenderán a través de este módulo las diversas técnicas de minería y modelos predictivos
básicos, y aplicaciones en credit scoring. Los resultados de su aplicación serán de gran utilidad en múltiples tareas
posteriores, de las cuales, se ofrece más información con ejemplos a continuación.
Gracias a los conocimientos adquiridos, los estudiantes podrán descubrir patrones en conjuntos de macrodatos,
transformando estos en estructuras que sean comprensibles para su posterior análisis y uso en alineación a los
objetivos empresariales o de otra índole que procedan.
Índice de contenidos:
El objetivo principal del módulo es enseñar a los estudiantes cómo diseñar, implementar y evaluar modelos de Machine
Learning que puedan aprender de los datos y hacer predicciones o tomar decisiones. Los alumnos aprenderán diversas
técnicas y aplicaciones de Machine Learning y modelización predictiva avanzada.
Estas técnicas de aprendizaje automático permiten a las máquinas ser capaces de asimilar una serie de
comportamientos generalizados para realizar diversas acciones que toman, como ejemplo de referencia, las pautas
indicadas previamente.
Aplicaciones actuales: detección de fraudes, el análisis de sentimientos, la clasificación de imágenes, reconocimiento
de voz e imagen, automatización, cuidado de la salud, entre otros.
Índice de contenidos:
Se estudiarán los conceptos básicos necesarios para entender e implementar métodos de Aprendizaje Automático o
Machine Learning y realizaremos un repaso general de las principales librerías usadas en el desarrollo de algoritmos
de Machine Learning.
Seguidamente, realizaremos la Ingesta de Datos, se explorarán distintos tipos y fuentes de datos. Además, se estudiarán
casos reales de obtención de datos y como convertirlos en DataFrames, y se aprenderá a emplear mecanismos de
organización, estructuración, análisis y visualización de los datos con ejemplos prácticos.
Continuamos con la fase de preprocesado, se estudiarán y aplicarán distintas técnicas de procesado de datos para
eliminar el ruido en ellos, mejorar su calidad, su capacidad representativa, o aumentar su cantidad y variedad. Entre
las técnicas que se tratarán se encuentra el filtrado, balanceo y una amplia variedad de métodos de aumento de datos.
Se aprenderán y practicarán las características generales y particulares del los modelos “Machine Learning”,
centrándose en los algoritmos supervisados de regresión y principales clasificadores (Naive Bayes, SVM, Random Forest
y Logistic Regression), así como los algoritmos no supervisados de clustering (PCA, K-Means), sus características y
aplicaciones a datos como iris, dígitos, textos, imágenes, etc.
Además, conoceremos diferentes herramientas que nos ayudarán en el día a día en nuestro trabajo como Data scientist
como: autoML(pycaret) para modelado, EDA (pandas profiling), explicabilidad (lime) para explicar lo que ha ocurrido
en el entrenamiento del modelo, mlflow para monitorizar métricas, h2o con cluster, feature engineering para trameo
de variables, Ensemble algoritmos de alto rendimiento, etc.
El programa no se detendrá únicamente en dar a conocer a los alumnos las características más comunes del aprendizaje
automático, sino que pondrá también en su mano las herramientas necesarias para poder desarrollar su propio proyecto
al respecto. A través de varios ejemplos prácticos, analizaremos cómo funciona la industria y cómo enfrentarnos a
diferentes casuísticas.
Deep Learning
El contenido de la sección de deep learning estará estructurado en cuatro bloques. Los conceptos más básicos son
los de los dos primeros bloques, mientras que los dos últimos estarán más orientados a la profundización.
Durante las clases se impartirá una componente práctica en cada bloque para familiarizar a los alumnos con la
aplicación directa.
• Reducción de dimensiones.
• Embeddings
• Word embeddings: word2vec, glove.
• Espacio Latente. Detección de anomalías
• Variational autoencoders
• PRÁCTICA: entrenamiento de un VAE para generación
• GAN
Redes Sociales y Big Data
El análisis de redes sociales busca representar relaciones entre distintas entidades para poder describir la estructura
de la red social o económica resultante. Esta forma de análisis nos permite estudiar múltiples conjuntos de datos que
no tienen cabida su análisis en el marco de una Dataframe.
Algunos ejemplos son el análisis de la información entre las páginas Web, en las Redes Sociales de personas (Facebook,
Instagram, Twitter, LinkedIn, TikTok…), en las Apps de comunicación (Whatsapp, Facebook Messenger, Skype…) y en
general cualquier entorno donde dispongamos de información relacional entre los usuarios que deseamos transformar
en conocimiento y valor de negocio (relaciones entre clientes, relación entre suministros, relación entre trabajadores,
relaciones entre publicaciones, relaciones entre países…)
Los principales análisis que se desarrollan se deben englobar en tres grandes grupos. En primer lugar, el análisis
estructural de la red, imprescindible para avanzar en el análisis, y punto de partida para predecir el comportamiento
futuro de las relaciones modeladas. En segundo lugar, el análisis de la centralidad o la importancia de los sujetos
de la Red, objetivo en sí de muchos análisis y dado inevitable para dar valor al negocio que está detrás de los datos
de la Red. Por último, la identificación de comunidades en la Red, herramienta esencial para explicar la dinámica de
comunicaciones en la Red y abordar situaciones como la identificación.
Text Mining
Desde el inicio de la Era de la Información, se ha producido un proceso de generación de datos, muchos de los
cuales se encuentran en formato no estructurado. Estos datos requieren de técnicas de análisis específicas para su
procesamiento.
En este bloque, los estudiantes adquirirán conocimientos fundamentales sobre Text Mining, una subárea de la ciencia
de datos que posibilita la transformación de los datos textuales no estructurados a un formato tabular para su análisis,
identificación de patrones o extracción de conocimiento.
En este módulo se expondrá la relevancia de las tecnologías del lenguaje para el análisis de información textual.
Se examinarán las distintas técnicas de análisis de textos existentes, los fundamentos del Procesado de Lenguaje
Natural (PLN) y las diversas maneras de representar los textos de forma numérica para su procesamiento por medio de
algoritmos de inteligencia artificial. Se abordarán temas como el preprocesamiento de textos (limpieza, transformación,
obtención de raíces, etc.), su exploración y su procesamiento con aprendizaje automático.
En el módulo se abordarán dos problemas clásicos de Text Mining. El primero de ellos es la clasificación de textos, que
permite la generación de modelos de aprendizaje automático capaces de asignar etiquetas a los textos. El segundo
es el Topic Modeling, una técnica utilizada para analizar el contenido de grandes volúmenes de documentos.
Además, se aplicarán técnicas de clasificación en un caso de estudio sobre la extracción de sentimientos de textos
provenientes de redes sociales. El Text Mining se encuentra en un momento de máximo desarrollo, en el que se han
desarrollado notables tecnologías como ChatGPT, construidas sobre arquitecturas de redes neuronales profundas.
En este módulo, también se presentarán las tecnologías que han facilitado el rápido desarrollo de la técnica como
son los modelos de lenguaje y las redes neuronales de tipo Transformers. En el desarrollo de este bloque se utilizará
el lenguaje Python y librerías como NLTK, Spacy, Gensim o Transformers.
Programación Scala
En este módulo estudiaremos Scala por su importancia en el ámbito del Big Data debido a su capacidad para manejar
grandes volúmenes de datos, procesamiento distribuido, programación funcional y concurrente, y por ser el lenguaje
de programación utilizado por Apache Spark.
Scala es un lenguaje de programación orientado a objetos que integra características de lenguaje funcional. Dentro
del mundo del Big Data se habla de Scala ya que Spark, que es una de las plataformas que se emplea para procesar
Visualización avanzada
El módulo de Visualización Avanzada es una parte fundamental en el análisis de datos en el mundo de Big Data.
La capacidad de visualizar datos de manera efectiva y clara es esencial para la toma de decisiones y para la comunicación
de resultados en un entorno empresarial.
Índice de Contenidos:
• En el módulo se abordarán los entornos Python, como los notebooks y los entornos virtuales, que son comunes en
el mundo de Big Data.
• También se introducirá el concepto de gráficos interactivos y se destacarán los beneficios de la interactividad en la
presentación de datos.
• Se exploran las herramientas Bokeh y Pygal y se presentan dashboards en Python utilizando Dash y Gleam.
• Se aprenderán las opciones de mapas en Python, incluyendo Geoplotlib y Leaflet / Folium, y también se trabajarán las
animaciones como una forma efectiva de presentar datos, así como la librería Plotly para gráficos interactivos.
Open Data
Tendencias en gobierno abierto, participación y transparencia se tratarán en este bloque. Del mismo modo, se
abordará las fuentes datos abiertos incluidas, las no gubernamentales (APIs) y fuentes de algoritmos abiertos de
última generación como puede ser Kaggle.
Los datos abiertos son aquellos que están a disposición pública, sin restricciones de uso ni necesidad de permisos.
Tampoco están sujetos a patentes de ningún tipo.
Se analizarán diversas fuentes de datos abiertos existentes en la actualidad, con un repaso a la tendencia creciente de permitir
el acceso libre a datos tradicionalmente restringidos al ámbito corporativo y gubernamental.
Aprender no únicamente a acceder a esos datos, sino también saber cómo tratarlos para sacar de ellos conclusiones
interesantes y factores de valor que estén alineados con nuestros intereses, será lo que realmente dote de utilidad a
este tipo de datos más allá del componente meramente informativo.
En cualquier caso, la apertura de los datos al gran público no está exenta de polémicas y posiciones encontradas.
Elementos a tener en cuenta son el posible uso de información personal sobre individuos específicos, ciertos datos
sensibles que puedan ser considerados una amenaza a la seguridad si se dan a conocer. Son parte de un debate que
genera interés y que transformará el mundo de los datos abiertos. Hay que monitorizar la evolución del dato abierto
para saber cómo se gestiona y regula.
Índice de Contenidos:
• Open data gubernamental. Con las tendencias en gobierno abierto, participación y transparencia.
Se expondrá el cambio que se está experimentando en muchas instituciones públicas que previamente restringían
el acceso a sus datos y actualmente, bajo la premisa de actuar bajo una mayor transparencia, facilitan parte de la
información de la cual disponen, tradicionalmente de uso interno, para su consulta pública.
• Otras fuentes de datos abiertos.
Identificando las principales fuentes, incluidas las no gubernamentales (APIs).
• Fuentes de algoritmos abiertos.
Los concursos, en especial Kaggle, son una fuente de acceso a algoritmos de última generación.
• Ejemplos de código reproducible.
Para asentar el conocimiento adquirido, el alumno diseña una estrategia integral de inteligencia de datos para una
organización. En este ejercicio utiliza el mayor número de las técnicas, herramientas y softwares en los que ha sido
formado.
Equipo directivo
PROFESORES
Lorenzo es Doctor en Economía. Carlos es Lic. en Físicas y trabaja José Javier es Ingeniero Informático
Experiencia de más de 20 años como como Senior Data Scientist en The y trabaja como Responsable de
docente y Codirector del Grupo de Adecco Group. Tiene una dilatada Sistemas CED. Además es profesor
Investigación Análisis Económico experiencia en el sector con asociado UCM. Ha trabajado en
de la Diversidad. Experto en análisis aplicaciones avanzadas basadas proyectos de sistemas en El Corte
de Datos en Economía Aplicada, en datos y Machine Learning en Inglés, Comel entre otros
Econometría Aplicada y Análisis de múltiples sectores
datos Espaciales
PROFESORES
PROFESORES
PROFESORES
PROFESORES
Olga Paulo
Marroquín Alonso Villegas
Docente UCM AI Prototyping at Telefónica CDO
COORDINADORES
Cristóbal David
Martínez Martínez del Ser
Coordinador Máster. Coordinador Máster.
GENERAL
El conocimiento de las técnicas habilita para su implementación en cualquier sector y área de negocio, y por ello las
aplicaciones son múltiples: análisis de clientes, preferencias, hábitos de consumo, necesidades y comportamientos;
análisis de riesgos y fraudes en el sector financiero y en otros sectores; optimización de procesos en logística y
distribución para mejorar la eficiencia y reducir los costos; predicción y planificación para anticiparse y determinar
tendencias y comportamientos futuros, análisis de redes sociales para entender mejor a los clientes, sus opiniones y
comportamientos y elaborar adecuadamente la estrategia de marketing y comunicación; análisis sobre la salud para
identificar patrones y tendencias, mejorar la calidad de la atención médica y la eficiencia de los servicios de salud.
Salidas profesionales
• Data Analyst
• Auditor de sistemas de datos masivos
• Arquitecto de Business Intelligence
• Desarrollador de datos a gran escala
• eComerce Data Analyst
• Digital Transformation for Companies
• Data Steward
• Data Artist
• Chief Data Officer (CDO)
• Data Scientist
1. Preinscripción
Envía tu solicitud para iniciar el proceso
2. Entrevista
Se deberá realizar una entrevista con el
coordinador del máster.
3. Pre-admisión
Confirmación de tu candidatura como
alumno del máster.
4. Plazas limitadas
Realización de un pago inicial.
Información
DE PRE-ADMISIÓN
1. Preinscribirse cumplimentando el formulario ubicado en la pestaña “Preinscripción” de la web.
2. Enviar la documentación requerida a fin de evaluar la candidatura.
3. Entrevista con el solicitante.
4. Confirmación de selección.
5. Realización de un pago inicial.
Tanto la preinscripción como la preadmisión quedan abiertas hasta comenzar el curso académico o completar plazas,
estableciéndose lista de espera si procede. Los admitidos deberán ingresar 600 euros en concepto de pago inicial para
el máster presencial y 500 euros en concepto de pago inicial para el máster online. Estas cantidades serán descontadas
del importe total de la matrícula. En ningún caso se tendrá derecho a devolución de este importe, a excepción de que
no se llegara a celebrar el curso.
Documentación requerida
• Currículum Vitae.
• DNI/pasaporte.
• Título universitario o resguardo de solicitud de título.
• Certificado oficial de notas.
• Currículum Vitae.
• Pasaporte/NIE (no válidas las cédulas de identificación de fuera de España)
• Título universitario (no es valido el certificado del título)
• Certificado oficial de notas.
• Currículum Vitae.
• Pasaporte/NIE (no válidas las cédulas de identificación de fuera de España)
• Título universitario con apostilla de la Haya (no es valido el certificado del título
• Certificado oficial de notas con apostilla de la Haya.
*La documentación debe estar traducida al castellano por un traductor jurado homologado.
Una vez finalizados y superados
estos estudios, la Universidad
Complutense de Madrid emitirá el
título, conforme a las normas de
admisión y matriculación de los
títulos de Formación Permanente
de la UCM
Información General
PRESENCIAL
A la finalización del programa, deberán presentar un Las clase se impartirán en aulas de la Universidad
Trabajo de Fin de Máster (TFM). Complutense de Madrid, tanto en la Facultad de
Comercio y Turismo, como en la Facultad de Ciencias
de la Documentación.
Una vez finalizados y superados
estos estudios, la Universidad
Complutense de Madrid emitirá el
título, conforme a las normas de
admisión y matriculación de los
títulos de Formación Permanente
de la UCM
Información General
ON-LINE
Información General
SEMIPRESENCIAL
Metodología Semipresencial
La formación se realizará de forma tutorizada por los profesores. Se utilizará una plataforma de formación virtual
para la comunicación entre los alumnos y profesores, creando una comunidad virtual de trabajo. Los distintos pro-
fesores de cada módulo, guiarán a los alumnos proponiendo actividades adicionales dependiendo del temario que
se esté cubriendo en cada momento. La modalidad semipresencial contempla la realización de 3 semanas presen-
ciales con master class impartidas por diferentes expertos para preparar los TFM y hacer networking.
CONTACTO
La dirección del Máster se reserva el derecho de modificar, suprimir y actualizar los profesores, la información y el programa del Máster