0% encontró este documento útil (0 votos)
17 vistas30 páginas

Dossier Data Science 2023

Este documento presenta el programa del Máster de Formación Permanente en Data Science y Big Data de la Universidad Complutense de Madrid. El máster consta de 18 módulos que cubren temas como bases de datos SQL y NoSQL, programación Python y R, machine learning, deep learning, y visualización de datos. El máster dura un año académico y ofrece modalidades presencial y online, con 60 créditos ECTS. La universidad ofrece un programa de alta calidad reconocido internacionalmente.

Cargado por

David Cuevas
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
17 vistas30 páginas

Dossier Data Science 2023

Este documento presenta el programa del Máster de Formación Permanente en Data Science y Big Data de la Universidad Complutense de Madrid. El máster consta de 18 módulos que cubren temas como bases de datos SQL y NoSQL, programación Python y R, machine learning, deep learning, y visualización de datos. El máster dura un año académico y ofrece modalidades presencial y online, con 60 créditos ECTS. La universidad ofrece un programa de alta calidad reconocido internacionalmente.

Cargado por

David Cuevas
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 30

5º EDICIÓN

Máster de Formación Permanente


Facultad de Comercio y Turismo UCM
Universidad Complutense de Madrid

MÁSTER DATA SCIENCE &


BIG DATA &
BUSINESS ANALYTICS
Índice Programa

MÓDULOS

• Bases de Datos SQL


• Programación Python
• Bases de Datos NoSQL
• Business Intelligence con Tableau
• Estadística
• Tecnologías del Big Data
• Hadoop/Spark
• Minería de Datos y Modelización Predictiva
• Machine Learning
MÓDULOS

• Deep Learning
• Text Mining
• Redes Sociales y Big Data
• Scala
• Visualización Avanzada
• Open Data
• Trabajo Final de Máster
La importancia del

BIG DATA

Empresas y organismos necesitan


profesionales para la nueva era digital
La automatización de procesos, el análisis de datos y la implementación de nuevas tecnologías son elementos
clave para el éxito empresarial en el mundo actual. Es por ello que las empresas y organismos necesitan contratar a
profesionales que puedan liderar estos procesos y garantizar una gestión eficiente y efectiva de los recursos, todo ello
con una filosofía de explotación del dato integrada en la cultura de empresa.

La demanda de estos profesionales es cada vez mayor, ya que las empresas y organismos necesitan adaptarse a la
era digital para mantenerse competitivos y eficientes. Además, son conscientes de la importancia de la transformación
digital en todos los aspectos de su actividad.

Macrodatos
El Big Data es una herramienta valiosa en diversas
áreas, desde la creación de informes estadísticos hasta
la identificación de nuevas oportunidades de negocio,
pasando por la predicción de resultados publicitarios y
la investigación médica.

El análisis de grandes volúmenes de datos permite obtener


información relevante y tomar decisiones informadas en
tiempo real, lo que resulta una ventaja competitiva para
las empresas y avances significativos en la investigación.

Aplicaciones prácticas
El impacto de la información a gran escala va más
allá del ámbito matemático o estadístico, ya que tiene
aplicaciones prácticas en diversos campos empresariales,
gubernamentales, científicos y sociales. El Big Data se
ha convertido en un recurso fundamental para afrontar
situaciones complejas en tiempo real, permitiendo tomar
decisiones informadas y generar conocimiento valioso en
áreas como la medicina, la seguridad, el marketing, entre
otros. El Big Data es una herramienta imprescindible en el
mundo actual que ayuda a resolver problemas y aprovechar
oportunidades en diversos entornos y sectores.
Duración:
1 año académico

Modalidades:
Presencial y Online

Créditos ECTS:
60

Clases Presenciales:
Facultad de Comercio y Turismo
Viernes
16:00 – 21:00h
Sábados
9:00 – 14:00h

Modalidad Online
100% online

¿Por qué estudiar

en la UCM?
La Universidad Complutense de Madrid (UCM) es una de las instituciones educativas más destacadas de España
y Europa. Ofrece una amplia gama de oportunidades y beneficios para los estudiantes, así como una excelencia
académica reconocida, una calidad docente de primer nivel. Ofrece alrededor de 90 títulos de grado y más de 30
dobles grados, más de 200 programas máster, además de estudios de formación permanente. La UCM tiene más de
500 años de historia y reconocimiento social. La Universidad Complutense de Madrid es la universidad española de
referencia en 5 continentes.

El prestigio de la universidad está avalado por 7 Premios Nobel, 20 Príncipes de Asturias, 7 Premios Cervantes, Premios
Nacionales de Investigación y a la Excelencia. La Universidad Complutense de Madrid tiene estudiantes de más de 90

¿Por qué estudiar un Máster de formación


permanente de la UCM?
Si hay algo que afianza los conceptos teóricos de un programa educativo es la práctica. Nuestros
módulos formativos combinan una base teórica con ejercicios prácticos basados en situaciones
reales de las empresas.

La preparación del Trabajo Final de Máster (TFM) garantiza la puesta en práctica de todos los
conceptos adquiridos a lo largo del curso, capacitando definitivamente al alumno para asumir
responsabilidades dentro de un entorno laboral real.

Convenios con empresas


La Universidad Complutense de Madrid y el Máster Data Science & Big Data & Business Analytics
tiene convenios con prestigiosas empresas del sector, lo que permite a los alumnos acceder a
prácticas, durante las cuales podrán aplicar los conocimientos adquiridos a lo largo del Máster.

El claustro de profesores de este Máster tiene la gran ventaja de combinar destacados profesores
universitarios de prestigio con grandes profesionales en activo en compañías de referencia en
el ámbito empresarial.
Programa Máster

Data Science & Big Data


& Business Analytics

Bases de Datos SQL

Diseño y modelización de base de datos y lenguaje de consulta estructurada, más conocido como SQL (Structured
Query Language). Estudio del modelo entidad-relación, modelo relacional, e implementación relacional con SQL.

En éste módulo de base de datos SQL, se estudiarán los fundamentos y conceptos necesarios de los sistemas de
gestión de bases de datos relacionales y cómo se pueden implementar y administrar utilizando el lenguaje de consulta
estructurado (SQL).

Los estudiantes tendrán como objetivo general en este módulo adquirir los conceptos fundamentales de las bases
de datos y sus técnicas básicas de diseño, gestión y explotación, haciendo hincapié en el modelo de bases de datos
relacionales.

Se realizarán prácticas para asentar correctamente estos conocimientos, pues se trata del modelo de mayor
implantación en la actualidad, y sus conceptos y técnicas están presentes en todos los demás.

Podemos afirmar que las bases de datos SQL son el punto de partida para el manejo de volúmenes de datos, ya sean
pequeños o grandes, y por tanto una parte crucial en la iniciación del proceso que lleva a sacar el máximo rendimiento
a la inteligencia de datos para ponerla al servicio de un objetivo concreto.

Índice de Contenidos:

• Introducción a las bases de datos, sus sistemas de gestión y ventajas. Se profundizará en qué es una base de datos,
su evolución y tipos.
• El modelo entidad/relación en el diseño de las bases de datos, incluyendo el modelado conceptual de datos, las
entidades, especialización y generalización. Transformación del modelo entidad/relación a tablas.
• Conceptos fundamentales del modelo relacional como relaciones, claves y restricciones de integridad, así como
normalización.
• Implementación relacional con SQL: lenguaje de definición de datos (DDL) y lenguaje de manipulación de datos
(DML). Consultas simples, subconsultas, JOIN, EXIST y NOT EXIST, HAVING Y GROUP BY, UNION, INTERSECT Y
EXCEPT, INSERT, UPDATE Y DELETE. Vistas, trigger, procedimientos almacenados y funciones.
Programación Python

Python es el lenguaje de programación más utilizados en la actualidad en el ámbito de Big Data y Data Science, ya
que es un lenguaje intuitivo y con sintaxis clara y sencilla, con amplia gama de librerías y compatibilidad con otras
tecnologías, y con una gran comunidad activa de desarrolladores.

En este módulo adquiriremos los conocimientos necesarios para programar utilizando el lenguaje Python, de forma
escalonada y mediante ejercicios prácticos que complementen la teoría, seremos capaces de programar modularmente
en dicho lenguaje haciendo uso de su sintaxis y resolviendo los supuestos planteados en clase. Los conocimientos
adquiridos nos proporcionarán las herramientas necesarias para afrontar el conocimiento de Python orientado al
entorno big data y machine learning.

Al final del módulo se introducirán algunos conceptos básicos y librerías utilizadas en el tratamiento de datos y cálculo
numérico como son Pandas y NumPy, así como desarrollo de una API que sea capaz de exponer datos y un programa
que sea capaz de ingestar datos de una API.

Índice de Contenidos:
• Variables • Plataformas de desarrollo
• Tipos y operadores • PyCharm
• Entrada/Salida de Datos • Métodos de las colecciones, cadenas de texto, listas,
• Estructuras de Control I (IF Else, While, For, Break / conjuntos y diccionarios
continue) • Módulos
• Listas • Ficheros y objetos con pickle
• Tuplas • Pandas
• Diccionarios • NumPy
• Estructuras de Control II (For) • Bases de datos
• Funciones • MongoDB
• Módulos • SQL Server
• Escribir/Leer en un fichero • Twitter como fuente de datos
Bases de Datos NoSQL

En éste módulo se aprenderá a utilizar y modelar los sistemas de gestión de bases de datos NoSQL y sus principales
operaciones. Introducción a MongoDB, operaciones CRUD, dominar el Find o proyectar los campos en resultados de
búsqueda.

Cuando hablamos de bases de datos NoSQL, nos estamos refiriendo a aquellas cuya característica más destacable
es que no requieren de estructuras fijas como tablas, a diferencia de las bases de datos tradicionales que requieren
de SQL como lenguaje principal de consultas. Sin embargo, esto no significa que no soporten dicho lenguaje SQL.

Introducción a las bases de datos NoSQL Create – insert, insertOne, insertMany


• Un poco de historia sobre las BD relacionales • Read – find, findOne
• Modelo de datos (entidad relación vs agregación) • Update – update, updateOne, updateMany,
• BD Relacionales VS NoSQL (ACID vs BASE) findAndModify y operadores
• Diferentes tipos de BD NoSQL (key-value, • Delete – remove, deleteOne, deleteMany
documentales, XML, Grafos, Column Family)
• Cuando utilizar NoSQL Dominar el Find
• Teorema del CAP • Aplicar filtros avanzados
• Mongo VS Cassandra • Arrays y Documentos Embebidos y operadores
• Ordenar los resultados de búsqueda
Instalar MongoDB • Paginar y limitar los resultados de búsqueda
• Cómo instalar servidor mongodb en win/mac/ • Otros cursores importantes
linux
• Cómo conectarse a mongo con diferentes Índices y Agregaciones
clientes • Índices
• Conceptos de JSON y Arrays • Agregaciones, pipeline, etapas, operadores
• Manejo básico en la base de datos/colecciones y
tipos de datos Modelo de datos
• Importación y Exportación de ficheros • Cómo modelar
• Operaciones CRUD • Denormalización
Business Intelligence con Tableau

Este módulo plantea diferentes objetivos al alumno, con los que espera mejorar sus capacidades analíticas, así como
sus habilidades para desenvolverse en un entorno empresarial dentro del ámbito del “Business Intelligence”.

El módulo introduce al alumno al concepto de Business Intelligence, diferenciando éste, del concepto de Machine
Learning o de Data Science, su relación con los nuevos paradigmas de Big Data. Para pasar a un enfoque completamente
práctico en el que el alumno aprenderá a utilizar Tableau. Se acompañará al alumno en el proceso de descubrimiento
de claves (insights) aplicado sobre un conjunto de datos abiertos. Tableau es líder en el cuadrante de visionarios de
Gartner en las plataformas de BI en los últimos años. Con esta introducción el alumno podrá realizar análisis básicos
usando esta solución que complementarán al aprendizaje de otros lenguajes y técnicas analíticas de este Máster.

Como complemento de esta vertiente técnica, el alumno aprenderá otros conceptos/habilidades más orientados a
cómo desenvolverse en un entorno empresarial orientado a la analítica avanzada. Uno de estos conceptos se centra
en cómo han de usarse de forma efectiva y eficiente diferentes tipos de gráficos, y cómo preparar y comunicar de
forma eficiente los resultados de un análisis de datos a una audiencia no-técnica, de negocio. Para los analistas de
negocio estos dos elementos se están considerando como esenciales en las organizaciones.
Estadística

La estadística permite sistematizar la información proporcionada por las bases de datos cuya procedencia, como
sabemos, puede ser muy variada: datos económicos de empresas, datos sobre la realidad social, datos sobre la
economía, sobre deportes, finanzas, opinión pública y política, etc. El tratamiento estadístico de los datos, con frecuencia,
no acaba en la obtención de un resumen de la información (Estadística Descriptiva) sino que sirve para tomar decisiones
en múltiples ámbitos, resolver diversos tipos de problemas y generar modelos predictivos.

Gracias a este módulo los alumnos serán capaces de manejar las herramientas que les permiten la estimación de los
parámetros de los modelos, los contrastes de hipótesis sobre dichos parámetros, así como el acceso a la metodología
que permite el rigor en la toma de decisiones en Estadística.

Se persigue la consolidación de los conocimientos de estadística necesarios para abordar el resto de las áreas del
máster.

El módulo está dividido en dos temas: Estadística Descriptiva y la Inferencia Estadística.

Estadística descriptiva:

• Se centra en la descripción de las variables estadísticas univariantes, que estudian una característica en particular
del objeto de estudio, pueden ser numéricas o de otra índole (como por ejemplo sexo, nivel de estudios o sector
profesional).
• Se profundizará en diversos tipos de medidas estadísticas de centralización, dispersión, asimetría y curtosis.
• Descripción de variables bidimensionales. A diferencia de las univariantes, tienen en cuenta dos caracteres del mismo
sujeto de estudio y las posibles relaciones entre dos objetos distintos.
• Análisis de la vinculación.
• Medidas de asociación.
• Regresión.

Inferencia estadística:

Cuando hablamos de inferencia en el contexto estadístico, nos estamos refiriendo a las diversas técnicas y metodologías
a través de las cuales, en base a una información, los datos, con la que previamente contamos, se realizan modelos
de predicción. Además, es muy relevante controlar el margen de error en las decisiones, margen que necesariamente
existe dada la aleatoriedad intrínseca en los fenómenos que analiza la estadística.

Un ejemplo muy cotidiano al respecto son las encuestas electorales de intención de voto, donde con una base de
encuestados que busca ser lo más heterogénea posible, se intenta determinar cuál será el reparto de votos entre
los distintos partidos políticos que se presentan a unas elecciones. Pero también el análisis del riesgo a la hora de
conceder un crédito personal o hipotecario, el uso de datos para el diagnóstico diferencial en medicina preventiva, o
la información que recibe un portero de fútbol sobre las habilidades y tendencias del delantero que le tirará el penalti.

Algunos de los puntos que se tratarán en este módulo en relación a la inferencia estadística serán:

• Variables aleatorias.
• Modelos de distribución de probabilidad.
• Estimulación puntual de parámetros.
• Estimulación por intervalos de confianza.
• Contrastes paramétricos.
• Contrastes no paramétricos.
Tecnologías del Big Data

El alumno aprenderá a descubrir y valorar oportunidades presentes en el día a día del ciudadano y de la empresa.
Internet de las cosas como servicio, conectividad con fuentes de datos heterogéneas a través de brókers de mensajes
y hubs con dispositivos, Hadoop, Spark y diversas técnicas de visualización y análisis de información por parte de los
usuarios finales. Aproximación a la aportación del IOT al mundo del macrodato.

Conectividad con fuentes de datos heterogéneas a través de bróker de mensajes y hubs con dispositivos
• ETL as a Service.
• Gobierno de los datos as a Service.
• Stream Analytics, CEP análisis en memoria en tiempo real en los eventos complejos as a Service.

Índice de contenidos:

Hadoop:
• Introducción a Hadoop, entorno de trabajo que soporta diversas aplicaciones distribuidas bajo una licencia libre.
• Almacenamiento HDFS para grandes volúmenes de datos en Apache Hadoop
• Acceder a los datos almacenados en HDFS como si fuera una base de datos: introducción a HIVE

Spark
• Introducción a Spark, sistema de computación basado en el paradigma de Hadoop que destaca por su velocidad
gracias al almacenamiento de datos en memoria
• Clúster de Spark
• Desarrollo de aplicaciones con Spark
• RDD, Datasets y transformaciones
• Spark Streaming

Tecnologías Big Data en Google Cloud

• Ingesta y procesamiento en batch: Cloud Dataproc


• Ingesta en streaming: Cloud PubSub
• Almacenamiento de ficheros: Google Cloud Storage
• Almacenamiento de datos: BigQuery
• Desarrollo y ejecución de pipelines: Cloud Data Fusion
• Visualización de datos: Cloud Data Studio
• Analítica avanzada de datos: Vertex AI
• Orquestación de datos: Cloud Composer
• Catálogo y gobierno del dato: Cloud Dataplex
Hadoop y Spark

En este módulo repasaremos las tecnologías Big Data y su motivación en el contexto actual de la era digital y las
necesidades de las empresas. Proporcionará a los estudiantes una comprensión profunda de cómo funcionan estos
sistemas de procesamiento de datos distribuidos y cómo aprovecharlos para procesar grandes cantidades de datos
de manera eficiente y efectiva.

Tras describir brevemente el manejo de HDFS (Hadoop Distributed File System), el curso se centrará en Apache
Spark, sin duda la tecnología más demandada para procesamiento de grandes volúmenes de datos. Describiremos su
filosofía peculiar basada en un grafo de ejecución (DAG) y profundizaremos en cada uno de los módulos, en especial
Spark SQL, MLlib y Structured Streaming. Se usará el servicio Dataproc de Google Cloud para que cada alumno pueda
desplegar de forma sencilla y gratuita un cluster de Spark.

Índice de contenidos:
• Spark SQL
• Introducción a las tecnologías Big Data • Spark MLlib
• HDFS • Spark Streaming
• Apache Spark • GraphFrames
• Arquitectura de Spark

Minería de Datos y Modelización Predictiva

A lo largo de este bloque, los alumnos adquirirán los conceptos necesarios para el desarrollo de la modelización
predictiva. Para ello, detectarán patrones basados en grandes volúmenes de datos a través de diversas técnicas de
data mining.

Los alumnos del Máster, aprenderán a través de este módulo las diversas técnicas de minería y modelos predictivos
básicos, y aplicaciones en credit scoring. Los resultados de su aplicación serán de gran utilidad en múltiples tareas
posteriores, de las cuales, se ofrece más información con ejemplos a continuación.

Gracias a los conocimientos adquiridos, los estudiantes podrán descubrir patrones en conjuntos de macrodatos,
transformando estos en estructuras que sean comprensibles para su posterior análisis y uso en alineación a los
objetivos empresariales o de otra índole que procedan.

Índice de contenidos:

• Depuración de datos y modelos de regresión.


Esta primera parte se centra en la preparación del conjunto de datos de cara a la modelización predictiva de tipo
supervisada y la presentación de los modelos clásicos de predicción para variables continuas mediante regresión
lineal y variable
dicotómica mediante regresión logística.
• Series temporales y modelos no supervisados.
En la segunda parte se abordan los métodos de estudio y predicción de series temporales univariantes clásicas como
introducción a los estudios temporales y las dos principales técnicas no supervisadas (no hay variable objetivo específica)
para reducción de dimensiones y segmentación de los datos.
• Modelos de puntuación de Riesgo de Crédito (Scoring de riesgo de crédito)
• GIS y Modelos predictivos con Datos Espaciales.
Machine Learning

El objetivo principal del módulo es enseñar a los estudiantes cómo diseñar, implementar y evaluar modelos de Machine
Learning que puedan aprender de los datos y hacer predicciones o tomar decisiones. Los alumnos aprenderán diversas
técnicas y aplicaciones de Machine Learning y modelización predictiva avanzada.

Estas técnicas de aprendizaje automático permiten a las máquinas ser capaces de asimilar una serie de
comportamientos generalizados para realizar diversas acciones que toman, como ejemplo de referencia, las pautas
indicadas previamente.
Aplicaciones actuales: detección de fraudes, el análisis de sentimientos, la clasificación de imágenes, reconocimiento
de voz e imagen, automatización, cuidado de la salud, entre otros.

Índice de contenidos:

Se estudiarán los conceptos básicos necesarios para entender e implementar métodos de Aprendizaje Automático o
Machine Learning y realizaremos un repaso general de las principales librerías usadas en el desarrollo de algoritmos
de Machine Learning.

Seguidamente, realizaremos la Ingesta de Datos, se explorarán distintos tipos y fuentes de datos. Además, se estudiarán
casos reales de obtención de datos y como convertirlos en DataFrames, y se aprenderá a emplear mecanismos de
organización, estructuración, análisis y visualización de los datos con ejemplos prácticos.

Continuamos con la fase de preprocesado, se estudiarán y aplicarán distintas técnicas de procesado de datos para
eliminar el ruido en ellos, mejorar su calidad, su capacidad representativa, o aumentar su cantidad y variedad. Entre
las técnicas que se tratarán se encuentra el filtrado, balanceo y una amplia variedad de métodos de aumento de datos.

Se aprenderán y practicarán las características generales y particulares del los modelos “Machine Learning”,
centrándose en los algoritmos supervisados de regresión y principales clasificadores (Naive Bayes, SVM, Random Forest
y Logistic Regression), así como los algoritmos no supervisados de clustering (PCA, K-Means), sus características y
aplicaciones a datos como iris, dígitos, textos, imágenes, etc.

Además, conoceremos diferentes herramientas que nos ayudarán en el día a día en nuestro trabajo como Data scientist
como: autoML(pycaret) para modelado, EDA (pandas profiling), explicabilidad (lime) para explicar lo que ha ocurrido
en el entrenamiento del modelo, mlflow para monitorizar métricas, h2o con cluster, feature engineering para trameo
de variables, Ensemble algoritmos de alto rendimiento, etc.

El programa no se detendrá únicamente en dar a conocer a los alumnos las características más comunes del aprendizaje
automático, sino que pondrá también en su mano las herramientas necesarias para poder desarrollar su propio proyecto
al respecto. A través de varios ejemplos prácticos, analizaremos cómo funciona la industria y cómo enfrentarnos a
diferentes casuísticas.
Deep Learning

El contenido de la sección de deep learning estará estructurado en cuatro bloques. Los conceptos más básicos son
los de los dos primeros bloques, mientras que los dos últimos estarán más orientados a la profundización.

Durante las clases se impartirá una componente práctica en cada bloque para familiarizar a los alumnos con la
aplicación directa.

Bloque 1: Redes Neuronales


En este bloque se pretende introducir el concepto de red, explicando su funcionamiento y permitiendo que el alumno
comprenda su funcionamiento a nivel teórico y práctico. Los contenidos de este bloque son los siguientes:

• Introducción: “from Representation Learning”.


• Forward and backward propagation.
• Descenso gradiente. Batches y online training.
• PRÁCTICA: Implementación de una red neuronal desde numpy.
• Tensores y Frameworks para deep learning: Keras (Tf). Pytorch.
• Funciones de activación, optimizadores y funciones de coste. Hiperparámetros en una red neuronal.

Bloque 2: Redes Convolucionales. Imágenes.


En este segundo bloque se presentará una de las estructuras más comunes en el mundo del deep learning: las redes
convolucionales.Seharáhincapiéensucapacidaddegenerarfeaturesparaelmodelodesdeestructurasdedatosnotabulados,
tales como imágenes.

• Extracción de características. Convoluciones.


• Pooling y padding. Efectividad de la activación Relu.
• Conexión con la capa densa (clasificador).
• Arquitecturas de red. Imagenet.
• PRÁCTICA: Se construirá un clasificador de imágenes sencillo usando keras.
• Introducción a Transfer Learning.

Bloque 3: Redes Recurrentes


Durante este bloque se presentará el enfoque de secuencias desde las redes neuronales, introduciendo ciertos mecanismos
de memoria. Se presentará también la idea de embedding y se introducirá el tratamiento de texto.

• Secuencias temporales. Timesteps.


• RNN vainilla.
• Práctica: Series temporales.
• Vanishing gradient. LSTM.
• Redes recurrentes sobre secuencias de palabras.
• PRÁCTICA: Generación de texto a nivel de carácter.

Bloque 4: Embeddings, Autoencoders y Redes Generativas


Durante este último bloque se profundizará un poco más en los resultados intermedios de las redes, introduciendo
el concepto de embedding y las posibilidades al tratar el espacio de features como vectorial. Se introducirán los
autoencoders y se presentará su variante variacional como red generativa.

• Reducción de dimensiones.
• Embeddings
• Word embeddings: word2vec, glove.
• Espacio Latente. Detección de anomalías
• Variational autoencoders
• PRÁCTICA: entrenamiento de un VAE para generación
• GAN
Redes Sociales y Big Data

El análisis de redes sociales busca representar relaciones entre distintas entidades para poder describir la estructura
de la red social o económica resultante. Esta forma de análisis nos permite estudiar múltiples conjuntos de datos que
no tienen cabida su análisis en el marco de una Dataframe.

Algunos ejemplos son el análisis de la información entre las páginas Web, en las Redes Sociales de personas (Facebook,
Instagram, Twitter, LinkedIn, TikTok…), en las Apps de comunicación (Whatsapp, Facebook Messenger, Skype…) y en
general cualquier entorno donde dispongamos de información relacional entre los usuarios que deseamos transformar
en conocimiento y valor de negocio (relaciones entre clientes, relación entre suministros, relación entre trabajadores,
relaciones entre publicaciones, relaciones entre países…)

Los principales análisis que se desarrollan se deben englobar en tres grandes grupos. En primer lugar, el análisis
estructural de la red, imprescindible para avanzar en el análisis, y punto de partida para predecir el comportamiento
futuro de las relaciones modeladas. En segundo lugar, el análisis de la centralidad o la importancia de los sujetos
de la Red, objetivo en sí de muchos análisis y dado inevitable para dar valor al negocio que está detrás de los datos
de la Red. Por último, la identificación de comunidades en la Red, herramienta esencial para explicar la dinámica de
comunicaciones en la Red y abordar situaciones como la identificación.

Text Mining

Desde el inicio de la Era de la Información, se ha producido un proceso de generación de datos, muchos de los
cuales se encuentran en formato no estructurado. Estos datos requieren de técnicas de análisis específicas para su
procesamiento.

En este bloque, los estudiantes adquirirán conocimientos fundamentales sobre Text Mining, una subárea de la ciencia
de datos que posibilita la transformación de los datos textuales no estructurados a un formato tabular para su análisis,
identificación de patrones o extracción de conocimiento.

En este módulo se expondrá la relevancia de las tecnologías del lenguaje para el análisis de información textual.
Se examinarán las distintas técnicas de análisis de textos existentes, los fundamentos del Procesado de Lenguaje
Natural (PLN) y las diversas maneras de representar los textos de forma numérica para su procesamiento por medio de
algoritmos de inteligencia artificial. Se abordarán temas como el preprocesamiento de textos (limpieza, transformación,
obtención de raíces, etc.), su exploración y su procesamiento con aprendizaje automático.

En el módulo se abordarán dos problemas clásicos de Text Mining. El primero de ellos es la clasificación de textos, que
permite la generación de modelos de aprendizaje automático capaces de asignar etiquetas a los textos. El segundo
es el Topic Modeling, una técnica utilizada para analizar el contenido de grandes volúmenes de documentos.

Además, se aplicarán técnicas de clasificación en un caso de estudio sobre la extracción de sentimientos de textos
provenientes de redes sociales. El Text Mining se encuentra en un momento de máximo desarrollo, en el que se han
desarrollado notables tecnologías como ChatGPT, construidas sobre arquitecturas de redes neuronales profundas.
En este módulo, también se presentarán las tecnologías que han facilitado el rápido desarrollo de la técnica como
son los modelos de lenguaje y las redes neuronales de tipo Transformers. En el desarrollo de este bloque se utilizará
el lenguaje Python y librerías como NLTK, Spacy, Gensim o Transformers.
Programación Scala

En este módulo estudiaremos Scala por su importancia en el ámbito del Big Data debido a su capacidad para manejar
grandes volúmenes de datos, procesamiento distribuido, programación funcional y concurrente, y por ser el lenguaje
de programación utilizado por Apache Spark.

Scala es un lenguaje de programación orientado a objetos que integra características de lenguaje funcional. Dentro
del mundo del Big Data se habla de Scala ya que Spark, que es una de las plataformas que se emplea para procesar

Visualización avanzada

El módulo de Visualización Avanzada es una parte fundamental en el análisis de datos en el mundo de Big Data.

La capacidad de visualizar datos de manera efectiva y clara es esencial para la toma de decisiones y para la comunicación
de resultados en un entorno empresarial.

Índice de Contenidos:

• En el módulo se abordarán los entornos Python, como los notebooks y los entornos virtuales, que son comunes en
el mundo de Big Data.
• También se introducirá el concepto de gráficos interactivos y se destacarán los beneficios de la interactividad en la
presentación de datos.
• Se exploran las herramientas Bokeh y Pygal y se presentan dashboards en Python utilizando Dash y Gleam.
• Se aprenderán las opciones de mapas en Python, incluyendo Geoplotlib y Leaflet / Folium, y también se trabajarán las
animaciones como una forma efectiva de presentar datos, así como la librería Plotly para gráficos interactivos.
Open Data

Tendencias en gobierno abierto, participación y transparencia se tratarán en este bloque. Del mismo modo, se
abordará las fuentes datos abiertos incluidas, las no gubernamentales (APIs) y fuentes de algoritmos abiertos de
última generación como puede ser Kaggle.

Los datos abiertos son aquellos que están a disposición pública, sin restricciones de uso ni necesidad de permisos.
Tampoco están sujetos a patentes de ningún tipo.

Se analizarán diversas fuentes de datos abiertos existentes en la actualidad, con un repaso a la tendencia creciente de permitir
el acceso libre a datos tradicionalmente restringidos al ámbito corporativo y gubernamental.

Aprender no únicamente a acceder a esos datos, sino también saber cómo tratarlos para sacar de ellos conclusiones
interesantes y factores de valor que estén alineados con nuestros intereses, será lo que realmente dote de utilidad a
este tipo de datos más allá del componente meramente informativo.

En cualquier caso, la apertura de los datos al gran público no está exenta de polémicas y posiciones encontradas.
Elementos a tener en cuenta son el posible uso de información personal sobre individuos específicos, ciertos datos
sensibles que puedan ser considerados una amenaza a la seguridad si se dan a conocer. Son parte de un debate que
genera interés y que transformará el mundo de los datos abiertos. Hay que monitorizar la evolución del dato abierto
para saber cómo se gestiona y regula.

Índice de Contenidos:

• Open data gubernamental. Con las tendencias en gobierno abierto, participación y transparencia.
Se expondrá el cambio que se está experimentando en muchas instituciones públicas que previamente restringían
el acceso a sus datos y actualmente, bajo la premisa de actuar bajo una mayor transparencia, facilitan parte de la
información de la cual disponen, tradicionalmente de uso interno, para su consulta pública.
• Otras fuentes de datos abiertos.
Identificando las principales fuentes, incluidas las no gubernamentales (APIs).
• Fuentes de algoritmos abiertos.
Los concursos, en especial Kaggle, son una fuente de acceso a algoritmos de última generación.
• Ejemplos de código reproducible.

Trabajo Fin de Máster

Para asentar el conocimiento adquirido, el alumno diseña una estrategia integral de inteligencia de datos para una
organización. En este ejercicio utiliza el mayor número de las técnicas, herramientas y softwares en los que ha sido
formado.
Equipo directivo

Máster Data Science &


Big Data & Business
Analytics

María Concepción García


Vicerrectora de Empleabilidad y Emprendimiento UCM
Departamento de Organización de Empresas y Marketing UCM.
Profesora del Dpto. de Organización de empresas.
Lic. en Ciencias Económicas y Empresariales.

Equipo docente del Máster

Contamos con verdaderos profesionales


del sector como profesores del Máster de
Big Data y Data Science.
José Carlos Soto Gómez Estos altos cargos en activo forman
a nuestros alumnos con contenido
Co-Director. Socio Fundador de NTIC Master y Aplimovil. Amplia actualizado, de calidad y demandado por
experiencia en proyectos nacionales e internacionales en IT y las instituciones actuales.
analítica en empresas como Banco de España, NEC, Telefónica,
Vodafone, Orange, medios de comunicación…

“Aprende con los mejores profesionales”


Equipo Docente

PROFESORES

Lorenzo Carlos José Javier


Escot Mangas Ortega Fernández Galán Hernández
Profesor Titular de la UCM Expert Data Scientist Responsable de Sistemas

Lorenzo es Doctor en Economía. Carlos es Lic. en Físicas y trabaja José Javier es Ingeniero Informático
Experiencia de más de 20 años como como Senior Data Scientist en The y trabaja como Responsable de
docente y Codirector del Grupo de Adecco Group. Tiene una dilatada Sistemas CED. Además es profesor
Investigación Análisis Económico experiencia en el sector con asociado UCM. Ha trabajado en
de la Diversidad. Experto en análisis aplicaciones avanzadas basadas proyectos de sistemas en El Corte
de Datos en Economía Aplicada, en datos y Machine Learning en Inglés, Comel entre otros
Econometría Aplicada y Análisis de múltiples sectores
datos Espaciales

Alberto Pedro José Ángel


Rubio Martínez Concejero-Cerezo Carballo Sánchez
Architecture Manager - Cloud Project Manager at Telefónica Data Scientist/ IA engineer at
Migration Services en Vodafone Investigación y Desarrollo Telefónica

Alberto es ingeniero informático. Experto en la aplicación de José Ángel es ingeniero de


Especialista en Cloud & Big Data tecnologías Big Data, Machine Telecomunicaciones. Experto
Technologies. Con experiencia Learning y Deep Learning en la en NLP e IA. Trabaja como Data
laboral en empresas Minsait, Beeva, resolución de problemas de negocio Scientist & Artificial Intelligence
Keepler, etc. Engineer en Telefónica y ha
trabajado Thinl Big Analytics, LLC y
proyectos Data Science en Bankia y
Vodafone
Equipo Docente

PROFESORES

Juan Carlos Luis Garmendia Guillermo


Profesor Titular de la UCM
Fernández Villarino Martínez
Chief Technology Officer Doctor en Data Science
Mirai Advisory
Luis Lic. en matemáticas con
Doctorado en Data Science por
especialidad en ciencias de la
Juan Carlos es ingeniero de la UCM. Sus principales líneas de
computación. Departamento
telecomunicaciones. Experto Data & investigación están centradas en
de Ingeniería del Software e
Analytics Engineer, Business Analysis, modelos de Machine Learning y
Inteligencia Artificial (DISIA) UCM.
Business Intelligence, and Big Data. tratamiento de la información para la
Miembro del EUSFLAT – European
Ha trabajado como data scientist en toma de decisiones en el ámbito de la
Society for Fuzzy Logic and
Vodafone, Neoris, entre otras Clasificación Supervisada
Technology. Miembro del Grupo de
Soft Computing de la facultad de
Informática de la UCM

Santiago Javier Álvaro


Mota Herce Domínguez Gómez Bravo Acosta
Corporate Advisor Cryptographer & Cybersecurity Ingeniero Técnico Informático
Engineer en Sistemas
Santiago es senior data scientist
y consultor freelance en Business Javier es Ingeniero informático con Experto en Tecnologías Big Data,
Intelligence, Machine Learning certificaciones en CISSp, Cisco, entre BI y Analítica. Gran experiencia en
y estrategia TI. Ha asesorado a otras. Experto en ciberseguridad y consultoras como Minsait, Sopra
empresas como Repsol, Orange, data science. Desarrolla su carrera Steria, Everis o NTT, para externos
Bankia, Vodafone, Teradata o The como Cybersecurity Engineer | D&R como ISBAN y BBVA. Actualmente,
Boston Consulting Group para BBVA DevOps en equipo de producto
Frameworks en Strato
Equipo Docente

PROFESORES

Adolfo Pablo J. Charles


Hernández Estrada Villacorta Flores Espinoza
Profesor Titular de la UCM Científico de datos en Santalucía Big Data Engineer en
Seguros Mercedes-Benz AG
Adolfo es Licenciado y Doctor en
Ciencias Matemáticas. Pablo es Doctor en Ciencias de Charles es Ingeniero informático.
Director del Departamento de la Computación e IA, Ingeniero Experto Data Engineer & Data
Economía Financiera y Actuarial informático y licenciado en Architect, Scala, ML. Gran experiencia
y Estadística. Director del grupo Estadística por la Univ. de Granada. en el sector en empresas como
MECOCISO. Experto en economía y Desarrollador Certificado en Spark StratioBD, Oliver Wyman, Vass, Bayes
actuariales 2.x por Databricks y autor de varios
paquetes de R publicados
en CRAN

Pedro Pablo Eduardo Fernández Luis


Malagón Amor Carrión Gascó Sánchez
Principal Architect en Google Data scientist, PhD. NLP Research Engineer

Pedro Pablo es ingeniero de sistemas. Eduardo es ingeniero informático Graduado en ingeniería de


Experto en Big Data, Data science, y doctor en métodos estadísticos telecomunicaciones y Doctor por la
data engineer. Tiene una gran matemáticos para el tratamiento UPM con experiencia internacional
experiencia profesional de más de computacional de la información. en instituciones de I+D+i. Experto
23 años en Microsoft como principal Data Scientist & ML Engineer en data sciencist analizando datos de
architect y actualmente en Google Santalucia seguros. Experto data entornos urbanos aplicando técnicas
sciencist habiendo desarrollado su de Machine Learning,
carrera profesional en StratioBD, estadística y NLP
Visavet, Everis, etc.
Equipo Docente

PROFESORES

Alberto Javier Manuel


Ezpondaburu Castro Cantalejo Álvarez Sáez
NLP Specialist
Docente UCM Consultor Tecnológico
Alberto es ingeniero de
Además de docente, Javier es Profesional con 30 años de
telecomunicaciones, matemático
participante habitual en grupos de experiencia en áreas de negocio
y trabaja de natural language
investigación. En el Máster de Big de aplicaciones en empresas
processing engineer en Lang.ai. Es
Data y Data Science de la UCM, es tecnológicas para Gestión
experto en NLP y en la aplicación de
uno de los profesores en el módulo Comercial-ERP-CRM, redes
técnicas de inteligencia artificial en
de Text Mining y Redes Sociales sociales y Comercio Electrónico.
diversas ramas
Ha trabajado en empresas
desarrolladoras de software como
Oracle, Meta4 o Sage

Armando Ana Lucía José Carlos


Heras Sandoval Sánchez
Chief Digital Officer Docente UCM Analytics engineer

Armando es Licenciado en Doctora en Ingeniería Informática por José Carlos es Graduado en


Economía por CUNEF. Experto en la UCM. Investigadora y experta en la ingeniería química. Experto Data
finanzas, auditorías y financiación, teoría de la codificación, la seguridad analyst and Business intelligence.
especialmente en ecosistemas de la información y sus aplicaciones Trabaja en SDG Group como senior
emprendedores a través de la qualified analytics engineer y ha
inversión, creación de empresas y trabajado como analytics engineer
desarrollo de proyectos para Accenture, Pagantis y otras
empresas del sector
Equipo Docente

PROFESORES

Francisco José LLuna Luis Felipe María José


Taverner LLave Rodriguez Gómez Silva
Docente UCM Business Intelligent Big Data Engineer en
Docente UCM
Francisco José es docente en la Luis Felipe es graduaduado y
UCM y experto en Análisis de Datos Doctor en Economía. Trabaja como María José es es docente en la
e Inferencia y Estadística Aplicada, Head of Consumer Lines Account UCM y Doctora en Ingeniería
así como en Técnicas Estadísticas Management & Business Intelligence. Eléctrica, Electrónica y Automática
Multivariables Spain & Portugal y ha trabajado en e Ingeniera Técnica Industrial.
The Boston Consulting Group, Qíndice Experta en machine learning e
entre otras Ingeniería Eléctrica, Electrónica y
Automática

Olga Paulo
Marroquín Alonso Villegas
Docente UCM AI Prototyping at Telefónica CDO

Olga es docente en la Universidad Paulo es Ingeniero de


Complutense de Madrid y Doctora Telecomunicaciones. Es experto
por la UCM. Experta en sistemas en machine learning e inteligencia
informáticos y computación artificial. Tiene experiencia
profesional como AI Prototyping en
Telefónica
Organización

COORDINADORES

Cristóbal David
Martínez Martínez del Ser
Coordinador Máster. Coordinador Máster.

Cristóbal es Ingeniero informático. David es Lic. en Marketing por


Director de IT en Aplimovil y Ntic ESIC, Honours Degree in Business
Master. Profesor máster marketing Administration por Humberside
digital de la UCM, UNED, Cámara University, MBA por UNED, Máster
de Comercio y CEEIC. Experto en Dirección Financiera, Máster
sistemas y procesos informáticos. Marketing Digital, Máster en Big
Gran experiencia profesional Data. Especialista en el desarrollo
trabajando en empresas referentes de negocio y transformación digital
como NEC, BNP Paribas , Banco de en Ntic Master. Gran experiencia
España, Vodafone. profesional trabajando en Grupo
Iberostar, Grupo Avintia, entre otras.
Información

GENERAL

La importancia del Big Data


Actualmente es prioritario que empresas y organizaciones implementen técnicas de Big Data, Data Science, Business
Analytics e Inteligencia Artificial que les permitan procesar, explotar y analizar los datos con el objetivo de extraer
información valiosa que utilicen en la mejora de decisiones y optimización de procesos empresariales. Lo que hace
unos años comenzó siendo una ventaja competitiva de unos pocos, ahora está muy presente y, es completamente
imprescindible para no quedarse atrás.

El conocimiento de las técnicas habilita para su implementación en cualquier sector y área de negocio, y por ello las
aplicaciones son múltiples: análisis de clientes, preferencias, hábitos de consumo, necesidades y comportamientos;
análisis de riesgos y fraudes en el sector financiero y en otros sectores; optimización de procesos en logística y
distribución para mejorar la eficiencia y reducir los costos; predicción y planificación para anticiparse y determinar
tendencias y comportamientos futuros, análisis de redes sociales para entender mejor a los clientes, sus opiniones y
comportamientos y elaborar adecuadamente la estrategia de marketing y comunicación; análisis sobre la salud para
identificar patrones y tendencias, mejorar la calidad de la atención médica y la eficiencia de los servicios de salud.

Salidas profesionales

• Data Analyst
• Auditor de sistemas de datos masivos
• Arquitecto de Business Intelligence
• Desarrollador de datos a gran escala
• eComerce Data Analyst
• Digital Transformation for Companies
• Data Steward
• Data Artist
• Chief Data Officer (CDO)
• Data Scientist
1. Preinscripción
Envía tu solicitud para iniciar el proceso

2. Entrevista
Se deberá realizar una entrevista con el
coordinador del máster.

3. Pre-admisión
Confirmación de tu candidatura como
alumno del máster.

4. Plazas limitadas
Realización de un pago inicial.

Información

DE PRE-ADMISIÓN
1. Preinscribirse cumplimentando el formulario ubicado en la pestaña “Preinscripción” de la web.
2. Enviar la documentación requerida a fin de evaluar la candidatura.
3. Entrevista con el solicitante.
4. Confirmación de selección.
5. Realización de un pago inicial.

Tanto la preinscripción como la preadmisión quedan abiertas hasta comenzar el curso académico o completar plazas,
estableciéndose lista de espera si procede. Los admitidos deberán ingresar 600 euros en concepto de pago inicial para
el máster presencial y 500 euros en concepto de pago inicial para el máster online. Estas cantidades serán descontadas
del importe total de la matrícula. En ningún caso se tendrá derecho a devolución de este importe, a excepción de que
no se llegara a celebrar el curso.

Documentación requerida
• Currículum Vitae.
• DNI/pasaporte.
• Título universitario o resguardo de solicitud de título.
• Certificado oficial de notas.

Alumnos con titulación fuera de España


Alumnos de la Unión Europea (estudiante comunitario):

• Currículum Vitae.
• Pasaporte/NIE (no válidas las cédulas de identificación de fuera de España)
• Título universitario (no es valido el certificado del título)
• Certificado oficial de notas.

Alumnos de fuera de Unión Europea (estudiante extra-comunitario):

• Currículum Vitae.
• Pasaporte/NIE (no válidas las cédulas de identificación de fuera de España)
• Título universitario con apostilla de la Haya (no es valido el certificado del título
• Certificado oficial de notas con apostilla de la Haya.

*La documentación debe estar traducida al castellano por un traductor jurado homologado.
Una vez finalizados y superados
estos estudios, la Universidad
Complutense de Madrid emitirá el
título, conforme a las normas de
admisión y matriculación de los
títulos de Formación Permanente
de la UCM

Información General

PRESENCIAL

Horarios y Fechas Lugar y Créditos Precio


Inicio: Febrero de 2024 Lugar: Precio: 6.600€ + 40€ de tasas
Fin: Febrero de 2024 • Facultad de Comercio y Turismo. de secretaría.
• Facultad de Ciencias de
Viernes: De 16:00 a 21:00 h la Documentación. Pregunta por nuestras becas,
Sábados: De 09:00 a 14:00 h facilidades de pago, prácticas en
Créditos: 60 ECTS empresas y bolsa de trabajo.

Procedimiento evaluación Materiales e instalaciones


La evaluación de los alumnos se realizará a lo largo Los alumnos contarán con acceso a una plataforma
de todo el programa a través de ejercicios y casos virtual en la que se encontrará disponible toda la
prácticos. información y documentación relativa al Máster.

A la finalización del programa, deberán presentar un Las clase se impartirán en aulas de la Universidad
Trabajo de Fin de Máster (TFM). Complutense de Madrid, tanto en la Facultad de
Comercio y Turismo, como en la Facultad de Ciencias
de la Documentación.
Una vez finalizados y superados
estos estudios, la Universidad
Complutense de Madrid emitirá el
título, conforme a las normas de
admisión y matriculación de los
títulos de Formación Permanente
de la UCM

Información General

ON-LINE

Horarios y Fechas Créditos Precio


Inicio: Febrero de 2024 Créditos: 60 ECTS Precio: 4.500€ + 40€ de tasas
Fin: Febrero de 2024 de secretaría.

Metodología 100% On-line


La formación se realizará de forma tutorizada por los profesores. Se utilizará una plataforma de formación virtual para
la comunicación entre los alumnos y profesores, creando una comunidad virtual de trabajo. Los distintos profesores
de cada módulo, guiarán a los alumnos proponiendo actividades adicionales dependiendo del temario que se esté
cubriendo en cada momento.

Características plataforma On-line


La plataforma actuará como vía de comunicación entre La plataforma cuenta con:
el alumno y el entorno global de formación.
• Mensajería individualizada para cada alumno
El estudiante tendrá información actualizada sobre los integrada en la plataforma
conceptos que se estén estudiando en cada momento,
• Vídeos
como enlaces a contenidos adicionales incluyendo
noticias, artículos, etc. • Videotutorías
• Documentación
Los alumnos deberán realizar y aprobar todas las
prácticas de los distintos módulos, y realizar el trabajo • Comunicación con los profesores vía mensajería,
fin de Máster para poder aprobar el Máster.
foro y chat
Una vez finalizados y superados
estos estudios, la Universidad
Complutense de Madrid emitirá el
título, conforme a las normas de
admisión y matriculación de los
títulos de Formación Permanente
de la UCM

Información General

SEMIPRESENCIAL

Horarios y Fechas Lugar y Créditos Precio


Inicio: Febrero de 2024 Online con presencialidad de 3 Precio: 5.500€ + 40€ de tasas
Fin: Febrero de 2024 semanas de secretaría.
Créditos: 60 ECTS

Metodología Semipresencial

La formación se realizará de forma tutorizada por los profesores. Se utilizará una plataforma de formación virtual
para la comunicación entre los alumnos y profesores, creando una comunidad virtual de trabajo. Los distintos pro-
fesores de cada módulo, guiarán a los alumnos proponiendo actividades adicionales dependiendo del temario que
se esté cubriendo en cada momento. La modalidad semipresencial contempla la realización de 3 semanas presen-
ciales con master class impartidas por diferentes expertos para preparar los TFM y hacer networking.

Características plataforma On-line


La plataforma actuará como vía de comunicación entre La plataforma cuenta con:
el alumno y el entorno global de formación. • Mensajería individualizada para cada alumno
El estudiante tendrá información actualizada sobre los integrada en la plataforma
conceptos que se estén estudiando en cada momento, • Vídeos
como enlaces a contenidos adicionales incluyendo
noticias, artículos, etc. • Videotutorías
• Documentación
Los alumnos deberán realizar y aprobar todas las
prácticas de los distintos módulos, y realizar el trabajo • Comunicación con los profesores vía mensajería,
fin de Máster para poder aprobar el Máster. foro y chat
Una vez finalizado y superado el Máster Data Science & Big Data & Business Analytics, la UCM otorga un título Máster
de Formación Permanente, que se rige por las normas de admisión y matriculación de esta Universidad.

Abierto plazo de preinscripción | PLAZAS LIMITADAS

CONTACTO

Teléfono E-mail Sitio Web


+34 687 30 04 04 [email protected] https://www.masterdatascienceucm.com/

La dirección del Máster se reserva el derecho de modificar, suprimir y actualizar los profesores, la información y el programa del Máster

También podría gustarte