0% encontró este documento útil (0 votos)
5 vistas24 páginas

Tools For The Data Science - Week 3

Tools for the Data Science - Week 3
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
5 vistas24 páginas

Tools For The Data Science - Week 3

Tools for the Data Science - Week 3
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 24

Herramientas para la Ciencia de Datos

IBM

Bibliotecas, API, Conjuntos de Datos y Modelos [Semana 3]

En este módulo, conocerá las distintas bibliotecas de la ciencia de datos. Además, comprenderá una API en relación
con la solicitud y la respuesta REST. Además, en el módulo, explorará conjuntos de datos abiertos en el Data Asset
eXchange. Por último, aprenderá a utilizar un modelo de aprendizaje automático para resolver un problema y a
navegar por el Model Asset eXchange.
Objetivos de aprendizaje
▪ Enumere las tareas que debe realizar un científico de datos para construir un modelo.
▪ Enumere las distintas bibliotecas: científica, de visualización, de aprendizaje automático y de aprendizaje
profundo.
▪ Defina la API REST en relación con la solicitud y la respuesta.
▪ Describa los conjuntos de datos y las fuentes de datos.
▪ Explore los conjuntos de datos abiertos en el Data Asset eXchange.
▪ Describa cómo utilizar un modelo de aprendizaje para resolver un problema.
▪ Navegue por el Model Asset eXchange de IBM Research.
1. Bibliotecas, API, Conjuntos de Datos y Modelos
1.1. Bibliotecas para la ciencia de datos
[Video * 5 Minutos]
En este video, vamos a revisar varias bibliotecas de ciencias de datos.
What you will learn
▪ Las bibliotecas son una colección de funciones y métodos que le permiten realizar una amplia
variedad de acciones sin escribir el código usted mismo.
▪ Nos centraremos en las bibliotecas de Python: Bibliotecas de Computación Científica en Bibliotecas
de Visualización de Python en Python Alto Nivel Machine Learning y Bibliotecas de Deep Learning:
Introducción
▪ «Alto Nivel» simplemente significa que no tiene que preocuparse por los detalles, aunque esto hace
que sea difícil estudiar o mejorar Deep Bibliotecas de aprendizaje en Python Libraries usadas en
otros idiomas.
▪ Las bibliotecas generalmente contienen módulos integrados que proporcionan diferentes
funcionalidades que puede usar directamente; a veces se llaman «frameworks».
▪ También hay extensas bibliotecas que ofrecen una amplia gama de instalaciones.
Scientifics Computing Libraries in Python
Pandas ofrece estructuras de datos y herramientas para una limpieza, manipulación y análisis eficaces de
datos. Proporciona herramientas para trabajar con diferentes tipos de datos. El instrumento principal de
Pandas es una tabla bidimensional que consta de columnas y filas. Esta tabla se denomina «DataFrame» y
está diseñada para proporcionar una indexación fácil para que pueda trabajar con sus datos. Las bibliotecas
NumPy se basan en matrices, lo que le permite aplicar funciones matemáticas a estas matrices.

Pandas se construye en realidad sobre los métodos de visualización de datos NumPy son una gran manera
de comunicarse con otros y mostrar los resultados significativos del análisis. Estas bibliotecas le permiten
crear gráficos, gráficos y mapas.

El paquete Matplotlib es la biblioteca más conocida para la visualización de datos, y es excelente para hacer
gráficos y gráficos. Los gráficos también son altamente personalizables. Otra biblioteca de visualización de
alto nivel, Seaborn, se basa en matplotlib. Seaborn facilita la generación de parcelas como mapas de calor,
series de tiempo y parcelas de violín. Para el aprendizaje automático, la biblioteca Scikit-Learn contiene
herramientas para el modelado estadístico, incluyendo regresión, clasificación, clustering y otros.

Machine Learning and Deep Learning Libraries in Python


Está construido en NumPy, SciPy y matplotlib, y es relativamente simple comenzar. Para este enfoque de alto
nivel, defina el modelo y especifique los tipos de parámetros que desea utilizar. Para el aprendizaje profundo,
Keras le permite construir el modelo estándar de aprendizaje profundo. Al igual que Scikit-learn, la interfaz
de alto nivel le permite construir modelos de forma rápida y sencilla.
Puede funcionar utilizando unidades de procesamiento de gráficos (GPU), pero para muchos casos de
aprendizaje profundo se requiere un entorno de nivel inferior. TensorFlow es un marco de bajo nivel utilizado
en la producción a gran escala de modelos de aprendizaje profundo. Está diseñado para la producción, pero
puede ser difícil de manejar para la experimentación. Pytorch se utiliza para la experimentación, lo que
facilita a los investigadores probar sus ideas Apache Spark es un marco de computación de clústeres de
propósito general que le permite procesar datos utilizando clústeres informáticos. Esto significa que procesa
los datos en paralelo, utilizando varios equipos simultáneamente.

Apache Spark
La biblioteca Spark tiene una funcionalidad similar a Pandas Numpy Scikit-Learn Apache Spark trabajos de
procesamiento de datos pueden usar Python R Scala, o SQL Hay muchas bibliotecas para Scala, que se
utiliza predominantemente en ingeniería de datos, pero también a veces se usa en ciencia de datos.

Vamos a discutir algunas de las bibliotecas que son complementarias a Spark Vegas es una biblioteca de
Scala para visualizaciones de datos estadísticos.
Scala Libraries
Con Vegas, puede trabajar con archivos de datos, así como con Spark DataFrames.
Para el aprendizaje profundo, puede usar BigDL.

R Libraries
R tiene funcionalidad incorporada para el aprendizaje automático y la visualización de datos, pero también
hay varias bibliotecas complementarias: ggplot2 es una biblioteca popular para la visualización de datos en
R. También puede usar bibliotecas que le permiten interactuar con Keras y TensorFlow. R ha sido el estándar
de facto para la ciencia de datos de código abierto, pero ahora está siendo reemplazado por Python.

1.2. Interfaces de programación de aplicaciones (API)


[Video * 4 Minutos]
Bienvenido a «Interfaces de programas de aplicaciones (API)». Tras ver este vídeo, podrá:
WHAT YOU WILL LEARN
Definir una API
Enumerar las bibliotecas de API
Definir la API REST en relación con la solicitud y la respuesta.
WHAT IS AN API?
Una interfaz de programación de aplicaciones (API) permite la comunicación entre dos piezas de software.
Por ejemplo, en un programa, hay algunos datos y otros componentes de software. Usas la API para
comunicarte mediante entradas y salidas sin saber qué ocurre en el backend. La API solo hace referencia a la
interfaz.

Es la parte de la biblioteca que se ve cuando contiene todos los componentes del programa.
API LIBRARY
Para entender mejor cómo funciona una API en una biblioteca, consideremos un ejemplo de la biblioteca
Pandas. Pandas es un conjunto de componentes de software en el que no todos los componentes están
escritos en Python. En su programa, hay algunos datos y un conjunto de componentes de software. Puedes
usar la API de Pandas para procesar los datos comunicándote con los demás componentes del software. El
componente de software del back-end puede ser el mismo, pero puede haber una API para diferentes
idiomas.

OTHER LANGUAGES API


Pensemos en TensorFlow en el backend, escrito en C++ y que puede usar API para otros lenguajes, como
Python, JavaScript, C++ , Java y Go. Por lo tanto, la API es solo la interfaz.

MORE LANGUAGES API


Otras API desarrolladas por voluntarios para TensorFlow son Julia, Matlab, R Scala y muchas más.

REST APIs
Por lo tanto, las API REST son otro tipo de API popular. RE son las siglas de Representational. La S significa
Estado. La T significa Transferencia. Permiten comunicarse a través de Internet y aprovechar recursos como
el almacenamiento, los datos, los algoritmos de inteligencia artificial y mucho más.

WORKING OF REST APIs


En Rest API, tu programa es el cliente. La API se comunica con un servicio web al que puedes llamar a través
de Internet. Sin embargo, existen reglas sobre la comunicación, la entrada o solicitud y la salida o respuesta.

COMMON TERMS
Por lo tanto, veamos algunos términos comunes que se utilizan con respecto a la API. Tú o tu código son el
cliente. El servicio web es el recurso. Y el cliente encuentra el servicio a través de un punto final. El cliente
envía solicitudes al recurso y recibe una respuesta del recurso.

HTTP
Los datos se transmiten a través de Internet mediante métodos HTTP. Las API Rest obtienen toda la
información de la solicitud enviada por el cliente. La solicitud se envía mediante un mensaje HTTP que
contiene un archivo JSON. El archivo contiene instrucciones sobre la operación que debe realizar el servicio
web.
Esta operación se transmite al servicio web a través de Internet. Y el servicio realiza la operación. Del mismo
modo, el servicio web devuelve una respuesta a través de un mensaje HTTP, donde la información se
devuelve mediante un archivo JSON. Y esta información se transmite de vuelta al cliente.

WATSON TEXT TO SPEECH API


Ahora, otro ejemplo de una API REST es la API Watson Text to Speech. Esta API convierte la voz en texto.

En la llamada a la API, enviarás una copia del archivo de audio a la API; esto se denomina solicitud posterior.
A continuación, la API enviará la transcripción textual de lo que diga la persona. En el backend, la API realiza
una solicitud Get.

WATSON LANGUAGE-TRANSLADOR API


Por último, veamos otro ejemplo, la API del traductor de idiomas de Watson. Envía el texto que desea traducir
a la API de traducción de idiomas de Watson. La API traducirá el texto y le devolverá la traducción. En este
caso, la API traduce del inglés al español.
En este vídeo, aprendió que una interfaz de programación de aplicaciones (API) permite la comunicación
entre dos piezas de software. Una API es la parte de la biblioteca que se ve mientras que la biblioteca
contiene todos los componentes del programa. Además, las API REST te permiten comunicarte a través de
Internet y aprovechar recursos como el almacenamiento, los datos, los algoritmos de inteligencia artificial y
mucho más.
1.3. Conjuntos de datos - Impulsar la ciencia de datos
[Video * 5 Minutos]
WHAT YOU WILL LEARN
Bienvenido a «Conjuntos de datos: potenciando la ciencia de datos». Tras ver este vídeo, podrá:
- Definir un conjunto de datos.
- Describir los tipos de propiedad de los datos.
- Enumerar las fuentes de datos.
- Describir el acuerdo de licencia de datos comunitarios.

WHAT’S A DATA SET?


- Primero definamos qué es un conjunto de datos. Un conjunto de datos es una colección estructurada de
datos. Los datos incluyen información representada como texto, números o medios, como archivos de
imágenes, audio o vídeo.
- Un conjunto de datos tabulares comprende una colección de filas que contienen columnas que
almacenan la información. Un formato de datos tabulares popular es el de «valores separados por
comas» o CSV. Un archivo CSV es un archivo de texto delimitado en el que cada línea representa una fila
y una coma separa los valores de los datos. Por ejemplo, imagine un conjunto de datos de observaciones
de una estación meteorológica. Cada fila representa una observación en un momento dado, mientras
que cada columna contiene información sobre esa observación, como la temperatura, la humedad y
otras condiciones meteorológicas.

- Las estructuras de datos jerárquicas o de red se utilizan normalmente para representar las relaciones
entre los datos. Los datos jerárquicos se organizan en un formato similar a un árbol, mientras que los
datos de red se almacenan como un gráfico. Por ejemplo, las conexiones entre las personas en un sitio
web de redes sociales suelen representarse como un gráfico.

- Un conjunto de datos también puede incluir archivos de datos sin procesar, como imágenes o audio. El
conjunto de datos modificado del Instituto Nacional de Estándares y Tecnología (MNIST) es popular para
la ciencia de datos. Contiene imágenes de dígitos manuscritos y se suele utilizar para entrenar sistemas
de procesamiento de imágenes.
DATA OWNERSHIP
- Tradicionalmente, la mayoría de los conjuntos de datos eran privados porque contenían información
privada o confidencial, como datos de clientes, datos de precios u otra información confidencial desde
el punto de vista comercial. Por lo general, estos conjuntos de datos no se comparten públicamente.
- Con el tiempo, muchas entidades públicas y privadas, como instituciones científicas, gobiernos,
organizaciones e incluso empresas, han empezado a poner los conjuntos de datos a disposición del
público como «datos abiertos», lo que proporciona información gratuita. Por ejemplo, las Naciones
Unidas y los gobiernos federales y municipales de todo el mundo han publicado muchos conjuntos de
datos en sus sitios web, que abarcan la economía, la sociedad, la sanidad, el transporte, el medio
ambiente y mucho más. El acceso a estos y otros conjuntos de datos abiertos permite a los científicos
de datos, investigadores, analistas y otras personas descubrir información previamente desconocida y
potencialmente valiosa. Se utilizan para crear nuevas aplicaciones con fines comerciales y de interés
público. También se utilizan para llevar a cabo más investigaciones. Los datos abiertos han
desempeñado un papel importante en el crecimiento de la ciencia de datos, el aprendizaje automático y
la inteligencia artificial. Ha permitido a los profesionales perfeccionar sus habilidades en varios
conjuntos de datos.

WHERE TO FIND OPEN DATA


Hay muchas fuentes de datos abiertas en Internet.
− Puede encontrar una lista completa de los portales de datos disponibles en todo el mundo en el sitio
web datacatalogs.org de la Open Knowledge Foundation.
https://datacatalogs.org/
− Las Naciones Unidas, la Unión Europea y muchas otras organizaciones gubernamentales e
intergubernamentales mantienen repositorios de datos que proporcionan acceso a una amplia
gama de información.
https://data.un.org/ (United Nations)
https://www.data.gov/ (USA)
https://www.europeandataportal.eu/en/ (Europe
− En Kaggle, una popular comunidad en línea sobre ciencia de datos, puedes encontrar (y aportar)
conjuntos de datos que podrían ser de interés general. Google ofrece un motor de búsqueda que
puede ayudarte a encontrar conjuntos de datos que podrían serte útiles.
https://www.kaggle.com/data_sets
COMMUNITY DATA LICENCE AGREEMENT
La distribución y el uso de los datos abiertos pueden estar restringidos, según lo definen algunos términos de
licencia. Sin una licencia para la distribución de datos abiertos, muchos conjuntos de datos se compartían
en el pasado bajo licencias de software de código abierto. Estas licencias no se diseñaron para cubrir
consideraciones específicas relacionadas con la distribución y el uso de conjuntos de datos. Para solucionar
este problema, la Fundación Linux creó el Acuerdo de licencia de datos comunitarios ( CDLA).
https://cdla.io
Inicialmente, se crearon dos licencias para compartir datos:
CDLA-Sharing y CDLA-Permissive.
− La licencia de uso compartido de CDLA le otorga permiso para usar y modificar los datos. La licencia
estipula que si publica su versión modificada de los datos, debe hacerlo bajo los mismos términos
de licencia que los datos originales.
− La licencia permisiva de la CDLA también le otorga permiso para usar y modificar los datos. Sin
embargo, no está obligado a compartir los cambios en los datos.
Tenga en cuenta que ninguna de las dos licencias impone ninguna restricción a los resultados que pueda
obtener al utilizar los datos, lo cual es importante en la ciencia de datos. Supongamos, por ejemplo, que está
creando un modelo que realiza una predicción. Si está entrenando el modelo con conjuntos de datos con
licencia CDLA, no tiene la obligación de compartir el modelo ni de compartirlo bajo una licencia específica si
decide compartirlo.
RECAP
En este vídeo, descubrirá que los datos abiertos son fundamentales para la ciencia de datos. El acuerdo de
licencia de datos comunitarios facilita el intercambio de datos abiertos, y es posible que los conjuntos de
datos abiertos no cumplan con los requisitos empresariales debido al impacto que podrían tener en la
empresa.
1.4. Fuentes adicionales de conjuntos de datos
[…]
Lectura: fuentes adicionales de conjuntos de datos
Tiempo estimado: 5 minutos
En esta lectura, aprenderá sobre:
− Conjuntos de datos y fuentes abiertos
− Conjuntos de datos y fuentes propietarios
− Licencia de conjunto de datos
Conjuntos de datos y fuentes abiertos
En este mundo basado en datos, algunos conjuntos de datos están disponibles gratuitamente para que
cualquiera pueda acceder, utilizar, modificar y compartir. Estos se denominan conjuntos de datos abiertos.
Los conjuntos de datos abiertos incluyen una licencia pública y son muy útiles para tu trayectoria como
científico de datos. Algunas de las fuentes de conjuntos de datos abiertos más informativas se enumeran a
continuación.
Datos gubernamentales:
− https://www.data.gov/
− https://www.census.gov/data.html
− https://data.gov.uk/
− https://www.opendatanetwork.com/
− https://data.un.org/
Fuentes de datos financieros:
− https://data.worldbank.org/
− https://www.globalfinancialdata.com/
− https://comtrade.un.org/
− https://www.nber.org/
− https://fred.stlouisfed.org/
Datos sobre delitos:
− https://www.fbi.gov/services/cjis/ucr
− https://www.icpsr.umich.edu/icpsrweb/content/NACJD/index.html
− https://www.drugabuse.gov/related-topics/trends-statistics
− https://www.unodc.org/unodc/en/data-and-analysis/
Datos de salud:
− https://www.who.int/gho/database/en/
− https://www.fda.gov/Food/default.htm
− https://seer.cancer.gov/faststats/selections.php?series=cancer
− https://www.opensciencedatacloud.org/
− https://pds.nasa.gov/
− https://earthdata.nasa.gov/
− https://www.sgim.org/communities/research/dataset-compendium/public-datasets-topic-grid
Datos Académicos y Empresariales:
− https://scholar.google.com/
− https://nces.ed.gov/
− https://www.glassdoor.com/research/
− https://www.yelp.com/dataset
Otros datos generales:
− https://www.kaggle.com/datasets
− https://www.reddit.com/r/datasets/
Conjuntos de datos y fuentes de propiedad
Los conjuntos de datos propietarios contienen datos que pertenecen y están controlados principalmente por
personas u organizaciones específicas. Esta información tiene una distribución limitada porque se vende
con un acuerdo de licencia.
Algunos datos de fuentes privadas no pueden divulgarse fácilmente, como los datos públicos.
Los datos de seguridad nacional, geológicos, geofísicos y biológicos son ejemplos de datos de propiedad.
Las leyes de derechos de autor o las patentes suelen vincular este tipo de datos. Los conjuntos de datos
propietarios que contienen principalmente información confidencial están menos disponibles que los
conjuntos de datos abiertos.
A continuación se enumeran algunas fuentes de conjuntos de datos de propiedad estándar.
Cuidado de la salud:
https://www.sgim.org/communities/research/dataset-compendium/proprietary-datasets
Datos del mercado financiero:
https://datarade.ai/data-categories/proprietary-market-data
Conjuntos de datos basados en Google Cloud:
https://cloud.google.com/datasets
Licencias de conjuntos de datos
Cuando selecciona un conjunto de datos, es necesario consultar la licencia. Una licencia explica si puede
utilizar ese conjunto de datos o no; o explica si tiene que aceptar ciertas pautas para utilizar ese conjunto de
datos. Los diferentes tipos de licencia se enumeran a continuación.
× MARCA DE DOMINIO PÚBLICO - DOMINIO PÚBLICO
Cuando un conjunto de datos tiene una licencia de Dominio Público, todos los derechos para usar,
acceder, modificar y compartir el conjunto de datos están abiertos a todos. Aquí técnicamente no
hay licencia.
× DEDICACIÓN Y LICENCIA DE DOMINIO PÚBLICO OPEN DATA COMMONS – PDDL
La licencia Open Data Commons tiene las mismas características que la licencia de dominio
público, pero la diferencia es que la licencia PDDL utiliza un mecanismo de licencia para otorgar los
derechos sobre el conjunto de datos.
× ATRIBUCIÓN CREATIVE COMMONS 4.0 INTERNACIONAL CC-BY
Esta licencia permite a los usuarios compartir y modificar un conjunto de datos, pero solo si dan
crédito a los creadores del conjunto de datos.
× ACUERDO DE LICENCIA DE DATOS COMUNITARIOS – CDLA PERMISIVO-2.0
Como la mayoría de las licencias de código abierto, esta licencia permite a los usuarios usar,
modificar, adaptar y compartir el conjunto de datos, pero sólo si también se incluye una exención de
garantías y responsabilidad.
× LICENCIA DE ATRIBUCIÓN COMÚN DE DATOS ABIERTOS - ODC-BY
Esta licencia permite a los usuarios compartir y adaptar un conjunto de datos, pero solo si dan
crédito a los creadores del conjunto de datos.
× CREATIVE COMMONS ATTRIBUTION-SHAREALIKE 4.0 INTERNACIONAL - CC-BY-SA
Esta licencia permite a los usuarios usar, compartir y adaptar un conjunto de datos, pero solo si dan
crédito al conjunto de datos y muestran cualquier cambio o transformación que hayan realizado en
el conjunto de datos. Es posible que los usuarios no quieran utilizar esta licencia porque tienen que
compartir el trabajo que realizaron en el conjunto de datos.
× ACUERDO DE LICENCIA DE DATOS COMUNITARIOS – CDLA-SHARING-1.0
Esta licencia utiliza el principio de "copyleft": los usuarios pueden usar, modificar y adaptar un
conjunto de datos, pero sólo si no agregan restricciones de licencia a los nuevos trabajos que crean
con el conjunto de datos.
× LICENCIA DE BASE DE DATOS ABIERTA COMMONS DE DATOS ABIERTOS - ODC-ODBL
Esta licencia permite a los usuarios usar, compartir y adaptar un conjunto de datos, pero solo si dan
crédito al conjunto de datos y muestran cualquier cambio o transformación que realicen en el
conjunto de datos. Es posible que los usuarios no quieran utilizar esta licencia porque tienen que
compartir el trabajo que realizaron en el conjunto de datos.
× ATRIBUCIÓN CREATIVE COMMONS-NO COMERCIAL 4.0 INTERNACIONAL - CC BY-NC
Esta licencia es una licencia restrictiva. Los usuarios pueden compartir y adaptar un conjunto de
datos, siempre que den crédito a sus creadores y se aseguren de que el conjunto de datos no se
utilice para ningún propósito comercial.
× ATRIBUCIÓN CREATIVE COMMONS-SIN DERIVADOS 4.0 INTERNACIONAL - CC BY-ND
Esta licencia también es una licencia restrictiva. Los usuarios pueden compartir un conjunto de
datos si dan crédito a sus creadores. Esta licencia no permite adiciones, transformaciones o
cambios al conjunto de datos.
× ATRIBUCIÓN CREATIVE COMMONS-NO COMERCIAL-SHAREALIKE 4.0 INTERNACIONAL - CC BY-NC-
SA
Esta licencia permite a los usuarios compartir un conjunto de datos solo si dan crédito a sus
creadores. Los usuarios pueden compartir adiciones, transformaciones o cambios en el conjunto de
datos, pero no pueden utilizar el conjunto de datos con fines comerciales.
× ATRIBUCIÓN CREATIVE COMMONS-NO COMERCIAL-NODERIVADOS 4.0 INTERNACIONAL - CC BY-
NC-ND
Esta licencia permite a los usuarios compartir un conjunto de datos solo si dan crédito a sus
creadores. Los usuarios no pueden modificar el conjunto de datos y no pueden utilizarlo con fines
comerciales.
Nota: Existen tipos de licencia adicionales. Cualquier conjunto de datos que utilice incluirá detalles sobre su
licencia.

1.5. Compartir datos empresariales - Intercambio de activos de datos


[Video * 4 Minutos]
Bienvenido a «Compartir datos empresariales: intercambio de activos de datos»
WHAT YOU WILL LEARN
− Tras ver este vídeo, podrá: Navegar por el repositorio de datos abiertos de IBM, el Data Asset
eXchange.
− Explore los conjuntos de datos abiertos en el Data Asset eXchange.
− Identifique el bloc de notas asociado a un conjunto de datos en Watson Studio.

THE DATA ASSET EXCHANGE (DAX)


− Hay muchos conjuntos de datos abiertos disponibles para el público, pero puede resultar difícil
encontrar conjuntos de datos que sean de alta calidad y que tengan condiciones de licencia y uso
claramente definidas.
o Para ayudar a resolver este desafío, IBM creó el Data Asset eXchange, o «DAX».
o DAX proporciona una colección selecta de conjuntos de datos abiertos, tanto de IBM
Research como de fuentes confiables de terceros.
o Estos conjuntos de datos están listos para su uso en aplicaciones empresariales, con una
amplia variedad de tipos de aplicaciones, que incluyen imágenes, vídeo, texto y audio.
− El DAX tiene como objetivo fomentar el intercambio de datos y la colaboración manteniendo los
conjuntos de datos disponibles en virtud de un acuerdo de licencia de datos comunitarios (o CDLA).
El DAX facilita a los desarrolladores la tarea de empezar con los conjuntos de datos, ya que proporciona un
único lugar desde el que acceder a conjuntos de datos únicos y de alta calidad procedentes de fuentes
fiables, como IBM Research.
− También proporciona cuadernos tutoriales que explican los aspectos básicos de la limpieza de
datos, el preprocesamiento y el análisis exploratorio.
− Algunos conjuntos de datos incluyen cuadernos avanzados que explican cómo realizar tareas más
complejas, como crear gráficos, entrenar modelos de aprendizaje automático, integrar el
aprendizaje profundo mediante el Model Asset eXchange y ejecutar análisis estadísticos y de series
temporales.
Tanto el Data Asset eXchange como el Model Asset eXchange están disponibles en el sitio web para
desarrolladores de IBM. Con estos recursos, los desarrolladores pueden crear flujos de trabajo analíticos y
de aprendizaje automático integrales y consumir datos y modelos abiertos con confianza bajo términos de
licencia claramente definidos.
THE DATA ASSET EXCHANGE
Ahora, exploremos el intercambio de activos de datos. Abra https://developer.ibm.com/ en su navegador
web. A continuación, seleccione «Código abierto en IBM» en el menú desplegable y seleccione «Data Asset
eXchange». En el Data Asset eXchange, hay varios conjuntos de datos abiertos disponibles para que los
explore.

GETTING STARTED WITH THE DATA SET


Supongamos que ha encontrado un conjunto de datos que podría resultarle muy interesante: el conjunto de
datos meteorológicos de la NOAA: aeropuerto JFK, que contiene datos de una estación meteorológica del
aeropuerto John F. Kennedy de Nueva York. En esta página del conjunto de datos, puede hacer clic en
Obtener este conjunto de datos para descargar el conjunto de datos de la NOAA desde el almacenamiento
en la nube. Ejecute libretas de conjuntos de datos para acceder a las libretas asociadas al conjunto de datos
en Watson.
y obtenga una vista previa de los datos y los cuadernos para explorar los metadatos, el glosario y el bloc de
notas del DAX.

EXPLORE PROJECT IN WATSON STUDIO


La mayoría de los conjuntos de datos del DAX se complementan con uno o más cuadernos. Haga clic en los
activos para ver todos los cuadernos de Jupyter y los datos disponibles.

A continuación, puede hacer clic en el código fuente para ver todos los cuadernos asociados a su proyecto
de la NOAA.
Puede ejecutar todos los cuadernos en Watson Studio para limpiar los datos, preprocesarlos y analizarlos de
forma exploratoria. Si ya está familiarizado con la apertura de los cuadernos en Watson Studio, puede iniciar
sesión en su cuenta de IBM Cloud, crear un proyecto y cargar todos los cuadernos en el proyecto.

Los conjuntos de datos del DAX también constan de uno o más archivos de datos. Haga clic en la opción
Datos para ver los archivos de datos disponibles en el proyecto.

RECAP
En este vídeo, descubrió que el sitio IBM Data Asset eXchange (DAX) contiene conjuntos de datos abiertos de
alta calidad. Los conjuntos de datos abiertos del DAX incluyen cuadernos tutoriales que proporcionan
instrucciones básicas y avanzadas para los desarrolladores. DAX y MAX están disponibles en el sitio web
para desarrolladores de IBM. Puede obtener, ejecutar y previsualizar conjuntos de datos y libretas en DAX, y
las libretas DAX se abren en Watson Studio.
1.6. Modelos de aprendizaje automático - Aprender de los modelos para hacer predicciones
[Video * 7 Minutos]
Bienvenido a «Modelos de aprendizaje automático: aprender de los modelos para hacer predicciones».
WHAT YOU WILL LEARN
Después de ver este vídeo, podrá:
− definir un modelo de aprendizaje automático,
− describir los diferentes tipos de modelos de aprendizaje y
− describir cómo utilizar un modelo de aprendizaje para resolver un problema.

WHAT IS A MACHINE LEARNING MODEL?


− Ahora los datos contienen una gran cantidad de información que se puede utilizar para resolver
ciertos tipos de problemas. Los enfoques tradicionales de análisis de datos pueden consistir en que
una persona inspeccione manualmente los datos o en un programa informático especializado que
automatice el análisis humano. Estos enfoques llegan a sus límites debido a la cantidad de datos
que se van a analizar o a la complejidad del problema.
− El aprendizaje automático (ML) utiliza algoritmos, también conocidos como «modelos», para
identificar patrones en los datos.
− El proceso mediante el cual el modelo aprende estos patrones a partir de los datos se denomina
«entrenamiento con modelos».
− Una vez que se entrena un modelo, se puede utilizar para hacer predicciones. Cuando se presentan
nuevos datos al modelo, intenta hacer predicciones o tomar decisiones en función de los patrones
que ha aprendido de los datos anteriores.
− Los modelos de aprendizaje automático se pueden dividir en tres clases básicas: aprendizaje
supervisado, aprendizaje no supervisado y aprendizaje por refuerzo.
El tipo de aprendizaje automático más utilizado es el aprendizaje supervisado.
SUPERVISED LEARNING
En el aprendizaje supervisado, un humano proporciona datos de entrada y resultados correctos. El modelo
intenta identificar las relaciones y dependencias entre los datos de entrada y la salida correcta. Este tipo de
aprendizaje comprende dos tipos de modelos: regresión y clasificación.
− Los modelos de regresión se utilizan para predecir un valor numérico (o «real»). Por ejemplo, si se
proporciona información sobre las ventas de viviendas anteriores, como la ubicación geográfica, el
tamaño, el número de dormitorios y el precio de venta, puede entrenar un modelo para que prediga
el precio de venta estimado de otras viviendas con características similares.
− Los modelos de clasificación se utilizan para predecir si alguna información o dato pertenece a una
categoría (o «clase»). Por ejemplo, en el caso de un conjunto de correos electrónicos junto con una
designación , puede clasificar si se consideran spam o no. De este modo, puede entrenar un
algoritmo para identificar los correos electrónicos no solicitados.
OTHER LEARNING TYPES
− En el aprendizaje no supervisado, un humano no etiqueta los datos.
− Los modelos deben analizar los datos e intentar identificar los patrones y la estructura de los datos
en función de sus características.
o La agrupación es un ejemplo de este estilo de aprendizaje. Los modelos de agrupamiento se
utilizan para dividir cada registro de un conjunto de datos en uno de un grupo similar. Un
ejemplo de un modelo de agrupamiento podría ser ofrecer recomendaciones de compra
para una tienda de comercio electrónico, basadas en el comportamiento de compra
anterior y en el contenido de una cesta de la compra.
o Otro ejemplo es la detección de anomalías, que identifica valores atípicos en un conjunto
de datos, como transacciones fraudulentas con tarjetas de crédito o intentos sospechosos
de inicio de sesión en línea.
− Y el tercer tipo de aprendizaje, el aprendizaje por refuerzo,
o se basa vagamente en la forma en que aprenden los seres humanos y otros organismos.
o Por lo tanto, piense en un ratón en un laberinto. Si el ratón llega al final del laberinto, obtiene
un trozo de queso. Esta es la «recompensa» por completar una tarea. El ratón aprende
mediante ensayo y error cómo atravesar el laberinto para conseguir la mayor cantidad de
queso posible. De manera similar, un modelo de aprendizaje por refuerzo aprende cuál es el
mejor conjunto de acciones a realizar, dado su entorno actual, para obtener la mayor
cantidad de recompensas a lo largo del tiempo. Recientemente, este tipo de aprendizaje ha
tenido mucho éxito al superar a los mejores jugadores humanos en juegos como el Go, el
ajedrez y los populares videojuegos de estrategia.
DEEP LEARNING
− El aprendizaje profundo es un tipo especializado de aprendizaje automático. Se refiere a un conjunto
general de modelos y técnicas que emulan vagamente la forma en que el cerebro humano resuelve
una amplia gama de problemas.
− Se usa comúnmente para analizar el lenguaje natural (tanto hablado como textual), imágenes,
audio, vídeo, para pronosticar datos de series temporales y mucho más. El aprendizaje profundo ha
tenido mucho éxito recientemente en estas y otras áreas y, por lo tanto, se está convirtiendo en una
herramienta cada vez más popular e importante para la ciencia de datos.
− Requiere grandes conjuntos de datos etiquetados para entrenar un modelo, requiere un uso
intensivo de cómputos y,
− por lo general, requiere un hardware específico para lograr tiempos de entrenamiento aceptables.
DEEP LEARNING MODELS
− Ahora puede crear un modelo de aprendizaje profundo personalizado desde cero o utilizar modelos
previamente entrenados de repositorios de modelos públicos.
− Los modelos de aprendizaje profundo se implementan mediante marcos populares como
TensorFlow, PyTorch y Keras.
− Los marcos de aprendizaje proporcionan una API de Python y muchos admiten otros lenguajes de
programación, como C++ y JavaScript.
− Puede descargar modelos de última generación previamente entrenados de los repositorios que
comúnmente se denominan zoológicos modelo. Entre los zoológicos modelo más populares se
incluyen los proporcionados por TensorFlow, PyTorch, Keras y ONNX. Los modelos también son
publicados por grupos de investigación académicos y comerciales.
USING MODELS TO SOLVE A PROBLEM
Describamos brevemente las tareas de alto nivel que implica la construcción de un modelo con un ejemplo.
Suponga que quiere habilitar una aplicación para identificar objetos en imágenes mediante el entrenamiento
de un modelo de aprendizaje profundo. En primer lugar, debe recopilar y preparar los datos que se utilizarán
para entrenar un modelo. La preparación de los datos puede ser un proceso lento y laborioso. Para entrenar
un modelo para que detecte objetos en las imágenes, es necesario etiquetar los datos de entrenamiento sin
procesar. Por ejemplo, puede dibujar cuadros delimitadores alrededor de los objetos y etiquetarlos. A
continuación, cree un modelo desde cero o seleccione un modelo existente que pueda ser adecuado para la
tarea a partir de un recurso público o privado. A continuación, puede entrenar el modelo con los datos que
haya preparado. Durante el entrenamiento, el modelo aprende a identificar los objetos representados en una
imagen a partir de los datos etiquetados. Una vez que el entrenamiento ha comenzado, usted analiza los
resultados del entrenamiento y repite el proceso hasta que el rendimiento del modelo entrenado cumpla con
sus requisitos. Cuando el modelo entrenado funciona como se desea, lo despliega para que esté disponible
para sus aplicaciones.

RECAP
En este vídeo, aprendió lo siguiente: el aprendizaje automático (ML) utiliza algoritmos, también conocidos
como «modelos», para identificar patrones en los datos. El proceso mediante el cual el modelo aprende los
patrones de datos se denomina «entrenamiento con modelos». Los tipos de aprendizaje automático son
supervisado, no supervisado y reforzado. El aprendizaje supervisado comprende dos tipos de modelos:
regresión y clasificación. Y el aprendizaje profundo se refiere a un conjunto general de modelos y técnicas
que emulan vagamente la forma en que el cerebro humano resuelve una amplia gama de problemas.
1.7. El Intercambio de Activos Modelo
[Video * 6 Minutos]
Bienvenido a The Model Asset Exchange
WHAT YOU WILL LEARN
Tras ver este vídeo, podrá:
− navegar por el Model Asset Exchange de IBM Research y
− explicar cómo el servidor de modelos con aprendizaje profundo detecta las imágenes.

USING MODELS TO SOLVE A PROBLEM


El Model Asset eXchange, o «MAX», de la plataforma IBM Developer, es un recurso gratuito de código abierto
para modelos de aprendizaje profundo. Las tareas necesarias para entrenar un modelo desde cero requieren
una gran cantidad de datos, mano de obra, tiempo y recursos. Debido a esto, el tiempo de generación de
valor puede ser bastante largo. Para reducir el tiempo de generación de valor, considere la posibilidad de
aprovechar los modelos previamente entrenados para ciertos tipos de problemas. Estos modelos
previamente entrenados pueden estar listos para usarse de inmediato o pueden tardar menos en entrenarse.

HOW ARE MODELS CRATED?


Los modelos se crean al procesar los datos a través de un modelo utilizando recursos de cómputo y
experiencia en el campo. Una vez finalizados los pasos de investigación, evaluación, prueba, formación y
validación, dispondrá de un modelo validado.

MAX REDUCES TIME TO VALUE


El Model Asset eXchange es un repositorio gratuito de código abierto para microservicios de aprendizaje
profundo personalizables y listos para usar.
− Estos microservicios están configurados para utilizar modelos de aprendizaje profundo previamente
entrenados o personalizables para resolver problemas empresariales comunes.
− Estos modelos se han probado exhaustivamente y se pueden implementar rápidamente en entornos
locales y en la nube.
− Todos los modelos de MAX están disponibles bajo licencias permisivas de código abierto, lo que
facilita su uso con fines personales y comerciales, lo que reduce el riesgo de responsabilidades
legales.
En MAX, puede encontrar modelos para una variedad de dominios, que incluyen:
− Detección de objetos, clasificación de imágenes, audio, vídeo y texto, reconocimiento de entidades
nominales, traducción de imagen a texto , detección de poses humanas y más.
TYPICAL MODEL-SERVING MICROSERVICE
Veamos los componentes de un microservicio típico de servidor de modelos. Cada microservicio incluye un
modelo de aprendizaje profundo previamente entrenado, un código que preprocesa la entrada antes de que
el modelo la analice, un código que procesa posteriormente la salida del modelo y una API pública
estandarizada que pone la funcionalidad de los servicios a disposición de las aplicaciones.
HOW ARE MODEL-SERVING MICROSERVICES CREATED?
Los microservicios que sirven modelos se crean procesando las entradas a través de un modelo validado y, a
continuación, aplicando las salidas a una API REST. Una vez completados los pasos de implementación,
empaquetado, documentación y prueba, dispondrá de un microservicio de servidor de modelos que podrá
enviar a una máquina local o a una nube privada, híbrida o pública.

MAX MODEL-SERVING MICROSERVICE


Los microservicios de servidor de modelos MAX se crean y distribuyen como imágenes de Docker de código
abierto. Docker es una plataforma de contenedores que facilita la creación y el despliegue de aplicaciones.
La fuente de imágenes de Docker se publica en GitHub y se puede descargar y personalizar para su uso en
entornos personales y comerciales. Usa el sistema de código abierto de Kubernetes para automatizar la
implementación, el escalado y la administración de estas imágenes de Docker. Red Hat OpenShift es una
popular plataforma de Kubernetes de nivel empresarial. Está disponible en IBM Cloud, Google Cloud
Platform, Amazon Web Services y Microsoft Azure.

GETTING STARTED WITH MAX OBJECT DETECTOR


Exploremos algunos modelos de aprendizaje automático. Ve a ml-exchange.org. Aquí puede ver y usar varios
modelos predefinidos. Exploraremos el modelo de detector de objetos predefinido. Este modelo reconocerá
los objetos de una imagen porque consta de: un modelo base de red convolucional profundo para la
extracción de características de la imagen y capas convolucionales añadidas especializadas en la detección
de objetos.
MAX-TFJS MODEL USING CODEPEN
En la página del detector de objetos MAX, seleccione CodePen. CodePen es una herramienta en línea
utilizada por los desarrolladores para editar lenguajes de interfaz como HTML, JavaScript y CSS.

Se le redirigirá a la página de CodePen, donde podrá seleccionar el modelo MAX Tensorflow.js.


Este modelo está entrenado para identificar los objetos de una imagen y asigna cada píxel de la imagen a un
objeto en particular.

Aquí puede cargar diferentes imágens de una persona, perro, gato, camión o automóvil. El modelo se entrenó
anteriormente con imágenes etiquetadas, por lo que ahora puede reconocer imágenes incluso cuando no
están etiquetadas. Seleccione una imagen para ver qué ocurre cuando el modelo invoca el punto final de
predicción.
VISUALIZING MAX-TFJS MODEL PREDICTION
Haga clic en Extraer la predicción. Esto invoca el punto final de la predicción y se carga la imagen. El modelo
TFJS prediseñado prepara la imagen de entrada para su preprocesamiento. El algoritmo del modelo de
aprendizaje profundo identifica los diferentes objetos de la imagen. Genera su respuesta a partir de los
resultados de la predicción y devuelve el resultado a la aplicación.

Verás la imagen existente separada en dos imágenes diferentes: la imagen de fondo y la imagen del perro. La
prueba del modelo ha finalizado. Ha confirmado que este modelo es capaz de identificar los elementos de
una imagen sin utilizar etiquetas predefinidas.

RECAP
En este vídeo, aprendió: The Model Asset eXchange es un repositorio gratuito de código abierto para
microservicios de aprendizaje profundo personalizables y listos para usar. Para reducir el tiempo de
generación de valor, considere la posibilidad de aprovechar los modelos previamente entrenados para
determinados tipos de problemas. Los microservicios que sirven modelos MAX se crean y distribuyen en
GitHub como imágenes de Docker de código abierto. Red Hat OpenShift es una plataforma de Kubernetes
que se utiliza para automatizar la implementación, el escalado y la administración de los microservicios. ML-
Exchange.org tiene varios modelos predefinidos. La herramienta CodePen permite a los usuarios editar los
idiomas de la interfaz.
1.8. Lectura: Introducción al Intercambio de Activos de Modelo y al Intercambio de Activos de Datos
[…]
https://www.coursera.org/learn/open-source-tools-for-data-science/ungradedWidget/WrKDS/reading-
getting-started-with-the-model-asset-exchange-and-the-data-asset
2. Resumen y Evaluaciones del Módulo 3
2.1. Resumen del módulo 3
[…]
¡Enhorabuena! Ha completado este módulo. A estas alturas del curso, ya lo sabe:
− Las bibliotecas suelen contener módulos incorporados que proporcionan diferentes
funcionalidades.
− Puede utilizar métodos de visualización de datos para comunicarse con otras personas y mostrar
resultados significativos de un análisis.
− Para el aprendizaje automático, la biblioteca Scikit-learn contiene herramientas para el modelado
estadístico, incluyendo regresión, clasificación, agrupación, etc.
− La producción a gran escala de modelos de aprendizaje profundo utiliza TensorFlow, un marco de
trabajo de bajo nivel.
− Apache Spark es un marco de computación en clúster de uso general que permite procesar datos
utilizando clústeres de computación.
− Una interfaz de programación de aplicaciones (API) permite la comunicación entre dos piezas de
software.
− La API es la parte de la biblioteca que usted ve, mientras que la biblioteca contiene todos los
componentes del programa.
− Las API REST permiten comunicarse a través de Internet y aprovechar recursos como el
almacenamiento, los datos, los algoritmos de inteligencia artificial y mucho más.
− Los datos abiertos son fundamentales para la Ciencia de Datos.
− El Acuerdo de licencia de datos comunitarios facilita el intercambio de datos abiertos.
− El sitio IBM Data Asset eXchange (DAX) contiene conjuntos de datos abiertos de alta calidad.
− Los conjuntos de datos abiertos DAX incluyen cuadernos tutoriales que ofrecen recorridos básicos y
avanzados para desarrolladores.
− Los cuadernos DAX se abren en Watson Studio.
− El aprendizaje automático (ML) utiliza algoritmos -también conocidos como "modelos"- para
identificar patrones en los datos.
− Los tipos de ML son el supervisado, el no supervisado y el de refuerzo.
− El aprendizaje supervisado comprende dos tipos de modelos: regresión y clasificación.
− El aprendizaje profundo se refiere a un conjunto general de modelos y técnicas que emulan
vagamente la forma en que el cerebro humano resuelve una amplia gama de problemas.
− El Model Asset eXchange es un repositorio gratuito y de código abierto para microservicios de
aprendizaje profundo listos para usar y personalizables.
− Los microservicios de servicio de modelos MAX se construyen y distribuyen en GitHub como
imágenes Docker de código abierto.
− Puede utilizar Red Hat OpenShift, una plataforma Kubernetes, para automatizar la implantación, el
escalado y la gestión de los microservicios.
− Ml-exchange.org dispone de múltiples modelos predefinidos.
2.2. Cuestionario práctico - Bibliotecas, API, conjuntos de datos, modelos
[…]
Pregunta 1
¿Qué biblioteca ofrece estructuras de datos y herramientas para una limpieza, manipulación y análisis
eficaces de los datos?
A. Pandas
B. Scikit-learn
C. Seaborn
D. Matplotlib

Pregunta 2
¿Qué es una API?
A. Datos
B. Servicio web
C. Interfaz
D. Traductor

Pregunta 3
¿Cuál es la mejor manera de representar los datos de la red?
A. En una estructura arborescente
B. Valores separados por comas
C. Como gráfico
D. Formato tabular

Pregunta 4
¿Cuál es el objetivo principal del Intercambio de Activos de Datos (DAX)? Seleccione todas las que
correspondan.
A. Conservar los conjuntos de datos cuya licencia y condiciones de uso estén claramente definidas
B. Recopilar conjuntos de datos de alta calidad
C. Para organizar conjuntos de datos en tablas
D. Para recopilar conjuntos de datos sólo con imágenes

Pregunta 5
¿Cuáles de los siguientes son modelos de aprendizaje automático? Seleccione todos los que correspondan.
A. Formación de modelos
B. Aprendizaje no supervisado
C. Aprendizaje de refuerzo
D. Aprendizaje supervisado

Pregunta 6
¿Cuáles de los siguientes elementos se utilizan para hacer un modelo? Seleccione todos los que
correspondan.
A. Recursos informáticos
B. Docker
C. Experiencia en el dominio
D. Kubernetes

2.3. Cuestionario graduado - Bibliotecas, API, conjuntos de datos, modelos


[…]
1.
Pregunta 1
¿Qué biblioteca se utiliza para el aprendizaje automático?
A. NumPy
B. Matplotlib
C. Scikit-learn
D. Pandas
Correcto Para el aprendizaje automático, la biblioteca Scikit-learn contiene herramientas para el modelado
estadístico, incluyendo regresión, clasificación, agrupación, etc.

2.
Pregunta 2
¿Qué biblioteca de aprendizaje profundo en Python se utiliza para la experimentación?
A. PyTorch
B. Pandas
C. NumPy
D. Seaborn
Correcto PyTorch se utiliza para la experimentación, facilitando a los investigadores la puesta a prueba de
ideas.

3.
Pregunta 3
¿Qué API se puede utilizar con TensorFlow?
A. Julia
B. Seaborn
C. Panda
D. Lengua C
Correcto Las API desarrolladas voluntariamente por Julia, Matlab y R pueden utilizarse con TensorFlow.

4.
Pregunta 4
¿Qué significa T en REST?
A. Transformador
B. Tensor
C. Transferencia
D. Transporte
Correcto La T de REST significa transferencia.

5.
Pregunta 5
¿Cuál de los siguientes conjuntos de datos se considera datos abiertos?
A. Datos de clientes
B. Datos gubernamentales
C. Datos sobre precios
D. Comercialmente sensible
Correcto Los datos gubernamentales relativos a la economía, la sociedad, la sanidad, el transporte y el
medio ambiente son datos abiertos.

6.
Pregunta 6
¿Qué licencia estipula que la versión modificada de los datos debe publicarse bajo los mismos términos de
licencia que los datos originales?
A. Conjunto de datos CDLA
B. CDLA-Compartir
C. CDLA-Licencia
D. CDLA-Permisivo
Correcto La licencia CDLA-Sharing estipula que si publica su versión modificada de los datos, debe hacerlo
bajo los mismos términos de licencia que los datos originales.

7.
Pregunta 7
¿Qué pestaña de la página web para desarrolladores de IBM le permite abrir la página Data Asset eXchange?
A. Código abierto en IBM
B. Comunidad
C. Temas
D. Productos y servicios
Correcto La pestaña "Open Source en IBM" abre una lista desplegable en la que puede seleccionar la opción
"Data Asset eXchange".

8.
Pregunta 8
¿Qué pestaña de la página del proyecto Data Asset eXchange le permite ver todos los cuadernos Jupyter?
A. Gestionar
B. Empleo
C. Visión general
D. Recursos
Correcto. Haga clic en Activos para ver todos los cuadernos Jupyter y los datos disponibles.

9.
Pregunta 9
¿Qué modelo de aprendizaje automático se utiliza para resolver problemas de regresión y clasificación?
A. Aprendizaje no supervisado
B. Formación de modelos
C. Aprendizaje supervisado
D. Aprendizaje de refuerzo
Correcto El aprendizaje supervisado se utiliza para resolver problemas de regresión y clasificación.
10.
Pregunta 10
En la página del detector de objetos MAX, ¿qué herramienta en línea utilizan los desarrolladores para editar
los lenguajes frontales?
A. Nodo-Flujo rojo
B. Aplicación sin servidor
C. CodePen
D. Predicción de extracción
Correcto CodePen es una herramienta en línea utilizada por los desarrolladores para editar lenguajes front-
end como HTML, JavaScript y CSS.

También podría gustarte