Abrir el menú de navegación
Cerrar sugerencias
Buscar
Buscar
es
Change Language
Cambiar idioma
Cargar
Iniciar sesión
Iniciar sesión
Descargar gratis durante días
100%
(2)
100% encontró este documento útil (2 votos)
2K vistas
902 páginas
Py Torch
Cargado por
Catriel Perez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido,
reclámalo aquí
.
Formatos disponibles
Descarga como PDF o lee en línea desde Scribd
Descargar
Guardar
Guardar Py Torch para más tarde
Compartir
100%
100% encontró este documento útil, undefined
0%
, undefined
Imprimir
Insertar
Reportar
100%
(2)
100% encontró este documento útil (2 votos)
2K vistas
902 páginas
Py Torch
Cargado por
Catriel Perez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido,
reclámalo aquí
.
Formatos disponibles
Descarga como PDF o lee en línea desde Scribd
Carrusel anterior
Carrusel siguiente
Descargar
Guardar
Guardar Py Torch para más tarde
Compartir
100%
100% encontró este documento útil, undefined
0%
, undefined
Imprimir
Insertar
Reportar
Descargar
Guardar Py Torch para más tarde
Está en la página 1
/ 902
Buscar
pantalla completa
VISION DE EXPERTOS 7) eye Uren Machine Learning con PyTorch y Scikit-Learn Cémo desarrollar modelos de Machine Learning y Deep Learning con Python Libro de PyTorch de la aclamada serie Python Machine Learning coeetsts Dace econ Pare hesca era Sebastian Raschka AR Yuxi (Hayden) Liu Matcombo NETIC MLL SMachine Learning con PyTorch y Scikit-Learn Desarrollo de modelos Machine Learning y Deep Learning con Python Sebastian Raschka Yuxi (Hayden) Liu Vahid Mirjalili a Mat ombo ESEsta obra ha recibido una ayuda a la edicién del Ministerio de Cultura y Deporte del Gobierno de Espaiia, por el Plan de Recuperacién, Transformacién y Resiliencia, Financiado por la Unién Europea (NextGenerationEU) Financiado por ED. ccucnne | umnsrinc x Plan de Recuper | la Unién Europea HAR sean ace ‘RR Fan ge recugers NextGenerationEU a - y Resiliencia Copyright © Packt Publishing Ltd. 2022. First published in the English language under the title Machine Learning with PyTorch and ScikitLearn (978-1-80181-931-2). Primera edicién original publicada en inglés por Packt Publishing Ltd. con el titulo: Machine Learning with PyTorch and Sckit-Learn, © 2022 Packt Publishing Titulo de la edicién en espafiol: Machine Learning con PyTorch y Scikit Learn Primera edicién en espafiol, 2023 © 2023 MARCOMBO, S.L. ‘www.marcombo.com ‘Traduccién: Francisco Martinez Carreno Correctora: Anna Alberola Directora de produccién: M.* Rosa Castillo Los c6digos de ejemplo que se pueden encontrar en el libro se han desarrollado usando las versiones de software y librerias mds actuales en el momento de la publicacién del mismo, pero, como sabe, el software es algo que estd en constante evolucién, y estas pueden haber variado desde su fecha de publicacién. Por este motivo existe la posibilidad que, de manera puntual, la sintaxis de algiin ejemplo pueda variar. Packt Publishing y Marcombo se han esforzado en proporcionar informacién sobre las marcas comerciales de todas las empresas y productos mencionados en el libro mediante el uso adecuado de las cabeceras. Sin embargo, Packt Publishing y Marcombo no pueden garantizar la exactitud de esta informacién. Python y el logotipo de Python son marcas comerciales de Python Soft ware Foundation. Cualquier forma de reproduccién, distribucién, comunicacién publica o transformacién de esta obra solo puede ser realizada con la autorizacién de sus titulares, salvo excepcién prevista por la ley. Dirfjase a CEDRO (Centro Espafiol de Derechos reprograficos, www.cedro.org) si necesita fotocopiar o escanear algun fragmento de esta obra. ISBN del libro en papel: 978-84-267-3573-7ISBN del libro electrénico: 978-84-267-3625-3 Produccién del ePub: booqlabPrélogo En los ultimos afios, los métodos de Machine Learning (en castellano, aprendizaje automdtico), con su capacidad para dar sentido a grandes cantidades de datos y automatizar decisiones, han encontrado amplias aplicaciones en la sanidad, la robética, la biologia, la fisica, los productos de consumo, los servicios de Internet y otros sectores. Los saltos de gigante en la ciencia suelen provenir de una combinacién de ideas poderosas y grandes herramientas. El aprendizaje automitico no es una excepcién. El éxito de los métodos de aprendizaje basados en datos se debe a las ingeniosas ideas de miles de investigadores con talento a lo largo de los 60 afios de historia en este campo. Pero su reciente popularidad también se debe a la evolucién de las soluciones de hardware y soft ware que los hacen escalables y accesibles. El ecosistema de excelentes librerias para la computacién numérica, el andlisis de datos y el aprendizaje automatico creadas en torno a Python, como NumPy y Scikit-iearn, ha conseguido una amplia acogida en la investigacién y la industria. Esto ha contribuido en gran medida a que Python sea el lenguaje de programacién mas popular. Las grandes mejoras en la visién por ordenador, el texto, el habla y otras tareas aportadas por la reciente legada de las técnicas de Deep Learning (en castellano, aprendizaje profundo) ejemplifican este tema. Los enfoques se basan en la teoria de las redes neuronales de las ultimas cuatro décadas, que empezaron a funcionar extraordinariamente bien en combinacién con las GPU y las rutinas de cdlculo altamente optimizadas. Nuestro objetivo con la creacién de PyTorch durante los ultimos cinco afios ha sido ofrecer a los investigadores la herramienta més flexible para expresar algoritmos de aprendizaje profundo, a la vez que nos ocupamos de las complejidades de ingenieria subyacentes. Nos hemos beneficiado del excelente ecosistema de Python. Hemos tenido la suerte de ver a una comunidad de personas con mucho talento elaborar modelos avanzados de aprendizaje profundo en diferentes dominios sobre PyTorch. Conozco a Sebastian, que forma parte de esta comunidad tan unida, desde hace algunos afios. Tiene un talento inigualable para explicar fAcilmente la informacion y hacer accesible lo complejo. Sebastian ha contribuido en muchospaquetes de soft ware de aprendizaje automdtico ampliamente utilizados y es autor de docenas de excelentes tutoriales sobre aprendizaje profundo y visualizacion de datos. Para aplicar el aprendizaje automatico, es necesario dominar tanto las ideas como las herramientas. Empezar, desde dar sentido a los conceptos teéricos hasta averiguar qué paquetes de soft ware instalar, puede parecer intimidante. Por suerte, el libro que tiene en sus manos hace un magnifico trabajo al combinar conceptos de aprendizaje automatico y pasos practicos de ingenieria para guiarle en este viaje. Le espera un delicioso viaje desde los fundamentos de las técnicas basadas en datos hasta las mds novedosas arquitecturas de aprendizaje profundo. En cada capitulo, encontraré ejemplos de cédigo concretos que aplican los métodos introducidos a tareas practicas. Cuando se publicé la primera edicién en 2015, puso el listén muy alto en la categoria de libros de ML y Python. Pero la excelencia no se detuvo ahi. Con cada edicién, Sebastian y el equipo siguieron actualizando y refinando el material a medida que la revolucién del aprendizaje profundo se desarrollaba en nuevos ambitos. En esta nueva edicién de PyTorch, encontrara nuevos capitulos sobre arquitecturas de transformadores y redes neuronales de grafos. Estos enfoques estin a la vanguardia del aprendizaje profundo y han tomado por asalto los campos de la comprensién de textos y la estructura molecular en los ltimos dos afios. Podra practicarlos utilizando paquetes de soft ware nuevos pero muy populares en el ecosistema como Hugging Face, PyTorch Lightning y PyTorch Geometric. El excelente equilibrio entre la teoria y la practica que consigue este libro no es ninguna sorpresa, dada la combinacién de conocimientos de investigacion avanzada y la experiencia en la resolucién de problemas de forma practica de los autores. Sebastian Raschka y Vahid Mirjalili se basan en su experiencia en la investigacién del aprendizaje profundo para la visién por ordenador y la biologia computacional. Hayden Liu aporta la experiencia de aplicar métodos de aprendizaje automatico al pronéstico de eventos, sistemas de recomendacién y otras tareas de la industria. Todos los autores comparten una profunda pasion por la educacién, y se refleja en la forma en que el libro va de lo simple a lo avanzado. Estoy seguro de que este libro le resultar4 muy valioso como visién general del apasionante campo del aprendizaje automatico y como tesoro de conocimientos practicos. Espero que le sirva de inspiracién para aplicar el aprendizaje automatico en beneficio de los problemas que tenga que tratar en su drea concreta, sea cual sea.Dmytro Dzhulgakov PyTorch Responsible de mantenimiento CoreColaboradores El Dr. Sebastian Raschka es profesor adjunto de estadistica en la Universidad de Wisconsin-Madison y se centra en el aprendizaje automitico y el aprendizaje profundo. Su investigacién reciente se ha centrado en retos generales como el aprendizaje few-shot para trabajar con datos limitados y el desarrollo de redes neuronales profundas para objetivos ordinales. También es un Avido colaborador de cédigo abierto, y en su nuevo papel como educador principal de TA en Grid.ai, planea continuar con su pasién por ayudar a la gente a entrar en el aprendizaje automitico y en la IA. Muchas gracias a Jitian Zhao y Ben Kaufman, con quienes tuve el placer de trabajar en los nuevos capitulos sobre transformadores y redes neuronales de grafos. También estoy muy agradecido por la ayuda de Hayden y Vahid: este libro no habria sido posible sin vosotros. Por iiltimo, quiero dar las gracias a Andrea Panizza, Tony Gitter y Adam Bielski por sus ttiles discusiones sobre distintas secciones del manuscrito. Yuxi (Hayden) Liu es ingeniero de soft ware de aprendizaje automatic en Google y ha trabajado como cientifico de aprendizaje automético en una variedad de dominios basados en datos. Hayden es autor de una serie de libros de ML. Su primer libro, Python Machine Learning By Example, fue el nimero 1 en ventas en su categoria en Amazon en 2017 y 2018, y fue traducido a muchos idiomas. Sus otros libros incluyen R Deep Learning Projects, Hands-On Deep Learning Architectures with Python y PyTorch 1.x Reinforcement Learning Cookbook. Me gustaria dar las gracias a todas las grandes personas con las que he trabajado, especialmente a mis coautores, mis editores en Packt y mis revisores. Sin ellos, este libro seria mds dificil de leer y de aplicar a los problemas del mundo real. Por tiltimo, me gustaria dar las gracias a todos los lectores por su apoyo, que me animaron a escribir la edicién en PyTorch de este libro de ML de tanto éxito. El Dr. Vahid Mirjalili es investigador de deep learning especializado en aplicaciones de visién por ordenador. Vahid se doctoré en Ingenieria Mecanica e Informatica por la Universidad Estatal de Michigan. Durante su doctorado,desarrollé innovadores algoritmos de visién por ordenador para resolver problemas del mundo real y publicé varios articulos de investigacién citados muy frecuentemente en la comunidad de visién por ordenador. Otros colaboradores Benjamin Kaufman es candidato a doctor en la Universidad de Wisconsin- Madison en ciencia de datos biomédicos. Su investigacién se centra en el desarrollo y la aplicacién de métodos de aprendizaje automatico para el descubrimiento de farmacos. Su trabajo en este A4mbito ha permitido profundizar en el conocimiento de las redes neuronales de grafos. Jitian Zhao es estudiante de doctorado en la Universidad de Wisconsin- Madison, donde desarrollé su interés en los modelos lingiiisticos a gran escala. Le apasiona el aprendizaje profundo en el desarrollo tanto de aplicaciones en el mundo real como de soporte teérico. Me gustaria agradecer a mis padres su apoyo. Me animaron a perseguir siempre mi suefio y me motivaron a ser una buena persona. Sobre el revisor Roman Tezikov es ingeniero de investigacién industrial y entusiasta del aprendizaje profundo con mds de cuatro afios de experiencia en visién por ordenador avanzada, PNL y MLOps. Como creador, junto con otros, de la comunidad ML-REPA, organizé varios talleres y reuniones sobre reproducibilidad de ML y automatizacién de pipelines. Uno de sus actuales retos de trabajo consiste en utilizar la visién por ordenador en la industria de la moda. Roman también fue uno de los principales desarrolladores de Catalyst, un marco PyTorch para el aprendizaje profundo acelerado. Unase al espacio Discord del libro Unase al espacio de Discord del libro para una sesién mensual de «Pregiinteme lo que quiera» con los autores (en inglés): https: //packt. Link/MLwPyTorchContenidos Prefacio 1, Dotar a los ordenadores de la capacidad de aprender de los datos Creacién de maquinas inteligentes para transformar los datos en conocimiento Los tres tipos de aprendizaje automatico Formulacién de prondsticos sobre el futuro con el aprendizaje supervisado Clasificacién para pronosticar etiquetas de clase Regresién para el pronéstico de resultados continuos Resolucién de problemas interactivos con el aprendizaje reforzado Descubrimiento de estructuras ocultas con el aprendizaje no supervisado Deteccidn de subgrupos mediante el agrupamiento (clustering) Reduccion de la dimensionalidad para comprimir los datos Introduccién a la terminologia basica y la notacién Notacién y convenciones que se utilizan en el libro Terminologia del aprendizaje automatico Hoja de ruta para crear sistemas de aprendizaje automatico Preprocesamiento: cémo dar forma a los datos Entrenamiento y seleccién de modelos predictivos Evaluacién de modelos y pronéstico de instancias de datos ocultos Utilizacién de Python en aprendizaje automitico Instalacién de Python y sus paquetes desde Python Package Index Uso del gestor de paquetes y distribucion de Anaconda Python Paquetes para computacién cientifica, ciencia de datos y aprendizaje automatico Resumen 2. Entrenamiento de algoritmos sencillos de aprendizaje automatico para tareas de clasificaciénNeuronas artificiales: un vistazo a la historia de los inicios del aprendizaje automiatico Definicién formal de neurona artificial Regla de aprendizaje del perceptrén Implementacién de algoritmos de aprendizaje del perceptron en Python Una API del perceptrén orientada a objetos API Entrenamiento de un modelo de perceptr6n con el conjunto de datos Iris Neuronas lineales adaptativas y convergencia del aprendizaje Minimizacién de las funciones de pérdida con el descenso del gradiente Implementacién de Adaline en Python Mejora del descenso del gradiente mediante el escalado de caracteristicas Aprendizaje automatico a gran escala y descenso del gradiente estocdstico Resumen 3. Un recorrido por los clasificadores de aprendizaje automatico con Scikit-learn Eleccién de un algoritmo de clasificacién Primeros pasos con Scikit-learn: entrenamiento del precetrén Modelizacién de las probabilidades de clase mediante regresién logistica Regresi6n logistica y probabilidades condicionales Aprendizaje de los pesos del modelo mediante la funcién de pérdida logistica Conversién de una implementacién de Adaline en un algoritmo de regresion logistica Entrenamiento de un modelo de regresién logistica con Scikit-learn Cémo abordar el sobreajuste utilizando la regularizacién Clasificaci6n de margen maximo con maquinas de vectores de soporte Intuicién de margen maximo Tratamiento de un caso no separable linealmente mediante variables de holgura Implementaciones alternativas en Scikit-learn Resolucién de problemas no lineales utilizando el kernel en SVM Métodos del kernel para datos no separables linealmente Uso del truco del kernel para encontrar hiperplanos de separacién en un espacio de alta dimensién Aprendizaje utilizando arboles de decisiénMaximizacién de IG: cémo sacar el maximo partido a su dinero Creacién de un Arbol de decisién Combinacién de miltiples arboles de decisisn mediante bosques aleatorios K vecinos mas cercanos: un algoritmo de aprendizaje perezoso Resumen 4. Elaboracién de conjuntos de datos de entrenamiento adecuados: preprocesamiento Tratamiento de los datos que faltan Identificacién de los valores que faltan en las tablas de datos Eliminacién de ejemplos de entrenamiento o de caracteristicas con valores perdidos Atribucién de valores perdidos Interpretacién de la API del estimador de Scikit-learn Tratamiento de datos categéricos Codificacién de datos categéricos con Pandas Asignacion de las caracteristicas ordinales Codificacién de las etiquetas de clase Codificacién one-hot de las caracteristicas nominales Opcional: codificacién de caracteristicas ordinales Particién del conjunto de datos en conjuntos de entrenamiento y de prueba separados Las caracteristicas deben estar en la misma escala Seleccién de caracteristicas significativas Regularizaciones L1 y L2 como penalizaciones contra la complejidad del modelo Interpretacién geométrica de la regularizacién L2 Soluciones dispersas con la regularizacién L1 Algoritmos de seleccién secuencial de caracteristicas Evaluacién de la importancia de las caracteristicas con bosques aleatorios Resumen 5. Compresién de datos mediante la reduccién de la dimensionalidad Reduccién de la dimensionalidad no supervisada mediante el an: componentes principalesEtapas mds importantes del andlisis de componentes principales Extraccién de los componentes principales paso a paso Varianzas total y explicada Transformaci6n de caracteristicas Anélisis de componentes principales en Scikit-learn Evaluaci6n de las contribuciones de las caracteristicas Compresi6n de datos supervisados mediante el andlisis discriminante lineal Andlisis de componentes principales frente al andlisis discriminante lineal Funcionamiento interno del andlisis discriminante lineal Calculo de matrices de dispersién Seleccién de discriminantes lineales para el nuevo espacio de caracteristicas Proyeccién de ejemplos en el nuevo espacio de caracteristicas LDA mediante Scikit-learn Reduccién de la dimensionalidad no lineal y visualizacién de datos Por qué considerar la reduccién de la dimensionalidad no lineal? Visualizacién de datos mediante la incorporacién de vecinos estocasticos distribuidos en t Resumen 6. Aprendizaje de las mejores practicas para la evaluacién de modelos y el ajuste de hiperparémetros Optimizacién de flujos de trabajo con pipelines Carga del conjunto de datos Breast Cancer Wisconsin Combinacién de transformadores y estimadores en una pipeline Uso de la validacién cruzada de k iteraciones (k subconjuntos) para evaluar el rendimiento del modelo El método de retencién Validaci6n cruzada de k iteraciones Depuracién de algoritmos con curvas de aprendizaje y validacion Diagnéstico de problemas de sesgo y varianza con curvas de aprendizaje Como abordar el sobreajuste y el infraajuste con curvas de validacién Ajuste de los modelos de aprendizaje automatico mediante la busqueda en la red Ajuste de hiperpardmetros mediante la biisqueda en la red Configuraciones de los hiperpardmetros con la biisqueda aleatoriaBusqueda de hiperpardmetros mds eficiente en recursos con reduccién sucesiva a la mitad Seleccién de algoritmos con validacién cruzada anidada Observacién de diferentes métricas de evaluacién del rendimiento Lectura de la matriz de confusion Optimizacién de la precisién y la recuperacién de un modelo de clasificacién Representacién de la caracteristica operativa del receptor Métricas de puntuacién para la clasificacién multiclase Cémo hacer frente al desequilibrio de clases Resumen 7. Combinacién de diferentes modelos para el aprendizaje de conjunto Aprendizaje de conjunto Combinacién de clasificadores mediante el voto mayoritario Implementacién de un clasificador de voto mayoritario sencillo Utilizacién del principio de votacién por mayoria para hacer pronésticos Evaluacién y ajuste del clasificador conjunto Bagging: elaboracién de un conjunto de clasificadores a partir de muestras bootstrap Bagging en pocas palabras Aplicacién de bagging para clasificar ejemplos en el conjunto de datos Wine Aprovechamiento de los alumnos débiles mediante el refuerzo adaptativo Cémo funciona el refuerzo adaptativo Apicacién de AdaBoost con Scikit-learn Refuerzo del gradiente: entrenamiento de un conjunto basado en los gradientes de pérdida Comparacién de AdaBoost con el refuerzo del gradiente Esquema del algoritmo general de refuerzo del gradiente Explicaci6n del algoritmo de refuerzo del gradiente para la clasificacién Ilustraci6n del refuerzo del gradiente para la clasificaci6n Utilizacion de XGBoost Resumen 8. Aplicacién del aprendizaje automatico al andlisis de opinionesPreparacién de datos de resefias de peliculas de IMDb para el tratamiento de textos Obtencién del conjunto de datos de resefias de peliculas Preprocesamiento del conjunto de datos de peliculas en un formato mas conveniente Presentacién del modelo bolsa de palabras Transformacién de palabras en vectores de caracteristicas Evaluaci6n de la relevancia de las palabras mediante la frecuencia de los términos-frecuencia inversa de los documentos Limpieza de datos de texto Procesamiento de documentos en tokens Entrenamiento de un modelo de regresién logistica para la clasificacién de documentos Trabajo con conjuntos de datos mas grandes: algoritmos en linea y aprendizaje fuera del nucleo Modelado de temas con asignacién latente de Dirichlet Descomposicién de documentos de texto con LDA LDA con Scikit-learn Resumen 9. Pronéstico de variables objetivo continuas con anilisis de regresién Introduccién a la regresién lineal Regresi6n lineal simple Regresi6n lineal multiple Exploracién del conjunto de datos Ames Housing Carga del conjunto de datos Ames Housing en un DataFrame Visualizacién de las caracteristicas importantes de un conjunto de datos Obserevaciones de las relaciones mediante la matriz de correlacion Implementacién del modelo de regresién lineal mediante minimos cuadrados ordinarios Resolucién de la regresién para los pardmetros de regresién con el descenso del gradiente Estimacién del coeficiente del modelo de regresién mediante Scikit-learn Ajuste del modelo de regresién robusto mediante RANSAC Evaluacién del rendimiento de los modelos de regresién linealUso de métodos regularizados para la regresién Conversién del modelo de regresién lineal en una curva: regresin polinémica Adicién de términos polinémicos usando Scikit-learn Modelado de relaciones no lienales en el conjunto de datos Ames Housing Tratamiento de relaciones no lineales mediante bosques aleatorios Regresién de arbol de decision Regresién de bosque aleatorio Resumen 10. El trabajo con datos no etiquetados: anilisis de clustering Agrupacién de objetos por similitud mediante k-means Clustering de k-means con Scikit-learn Una forma mis inteligente de colocar los centroides iniciales de los chisteres utilizando k-means++ Clustering duro frente a clustering blando Uso del método del codo para encontrar el numero éptimo de clisteres Cuantifiacién de la calidad del clustering mediante grficos de silueta Organizacién de clusteres en forma de arbol jeraquico Agrupacién de clusteres de forma ascendente Realizacién de la agrupacién jer4quica en la matriz de distancias Anexién de dendrogramas a un mapa de calor Aplicacién de clustering aglomerativo a través de Scikit-learn Localizacién de regiones de alta densidad mediante DBSCAN Resumen 11. Implementacién de una red neuronal artificial multicapa desde cero Modelado de funciones complejas con redes neuronales artificiales Resumen de redes neuronales de una capa Introduccién a la arquitectura de redes neuronales multicapa Activacién de una red neuronal por propagacién hacia delante Clasificacién de digitos escritos a mano Obtencién y preparacién del conjunto de datos MNIST Implementacién del perceptrén multicapa Codificacién del bucle de entrenamiento de la red neuronalEvaluacién del rendimiento de la red neuronal Entrenamiento de redes neuronales artificiales Calculo de la funcién de pérdida Desarrollo de conocimiento de la retropropagacién Entrenamiento de redes neuronales por retropropagacién Sobre la convergencia en redes neuronales Unas tltimas palabras sobre la implementacién de redes neuronales Resumen 12. Paralelizacién de redes neuronales con PyTorch PyTorch y el rendimiento del entrenamiento Retos del rendmiento Qué es PyTorch? Cémo vamos a aprender PyTorch Primeros pasos con PyTorch Instalacién de PyTorch Creacién de tensores en PyTorch Manipulacién del tipo de datos y la forma de tensores Aplicacién de operaciones matemiticas a tensores Divisién, apilamiento y concatenacién de tensores Elaboracién de pipelines de entrada en PyTorch Creacién de PyTorch DataLoader a partir de tensores existentes Combinacién de dos tensores en un conjunto de datos mixto Barajar, agrupar y repetir Creaci6n de conjuntos de datos a partir de archivos del disco de almacenamiento local Obtencién de los conjuntos de datos disponibles en la biblioteca torchvision.datasets Elaboracién de modelos de NN en PyTorch Médulo de redes neuronales de PyTorch (torch.nn) Elaboracién de un modelo de regresién lineal Entrenamiento de modelos mediante los médulos torch.nn y torch.optim Elaboracién de un perceptrén multicapa para clasificar flores en el conjunto de datos Iris Evaluacién del modelo entrenado en el conjunto de datos de pruebaAlmacenamineto y recarga del modelo entrenado Eleccién de funciones de activacién para redes reuronales multicapa Recapitulacién de la funcién logistica Estimacién de las probabilidades de clase en la clasificacién multiclase mediante la funcién soft max Ampliacién del espectro de salida mediante la tangente hiperbdlica Activaci6n de la unidad lineal rectificada Resumen 13. Profundizacién: la mecdnica de PyTorch Caracteristicas esenciales de Pyforch Grafos de computacién de PyTorch Comprensién de los grafos de computacién Creacién de grafos en PyTorch Objetos tensoriales Pyforch para almacenar y actualizar los parametros del modelo CAlculo de gradientes mediante diferenciacién automatica CAlculo de gradientes de pérdida con respecto a las variables entrenables Comprensién de la diferenciacién automatica Ejemplos adversarios Simplificacién de las implementaciones de arquitecturas mas frecuentes mediante el médulo torch.nn Implementacién de modelos basados en nn Sequential Eleccién de la funcién de pérdida Resolucién de problemas de clasificacién XOR Cémo flexibilizar la elaboracién de modelos con nn.Module Cémo escribir capas personalizadas en PyTorch Proyecto uno: pronéstico de la eficiencia de combustibles de coches Trabajo a realizar con columnas de caracteristicas Entrenamiento de modelos de regresin DNN Proyecto dos: clasificacién de digitos escritos a mano del MNIST Las API de PyTorch de alto nivel: una breve introduccién a Pyforch-Lightning Configuracién del modelo PyTorch Lightning Configuracién de los cargadores de datos para Lightning Entrenamiento de modelos con la clase PyTorch Lightning TrainerEvaluacién del modelo con TensorBoard Resumen 14. Clasificacién de imagenes con redes neuronales convolucionales profundas Componentes de las CNN Comprensién de las CNN y jerarquias de caracteristicas Realizacién de convoluciones discretas Convoluciones discretas en una dimension Entradas de relleno para controlar el tamatio de los mapas de caracteristicas de salida Determinacién del tamafio de la salida de la convolucién Realizacién de convoluciones discretas en 2D Capas de submuestreo Poner todo junto: implementacién de CNN Trabajo con varios canales de entrada o de color Regularizacién de NN con regularizacién y abandono de L2 Funciones de pérdida para la clasificacion Implementacién de CNN profundas utilizando PyTorch La arquitectura de CNN multicapa Carga y preprocesamiento de datos Implementacién de CNN usando el médulo torch.nn Configuracién de capas de CNN en PyTorch Construccién de CNN en PyTorch Clasificacién de sonrisas a partir de imagenes faciales mediante CNN Carga del conjunto de datos CelebA Transformaci6n de imagenes e incremento de datos Entrenamiento de un clasificador de sonrisas CNN Resumen 15. Modelado de datos secuenciales mediante redes neuronales recurrentes Introducci6n a los datos secuenciales Modelado de datos secuenciales: el orden importa Datos secuenciales frente a datos de series temporalesRepresentacién de secuencias Diferentes categorias del modelado de secuencias RNN para modelar secuencias Comprender el flujo de datos en las RNN Calculo de activaciones en RNN Recurrencia oculta frente a recurrencia de salida Retos del aprendizaje de las interacciones de largo alcance Células de memoria a corto y largo plazo Implementacién de RNN para el modelado de secuencias en PyTorch Proyecto uno: pronéstico de las opiniones en las resefias de cine de IMDb Preparacién de los datos de resefias de peliculas Capas de incorporacién (embedding) para la codificacién de frases Elaboracién de modelos RNN Elaboracién de un modelo RNN para la tarea de andlisis de opiniones Proyecto dos: modelado lingiiistico a nivel de caracteres en PyTorch Preprocesamiento del conjunto de datos Elaboracién de un modelo RNN a nivel de cardcter Fase de evaluacién: generacién de nuevos pasajes de texto Resumen 16. Transformadores: mejora del procesamiento del lenguaje natural con mecanismos de atencién Adicién de un mecanismo de atencién alas RNN E] mecanismo de atencién ayuda a las RNN a acceder a la informacién Mecanismo de atencién original para las RNN Procesamiento de entradas mediante RNN bidireccional Generacién de salidas a partir de vectores de contexto CAlculo de los pesos de atencién Introduccién al mecanismo de autoatencién Empezando por una forma basica de autoatencién Parameterizacién del mecanismo de autoatencién: atencién del producto punto escalado La atencién es todo lo que necesitamos: introducién a la arquitectura original del transformadorCodificacién de las incorporaciones de contexto mediante atencién multicabezal Aprendizaje de un modelo lingiifstico: decodificador y atencién multicabezal enmascarada Detalles de la implementacién: codificaciones posicionales y normalizacién de capas Elaboracién de modelos ling: no etiquetados Preentrenamiento y ajuste de los modelos de transformadores Aprovechamiento de datos no etiquetados con GPT Utilizacion de GPT-2 para generar texto nuevo Preentrenamiento bidireccional con BERT Lo mejor de ambos mundos: BART Reajuste de modelos BERT en PyTorch Carga del conjunto de datos de resefias de peliculas de IMDb Tokenizacién del conjunto de datos Carga y reajuste de modelos BERT preentrenados Cémo reajustar los transformadores de forma mas comoda mediante la API Trainer sticos a gran escala aprovechando los datos Resumen 17. Redes generativas antagénicas con las que sintetizar nuevos datos Introduccién a las redes generativas antagénicas Empezando por los autocodificadores Modelos generativos para sintetizar nuevos datos Generacién de nuevas muestras con GAN Comprensién de las funciones de perdida de las redes generadoras y discriminadoras en un modelo GAN Implementacién de un modelo GAN desde cero Entrenamiento de modelos GAN en Google Colab Implementacién de las redes generadora y discriminadora Definicién del conjunto de datos de entrenamiento Entrenamiento de modelos GAN Mejora de la calidad de las imagenes sintetizadas mediante GAN convolucionales y de Wasserstein Convolucién traspuestaNormalizacién por lotes Implementacién del generador y del discriminador Medidas de disimilitud entre dos distribuciones Uso de la distancia EM en la pratica para las GAN Penalizacién del gradiente Implementacién de WGAN-GP para entrenar modelos DCGAN Colapso de modo Otras aplicaciones de las GAN Resumen 18. Redes neuronales de grafos para captar las dependencias en datos estructurados en grafos Introduccién a los datos de grafos Grafos no dirigidos Grafos dirigidos Grafos etiquetados Representacién de las moléculas como grafos Comprensi6n de las convoluciones de grafos Motivaciones para utilizar las convoluciones de grafos Implementacién de una convolucién basica de grafos Implementacién de GNN en PyTorch desde cero Definicién del modelo NodeNetwork Codificacién de la capa de convolucién del grafo de NodeNetwork Preparaci6n de DataLoader Uso de NodeNetwork para hacer pronésticos Implementacién de GNN con la biblioteca Pyforch Geometric Otras capas de GNN y desarrollos recientes Convoluciones de grafos espectrales Reduccién (pooling) Normalizacién Referencias a las redes neuronales de grafos en la literatura avanzada Resumen 19. Aprendizaje reforzado para la toma de decisiones en entornos complejosIntroduccién: aprender de la experiencia Comprensién del aprendizaje reforzado Definicin de la interfaz agente-entorno de los sistemas de aprendizaje reforzado Fundamentos teéricos de RL Procesos de decisién de Markov Formulacién de los procesos de decisién de Markov Visualizacién del proceso de Markov Tareas episodicas 0 continuas Terminologia RL: retorno, politica y funcién de valor Retorno Politica Funcién de valor Programacién dindmica mediante la ecuacién de Bellman Algoritmos de aprendizaje reforzado Programacién dindmica Evaluacién de politicas: prondstico de la funcién de valor con programacién dindmica Mejora de la politica mediante la funcién de valor estimada Iteracién de la politica Itearcién del valor Aprendizaje reforzado con Monte Carlo Estimacién de la funcidn de valor del estado mediante MC Estimacién de la funcidn de valor de la accién mediante MC Consecucién de la politica dptima mediante el control de MC Mejora de la politica: cdlculo de la politica codiciosa a partir de la funcién de valor de la accién Aprendizaje por diferencia temporal Prondstico TD Control de TD ena politica (SARSA) Control de TD fuera de la politica (Q-learning) Implementacién de nuestro primer algoritmo RL Presentacién del kit de herramientas OpenAl Gym EL trabajo con los entornos existentes en OpenAl GymEjemplo del tipo mundo cuadriculado Implementacién del entorno de mundo cuadriculado en OpenAl Gym Resoluci6n del problema de mundo cuadriculado con Q-learning Un vistazo a Q-learning profundo Entrenamiento de modelos DON segtin el algoritmo Q-learning Memoria de repeticion Determinacién de los valores objetivo para el cdlculo de la pérdida Implementacién del algoritmo Q-learning profundo Resumen del capitulo y del libroPrefacio A través de la exposicidn a las noticias y los medios sociales, probablemente esté familiarizado con el hecho de que el aprendizaje automatico se ha convertido en una de las tecnologias mas emocionantes de nuestro tiempo. Grandes empresas (como Microsoft, Google, Meta, Apple, Amazon, IBM y muchas més) realizan importantes inversiones en investigacién y en aplicaciones del aprendizaje automatico por buenas razones. Aunque pueda parecer que el aprendizaje automitico se ha convertido en la palabra de moda de nuestro tiempo y época, no se trata de una exageracién. Este apasionante campo abre el camino a nuevas posibilidades y se ha hecho indispensable en nuestra vida cotidiana. Hablar con el asistente de voz de nuestros teléfonos inteligentes, recomendar el producto adecuado a nuestros clientes, prevenir el fraude con tarjetas de crédito, filtrar el spam de nuestras bandejas de correo electrénico, detectar y diagnosticar enfermedades médicas... la lista es interminable. Si quiere convertirse en un profesional del aprendizaje automatico, en un mejor solucionador de problemas o incluso quiere considerar una carrera en la investigacién del aprendizaje automitico, jeste libro es para usted! Sin embargo, para un principiante, los conceptos tedricos que hay detras del aprendizaje automatico pueden ser bastante abrumadores. Muchos libros practicos que se han publicado en los tltimos afios le ayudarén a iniciarse en el aprendizaje automatico mediante la implementacién de potentes algoritmos de aprendizaje. Exponerse a ejemplos practicos de cédigo y trabajar con ejemplos de aplicaciones de aprendizaje automatico es una gran manera de sumergirse en este campo. Los ejemplos concretos ayudan a ilustrar los conceptos mas amplios al poner el material aprendido directamente en accién. Sin embargo, recuerde que un gran poder conlleva una gran responsabilidad. Ademds de ofrecer una experiencia practica con el aprendizaje automatico utilizando Python y las bibliotecas de aprendizaje automatico basadas en Python, este libro también introduce los conceptos matematicos que hay detrds de los algoritmos de aprendizaje automatico, lo cual es esencial para utilizar el aprendizaje automatico con éxito. Por lo tanto, este libro es diferente de un libro puramente practico; es un libro que discute los detalles necesarios con respecto a los conceptos de aprendizaje automatico, ofrece explicaciones intuitivas pero informativas sobre cémo funcionan los algoritmos de aprendizaje automatico,sobre cémo usarlos y, lo mas importante, sobre cémo evitar los errores mds frecuentes. En el libro, iniciaremos un apasionante viaje que abarcaré todos los temas y conceptos esenciales para proporcionarle una ventaja en este campo. Si su sed de conocimientos no se ve satisfecha, este libro hace referencia a muchos recursos itiles que puede utilizar para seguir los avances esenciales en este campo. ido el libro Este libro es el compafiero ideal para aprender a aplicar el aprendizaje automatico y el aprendizaje profundo a una amplia gama de tareas y conjuntos de datos. Si es un programador que quiere estar al dia con las tendencias recientes en tecnologia, este libro es para usted. Si es un estudiante o esta considerando cambiar de profesién, este libro le puede servir como introduccién, ademas de ser una guia completa al mundo del aprendizaje automatico. A quién va di De qué trata el libro El capitulo 1, Dotar a los ordenadores de la capacidad de aprender de los datos, nos introduce en las principales subareas del aprendizaje automatico para abordar tareas de diversas problematicas. Ademés, se discuten los pasos esenciales para la creacién de una pipeline tfpica de construccién de modelos de aprendizaje automatico que nos guiard a través de los siguientes capitulos. El capitulo 2, Entrenamiento de algoritmos sencillos de aprendizaje automatico para tareas de clasificacién, se remonta a los origenes del aprendizaje automatico e introduce los clasificadores de perceptron binario y de neuronas lineales adaptativas. Este capitulo es una ligera introduccién a los fundamentos de la clasificacién de patrones y se centra en la interaccién de los algoritmos de optimizacién y el aprendizaje automatico. El capitulo 3, Un recorrido por los clasificadores de aprendizaje automatico con Scikit-learn, describe los algoritmos esenciales de aprendizaje automatico para la clasificacibn y proporciona ejemplos practicos utilizando una de las bibliotecas de aprendizaje automatico de cédigo abierto mas populares y completas, Scikit-learn. El capitulo 4, Elaboracién de conjuntos de datos de entrenamiento adecuados: preprocesamiento de datos, se ocupa de cémo tratar los problemas més frecuentes en los conjuntos de datos no procesados, como son los datosausentes. También analiza varios enfoques para identificar las caracteristicas ms ilustrativas en los conjuntos de datos y le ensefia a preparar variables de diferentes tipos, como entradas adecuadas, para los algoritmos de aprendizaje automatico. El capitulo 5, Compresién de datos mediante la reduccion de la dimensionalidad, describe las técnicas esenciales para reducir el numero de caracteristicas de un conjunto de datos a conjuntos mas pequefios, conservando la mayor parte de su informacién util y discriminatoria. Analiza el enfoque estandar de la reduccién de la dimensionalidad mediante el anilisis de componentes principales y lo compara con las técnicas de transformacién supervisada y no lineal. En el capitulo 6, Aprendizaje de las mejores practicas de aprendizaje para la evaluacién de modelos y el ajuste de hiperpardmetros, se analiza lo que se debe y lo que no se debe hacer para estimar el rendimiento de los modelos predictivos. Ademas, se analizan diferentes métricas para medir el rendimiento de nuestros modelos y técnicas para afinar los algoritmos de aprendizaje automatico. El capitulo 7, Combinacién de diferentes modelos para el aprendizaje de conjuntos, presenta los diferentes conceptos de la combinacién eficaz de multiples algoritmos de aprendizaje. Le ensefia a construir conjuntos de expertos para superar las debilidades de los aprendices individuales, lo que da lugar a pronésticos més precisos y fiables. El capitulo 8, Aplicacién del aprendizaje automatico al andlisis de opiniones, analiza los pasos esenciales para transformar los datos textuales en representaciones comprensibles para los algoritmos de aprendizaje automatico para que puedan pronosticar las opiniones de las personas basdndose en lo que han escrito. En el capitulo 9, Pronéstico de variables objetivo continuas con anialisis de regresion, se analizan las técnicas esenciales para modelar las relaciones lineales entre las variables objetivo y las variables de respuesta para hacer pronésticos en una escala continua. Tras introducir diferentes modelos lineales, este capitulo también se ocupa de la regresién polinémica y de los enfoques basados en arboles. El capitulo 10, El trabajo con datos no etiquetados: andlisis de clustering, cambia el enfoque a una subarea diferente del aprendizaje automitico, el aprendizaje no supervisado. Aplicamos algoritmos de tres familiasfundamentales de algoritmos de clustering para encontrar grupos de objetos que comparten cierto grado de similitud. El capitulo 11, Implementacién de redes neuronales artificiales multicapa desde cero, amplia el concepto de optimizacién basada en el gradiente, que introdujimos por primera vez en el capitulo 2, Entrenamiento de algoritmos sencillos de aprendizaje automatico para tareas de clasificacién, para crear potentes redes neuronales multicapa basadas en el popular algoritmo de retropropagacion en Python. El capitulo 12, Paralelizacién del entrenamiento de redes neuronales con PyTorch, se basa en los conocimientos del capitulo anterior para proporcionarle una guia practica con la que entrenar redes neuronales de forma mas eficiente. Este capitulo se centra en PyTorch, una biblioteca de cédigo abierto de Python que nos permite utilizar varios nticleos de las GPU modernas y construir redes neuronales profundas a partir de bloques de construccién comunes mediante una API flexible y facil de usar. El capitulo 13, Profundizacién: la mecdnica de PyTorch, retoma lo que dejé el capitulo anterior e introduce conceptos y funcionalidades mds avanzadas de PyTorch. PyTorch es una biblioteca extraordinariamente vasta y sofisticada, y este capitulo le guia a través de conceptos como los grafos de cdlculo dindmico y la diferenciacién automatica. También aprenderé a utilizar la API orientada a objetos de PyTorch para implementar redes neuronales complejas y para entender cémo PyTorch Lightning le ayuda con las mejores practicas a minimizar el cédigo boilerplate. El capitulo 14, Clasificacién de imagenes con redes neuronales convolucionales profundas, presenta las redes neuronales convolucionales (CNN). Una CNN representa un tipo particular de arquitectura de red neuronal profunda que es particularmente adecuada para trabajar con conjuntos de datos de imagenes. Debido a su superior rendimiento en comparacién con los enfoques tradicionales, las CNN se utilizan ahora ampliamente en la visi6n por ordenador para lograr resultados de vanguardia en diversas tareas de reconocimiento de imagenes. A lo largo de este capitulo, aprenderaé cémo las capas convolucionales pueden utilizarse como potentes extractores de caracteristicas para la clasificacion de imagenes. El capitulo 15, Modelizacién de datos secuenciales mediante redes neuronales recurrentes, presenta otra arquitectura de red neuronal muy extendida para el aprendizaje profundo, que es especialmente adecuada para trabajar con texto y otros tipos de datos secuenciales y datos de series temporales. Como ejercicio de calentamiento, este capitulo presenta las redes neuronales recurrentes parapronosticar las opiniones de las resefias de peliculas. A continuacién, ensefiaremos a las redes recurrentes a digerir informacién de libros para generar un texto completamente nuevo. El capitulo 16, Transformadores: mejora del procesamiento del lenguaje natural con mecanismos de atencién, se centra en las wltimas tendencias del procesamiento del lenguaje natural y explica como los mecanismos de atencién ayudan a modelar relaciones complejas en secuencias largas. Este capitulo describe la influyente arquitectura de los transformadores y los modelos de transformadores mas avanzados, como BERT y GPT. El capitulo 17, Redes generativas antagénicas con las que sintetizar nuevos datos, presenta un popular régimen de entrenamiento adversario para redes neuronales, que puede utilizarse para generar nuevas imagenes de aspecto realista. El capitulo comienza con una breve introduccién a los autocodificadores, que son un tipo particular de arquitectura de red neuronal que puede utilizarse para la compresién de datos. A continuacién, se muestra cémo combinar la parte decodificadora de un autocodificador con una segunda red neuronal que puede distinguir entre imagenes reales y sintetizadas. Dejando que dos redes neuronales compitan entre si en un enfoque de entrenamiento adversario, implementard una red generativa antagénicas que generara nuevos digitos como los escritos a mano. El capitulo 18, Redes neuronales de grafos para captar las dependencias en datos estructurados en grafos, va mas all4 del trabajo con conjuntos de datos tabulares, imagenes y texto. Este capitulo presenta las redes neuronales de grafos que operan con datos estructurados en grafos, como son los de las redes sociales y las moléculas. Tras explicar los fundamentos de las convoluciones de grafos, este capitulo incluye un tutorial que muestra c6mo implementar modelos predictivos para datos moleculares. El capitulo 19, Aprendizaje reforzado para la toma de decisiones en entornos complejos, abarca una subcategoria del aprendizaje automatico que se utiliza habitualmente para el entrenamiento de robots y otros sistemas auténomos. Este capitulo comienza introduciendo los fundamentos del aprendizaje reforzado (Reinforcement Learning, RL) para familiarizarse con las interacciones agente/entorno, el proceso de recompensa de los sistemas RL y el concepto de aprendizaje a partir de la experiencia. Después de conocer las principales categorias de RL, se implementara y entrenara un agente que puede navegar en un entorno de mundo cuadriculado utilizando el algoritmo Q- learning. Por tltimo, este capitulo presenta el algoritmo Q-learning profundo, que es una variante de Q-learning que utiliza redes neuronales profundas.
También podría gustarte
Data Science & IA
PDF
100% (2)
Data Science & IA
113 páginas
Libra Analisis de Datos Con R PDF
PDF
80% (5)
Libra Analisis de Datos Con R PDF
219 páginas
(Bruce-Gedeck) Estadística Práctica para Ciencia de Datos Con R y Python
PDF
75% (4)
(Bruce-Gedeck) Estadística Práctica para Ciencia de Datos Con R y Python
362 páginas
TensorFlow Spanish PDF
PDF
Aún no hay calificaciones
TensorFlow Spanish PDF
5 páginas
2024-04-30-193543-Estadistica Python
PDF
Aún no hay calificaciones
2024-04-30-193543-Estadistica Python
292 páginas
Ingenieria de Datos Con PYTHON
PDF
Aún no hay calificaciones
Ingenieria de Datos Con PYTHON
101 páginas
Deep Learning Con Python
PDF
100% (3)
Deep Learning Con Python
108 páginas
Estadistica Al Desnudo
PDF
100% (3)
Estadistica Al Desnudo
273 páginas
Problemas, Modelos, Grafos Y Algoritmos: Miguel Toro Bonilla
PDF
Aún no hay calificaciones
Problemas, Modelos, Grafos Y Algoritmos: Miguel Toro Bonilla
309 páginas
Redes Neuronales y Sistemas Borrosos 3 Ed Benifacio Martin Del Brio Alfredo Sanz Molina
PDF
100% (3)
Redes Neuronales y Sistemas Borrosos 3 Ed Benifacio Martin Del Brio Alfredo Sanz Molina
442 páginas
Aprendizaje Automatico y Profundo en Python
PDF
100% (1)
Aprendizaje Automatico y Profundo en Python
345 páginas
Libro Mineria de Datos Tecnicas
PDF
100% (11)
Libro Mineria de Datos Tecnicas
644 páginas
Python Data Analytics - With Pandas, NumPy, and Matplotlib
PDF
Aún no hay calificaciones
Python Data Analytics - With Pandas, NumPy, and Matplotlib
396 páginas
Guía Ninja PDF
PDF
100% (1)
Guía Ninja PDF
42 páginas
Tratamiento de Datos
PDF
100% (4)
Tratamiento de Datos
367 páginas
Machine Learning Analisis de Regresion
PDF
Aún no hay calificaciones
Machine Learning Analisis de Regresion
10 páginas
Ciencia de Datos en El Sector Público (2022)
PDF
Aún no hay calificaciones
Ciencia de Datos en El Sector Público (2022)
62 páginas
Chollet 2018 Español
PDF
100% (7)
Chollet 2018 Español
557 páginas
PythonDL Parte1
PDF
Aún no hay calificaciones
PythonDL Parte1
94 páginas
Análisis Estadístico Con R - Antonio Quispe
PDF
100% (1)
Análisis Estadístico Con R - Antonio Quispe
396 páginas
Algoritmos y Validación de Modelos de Machine Learning
PDF
100% (1)
Algoritmos y Validación de Modelos de Machine Learning
79 páginas
Machine Learning Con Python Aprendizaje Supervisado
PDF
100% (1)
Machine Learning Con Python Aprendizaje Supervisado
114 páginas
Python Data Analysis-Packt (2021) - Español
PDF
100% (2)
Python Data Analysis-Packt (2021) - Español
445 páginas
Machine Learning Es PDF
PDF
100% (4)
Machine Learning Es PDF
76 páginas
Analisis de Datos
PDF
100% (6)
Analisis de Datos
177 páginas
Matemáticas para Ciencia de Datos
PDF
100% (1)
Matemáticas para Ciencia de Datos
10 páginas
Principales Algoritmos Utilizados - Aprende Machine Learning PDF
PDF
86% (7)
Principales Algoritmos Utilizados - Aprende Machine Learning PDF
24 páginas
Estadística y Probabilidades para Machine Learning PRESENTACIÓN PDF
PDF
100% (6)
Estadística y Probabilidades para Machine Learning PRESENTACIÓN PDF
208 páginas
Febrero
PDF
Aún no hay calificaciones
Febrero
3 páginas
Ciencia de Datos Con Python
PDF
Aún no hay calificaciones
Ciencia de Datos Con Python
19 páginas
VII Programa de Especialización en Machine Learning Con Python2020
PDF
Aún no hay calificaciones
VII Programa de Especialización en Machine Learning Con Python2020
7 páginas
Alice Zhao SQL Pocket Guide A Guide To SQL Usage O'Reilly Media
PDF
100% (2)
Alice Zhao SQL Pocket Guide A Guide To SQL Usage O'Reilly Media
460 páginas
Estadistica Practica para R
PDF
83% (6)
Estadistica Practica para R
643 páginas
2021 Programa Ciencia de Datos
PDF
100% (1)
2021 Programa Ciencia de Datos
17 páginas
Módulo 3 - Ejemplos de Proyectos en El Ámbito de La Ciencia de Datos
PDF
Aún no hay calificaciones
Módulo 3 - Ejemplos de Proyectos en El Ámbito de La Ciencia de Datos
34 páginas
Redes Neuronales Convolucionales
PDF
Aún no hay calificaciones
Redes Neuronales Convolucionales
115 páginas
Machine Learning
PDF
100% (1)
Machine Learning
48 páginas
Scikit Learn Es
PDF
Aún no hay calificaciones
Scikit Learn Es
27 páginas
Matematicas para Ai
PDF
100% (6)
Matematicas para Ai
611 páginas
Inbound 7777832239088053368
PDF
91% (11)
Inbound 7777832239088053368
478 páginas
Gráficas Con MatPlotLib PDF
PDF
100% (2)
Gráficas Con MatPlotLib PDF
98 páginas
Machine Learning Con Python Aprendizaje Supervisado Spanish Edition
PDF
83% (6)
Machine Learning Con Python Aprendizaje Supervisado Spanish Edition
111 páginas
Aprendeml Sample
PDF
Aún no hay calificaciones
Aprendeml Sample
126 páginas
Automatizar
PDF
86% (7)
Automatizar
181 páginas
Python Numpy
PDF
Aún no hay calificaciones
Python Numpy
14 páginas
TensorFlow en 1 Día Haz Tu Propia Red Neuronal (Spanish Edition) by Krishna Rungta (Rungta, Krishna)
PDF
100% (9)
TensorFlow en 1 Día Haz Tu Propia Red Neuronal (Spanish Edition) by Krishna Rungta (Rungta, Krishna)
450 páginas
Ciencias de Datos Con Python
PDF
100% (3)
Ciencias de Datos Con Python
40 páginas
Numpy Es
PDF
100% (2)
Numpy Es
46 páginas
Pandas
PDF
100% (5)
Pandas
172 páginas
Data Sciencitis y Lenguaje R
PDF
88% (8)
Data Sciencitis y Lenguaje R
481 páginas
Python For Excel - ESPAÑOL
PDF
100% (11)
Python For Excel - ESPAÑOL
338 páginas
IArtificial Net
PDF
Aún no hay calificaciones
IArtificial Net
245 páginas
CienciaDeDatosConPython Ed2018
PDF
86% (7)
CienciaDeDatosConPython Ed2018
60 páginas
Aprendizaje Profundo Una Introducción A Los Fundamentos Del Aprendizaje Profundo Utilizando Python (Deep Learning Fundamentals Guide Spanish Edition en Español) by Sebastian Dark (Dark, Sebastian)
PDF
100% (10)
Aprendizaje Profundo Una Introducción A Los Fundamentos Del Aprendizaje Profundo Utilizando Python (Deep Learning Fundamentals Guide Spanish Edition en Español) by Sebastian Dark (Dark, Sebastian)
101 páginas
Algoritmos y Estructuras de Datos en Python - Digital
PDF
100% (3)
Algoritmos y Estructuras de Datos en Python - Digital
252 páginas
Pytorch Vs Tensorflow Vs Keras - Las Diferencias Que Debes Saber
PDF
Aún no hay calificaciones
Pytorch Vs Tensorflow Vs Keras - Las Diferencias Que Debes Saber
18 páginas
Calendario Marde Cores
PDF
Aún no hay calificaciones
Calendario Marde Cores
21 páginas
CD - M7 AE2 Contenidos - 2023
PDF
Aún no hay calificaciones
CD - M7 AE2 Contenidos - 2023
18 páginas
Calendario CM 2024 - Quiero Mis Redes
PDF
Aún no hay calificaciones
Calendario CM 2024 - Quiero Mis Redes
15 páginas
SanJose Spanish
PDF
Aún no hay calificaciones
SanJose Spanish
4 páginas
Deep Learning Exposicion
PDF
Aún no hay calificaciones
Deep Learning Exposicion
11 páginas
Aprendeml
PDF
100% (8)
Aprendeml
334 páginas
Manual Python DataScience
PDF
100% (6)
Manual Python DataScience
145 páginas
Copia de Machine-Learning-con-Python-Aprendizaje-Supervisado-V2
PDF
100% (14)
Copia de Machine-Learning-con-Python-Aprendizaje-Supervisado-V2
108 páginas