Carlos Pineda
Aprendizaje automático y profundo en python (eBook, ePUB)
Una mirada hacia la inteligencia artificial
16,99 €
inkl. MwSt.
Sofort per Download lieferbar
Carlos Pineda
Aprendizaje automático y profundo en python (eBook, ePUB)
Una mirada hacia la inteligencia artificial
- Format: ePub
- Merkliste
- Auf die Merkliste
- Bewerten Bewerten
- Teilen
- Produkt teilen
- Produkterinnerung
- Produkterinnerung
Bitte loggen Sie sich zunächst in Ihr Kundenkonto ein oder registrieren Sie sich bei
bücher.de, um das eBook-Abo tolino select nutzen zu können.
Hier können Sie sich einloggen
Hier können Sie sich einloggen
Sie sind bereits eingeloggt. Klicken Sie auf 2. tolino select Abo, um fortzufahren.
Bitte loggen Sie sich zunächst in Ihr Kundenkonto ein oder registrieren Sie sich bei bücher.de, um das eBook-Abo tolino select nutzen zu können.
Es una herramienta de apoyo y de consulta para toda aquella persona interesada en dominar los fundamentos del aprendizaje automático y profundo, a tal punto que le permita aprender lo necesario para desarrollar sus propios modelos de aprendizaje aptos para realizar predicciones con base en los datos, para ello el autor hará uso en la mayoría de los casos de explicaciones teóricas y prácticas, que permitan al lector afianzar sus ideas y fortalecer su aprendizaje. El libro se encuentra dividido en dos partes la primera enfocada en el machine learning y sus diferentes algoritmos de regresión y…mehr
- Geräte: eReader
- ohne Kopierschutz
- eBook Hilfe
- Größe: 8.62MB
- Upload möglich
Andere Kunden interessierten sich auch für
- Camilo Chacón SartoriPrincipios de programación (eBook, ePUB)29,99 €
- Tariq RashidGANs mit PyTorch selbst programmieren (eBook, ePUB)29,90 €
- Oliver ZeigermannMachine Learning – kurz & gut (eBook, ePUB)19,90 €
- Andreas C. MüllerEinführung in Machine Learning mit Python (eBook, ePUB)39,90 €
- David FosterGeneratives Deep Learning (eBook, ePUB)39,90 €
- Alice ZhengMerkmalskonstruktion für Machine Learning (eBook, ePUB)34,90 €
- Aurélien GéronPraxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow (eBook, ePUB)54,90 €
-
-
-
Es una herramienta de apoyo y de consulta para toda aquella persona interesada en dominar los fundamentos del aprendizaje automático y profundo, a tal punto que le permita aprender lo necesario para desarrollar sus propios modelos de aprendizaje aptos para realizar predicciones con base en los datos, para ello el autor hará uso en la mayoría de los casos de explicaciones teóricas y prácticas, que permitan al lector afianzar sus ideas y fortalecer su aprendizaje. El libro se encuentra dividido en dos partes la primera enfocada en el machine learning y sus diferentes algoritmos de regresión y clasificación, clustering, entre otros. La segunda parte comprende varias técnicas de deep learning donde estudiaremos diferentes arquitecturas de redes neuronales como: redes densamente conectadas, redes convolucionales y redes recurrentes.
Produktdetails
- Produktdetails
- Verlag: Ediciones de la U
- Seitenzahl: 340
- Erscheinungstermin: 4. Oktober 2022
- Spanisch
- ISBN-13: 9789587924206
- Artikelnr.: 66871786
- Verlag: Ediciones de la U
- Seitenzahl: 340
- Erscheinungstermin: 4. Oktober 2022
- Spanisch
- ISBN-13: 9789587924206
- Artikelnr.: 66871786
CARLOS M. PINEDA PERTUZ Ingeniero de sistemas, especialista en informática y telemática y magister en ingeniería de software y sistemas informáticos. Soy amante de la lectura, la investigación, las nuevas tecnologías y todo lo relacionado con la programación. Soy docente universitario y he participado en varios proyectos de desarrollo de sistemas informáticos en diversos lenguajes de programación.
Prólogo Introducción CAPÍTULO 1. Conceptos básicos de programación en Python 3.9 1.1 Entorno de desarrollo y primeros pasos 1.2 Variables, Tipos de datos y operadores 1.3 Estructuras de datos: Tuplas, listas y diccionarios 1.4 Estructuras selectivas 1.5 Estructuras repetitivas1.6 Funciones 1.7 Clases y objetos CAPÍTULO 2. Introducción al Aprendizaje Automático 2.1 ¿Qué es aprendizaje automático? 2.2 Conceptos de aprendizaje automático 2.3 Tipos de aprendizaje automático40 2.4 Problemas tipicos en aprendizaje automático 2.5 Metodología CRISP-DM CAPÍTULO 3. Herramientas para el aprendizaje automático 3.1 Manejo básico de datos con PANDAS 3.2 Manejo de arreglos con Numpy 3.2.1. Creación de arreglos 3.2.2. Acceso a elementos 3.2.3. Redimensionamiento 3.2.4. Operaciones matemáticas 3.3 Creando gráficos con Matplotlib 3.3.1 Gráficos de líneas 3.3.2 Gráficos de barras 3.3.3 Diagramas de dispersión 3.3.4. Histogramas 3.3.5. Diagrama de caja y bigotes 3.4 Breve Introducción a Scikit-Learn CAPÍTULO 4. Preprocesado de datos 4.1 ¿Que es el preprocesado de datos? 4.2 Creación de conjunto de entrenamiento y pruebas 4.3 Manejo de datos ausentes 4.4 Manejo de datos categóricos 4.5 Escalamiento de características CAPÍTULO 5. Modelos de regresión 5.1 Visualización de la relación entre características del conjunto de datos 5.2 Solución mediante el enfoque de mínimos cuadrados 5.3 Descenso del gradiente 5.4 Regresión lineal mediante scikit-learn 5.4.1. Regresión Simple 5.4.2 Regresión múltiple 5.5 Regresión con random sample consensus (RAMSAC) 5.6 Regresión lineal polinómica 5.7 Regresión lineal múltiple en notación matricial 5.8 Modelos no lineales 5.8.1 Funciones no lineales 5.8.2 Ejemplo suscripciones de telefonía CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de hiperparámetros 6.1. Regularización 6.1.1 Regresión Rígida 6.1.2 Regresión Lasso 6.1.3 Red elástica 6.2. Métricas y técnicas de validación de modelos de regresión 6.2.1 Error absoluto medio (MAE) 6.2.2 Error cuadrático medio (MSE) 6.2.3 Coeficiente de determinación (R2) 6.2.4 Validación cruzada por k iteraciones 6.3. Curvas de aprendizaje y validación 6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros CAPÍTULO 7. Modelos de Clasificación I 7.1 Perceptrón simple 7.2 Neurona lineal adaptativa (ADALINE) 7.3 Regresión logística 7.3.1 Regresión logística con scikit-learn 7.3.2 Regresión logística con el descenso del gradiente estocástico 7.3.3 Regresión logística con regularización 7.4. Métricas de evaluación 7.4.1. Matriz de confusión 7.4.2. Exactitud (Accuracy) 7.4.3. Precisión (Precision) 7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo) 7.4.5. F1 7.4.6. Tasa de falsos positivos 7.4.7. Curvas ROC (receiver operating characteristics) 7.5 Máquinas de vectores de soporte (SVM) 7.5.1. Clasificación Multiclase con SVM lineal 7.5.2. Kernels para separar datos no lineales CAPÍTULO 8. Modelos de Clasificación II 8.1 Árboles de decisión 8.1.1. Métricas para medir la separación 8.1.2. Crear y visualizar árboles de decisión 8.1.3. Identificación de características importantes 8.2 Bosques aleatorios (Random Forest) 8.3 Adaboost (Adaptative boosting) 8.4 Gradient boosting 8.5 Naive bayes 8.6 K Vecinos mas cercanos (KNN) 8.7 Sistemas de recomendación 8.7.1. Sistemas de recomendación basados en contenido 8.7.2. Sistema de recomendación basado en filtro colaborativo 220 8.8 Entrenamiento mediante aprendizaje en línea CAPÍTULO 9. Clustering CAPÍTULO 10. Reducción de la dimensionalidad CAPÍTULO 11. Introducción a las redes neuronales
Prólogo Introducción CAPÍTULO 1. Conceptos básicos de programación en Python 3.9 1.1 Entorno de desarrollo y primeros pasos 1.2 Variables, Tipos de datos y operadores 1.3 Estructuras de datos: Tuplas, listas y diccionarios 1.4 Estructuras selectivas 1.5 Estructuras repetitivas1.6 Funciones 1.7 Clases y objetos CAPÍTULO 2. Introducción al Aprendizaje Automático 2.1 ¿Qué es aprendizaje automático? 2.2 Conceptos de aprendizaje automático 2.3 Tipos de aprendizaje automático40 2.4 Problemas tipicos en aprendizaje automático 2.5 Metodología CRISP-DM CAPÍTULO 3. Herramientas para el aprendizaje automático 3.1 Manejo básico de datos con PANDAS 3.2 Manejo de arreglos con Numpy 3.2.1. Creación de arreglos 3.2.2. Acceso a elementos 3.2.3. Redimensionamiento 3.2.4. Operaciones matemáticas 3.3 Creando gráficos con Matplotlib 3.3.1 Gráficos de líneas 3.3.2 Gráficos de barras 3.3.3 Diagramas de dispersión 3.3.4. Histogramas 3.3.5. Diagrama de caja y bigotes 3.4 Breve Introducción a Scikit-Learn CAPÍTULO 4. Preprocesado de datos 4.1 ¿Que es el preprocesado de datos? 4.2 Creación de conjunto de entrenamiento y pruebas 4.3 Manejo de datos ausentes 4.4 Manejo de datos categóricos 4.5 Escalamiento de características CAPÍTULO 5. Modelos de regresión 5.1 Visualización de la relación entre características del conjunto de datos 5.2 Solución mediante el enfoque de mínimos cuadrados 5.3 Descenso del gradiente 5.4 Regresión lineal mediante scikit-learn 5.4.1. Regresión Simple 5.4.2 Regresión múltiple 5.5 Regresión con random sample consensus (RAMSAC) 5.6 Regresión lineal polinómica 5.7 Regresión lineal múltiple en notación matricial 5.8 Modelos no lineales 5.8.1 Funciones no lineales 5.8.2 Ejemplo suscripciones de telefonía CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de hiperparámetros 6.1. Regularización 6.1.1 Regresión Rígida 6.1.2 Regresión Lasso 6.1.3 Red elástica 6.2. Métricas y técnicas de validación de modelos de regresión 6.2.1 Error absoluto medio (MAE) 6.2.2 Error cuadrático medio (MSE) 6.2.3 Coeficiente de determinación (R2) 6.2.4 Validación cruzada por k iteraciones 6.3. Curvas de aprendizaje y validación 6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros CAPÍTULO 7. Modelos de Clasificación I 7.1 Perceptrón simple 7.2 Neurona lineal adaptativa (ADALINE) 7.3 Regresión logística 7.3.1 Regresión logística con scikit-learn 7.3.2 Regresión logística con el descenso del gradiente estocástico 7.3.3 Regresión logística con regularización 7.4. Métricas de evaluación 7.4.1. Matriz de confusión 7.4.2. Exactitud (Accuracy) 7.4.3. Precisión (Precision) 7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo) 7.4.5. F1 7.4.6. Tasa de falsos positivos 7.4.7. Curvas ROC (receiver operating characteristics) 7.5 Máquinas de vectores de soporte (SVM) 7.5.1. Clasificación Multiclase con SVM lineal 7.5.2. Kernels para separar datos no lineales CAPÍTULO 8. Modelos de Clasificación II 8.1 Árboles de decisión 8.1.1. Métricas para medir la separación 8.1.2. Crear y visualizar árboles de decisión 8.1.3. Identificación de características importantes 8.2 Bosques aleatorios (Random Forest) 8.3 Adaboost (Adaptative boosting) 8.4 Gradient boosting 8.5 Naive bayes 8.6 K Vecinos mas cercanos (KNN) 8.7 Sistemas de recomendación 8.7.1. Sistemas de recomendación basados en contenido 8.7.2. Sistema de recomendación basado en filtro colaborativo 220 8.8 Entrenamiento mediante aprendizaje en línea CAPÍTULO 9. Clustering CAPÍTULO 10. Reducción de la dimensionalidad CAPÍTULO 11. Introducción a las redes neuronales