Deep learning

Deep learning

Principios y fundamentos

  • Author: Casas Roma, Jordi; Lozano Bagén, Toni; Bosch Rué, Anna
  • Publisher: Universitat Oberta de Catalunya
  • ISBN: 9788491806561
  • eISBN Pdf: 9788491806578
  • Place of publication:  Barcelona , Spain
  • Year of publication: 2020
  • Year of digital publication: 2020
  • Month: February
  • Pages: 260
  • Language: Spanish
En este libro se introducen los conceptos fundamentales del aprendizaje profundo (Deep learning, DL) mediante el uso de redes neuronales artificiales (Artificial neural networks, ANN). El lector podrá encontrar una revisión completa de las técnicas avanzadas más usadas en estos campos. El enfoque del libro es claramente descriptivo, con el objetivo de que el lector entienda los conceptos e ideas básicos detrás de cada algoritmo o técnica. La primera parte del libro constituye una introducción al aprendizaje profundo, en general, y a las redes neuronales, en particular. En la segunda parte se describe el funcionamiento de las redes neuronales, partiendo de conceptos básicos (como la estructura de una neurona, las principales funciones de activación, etc.) hasta alcanzar conceptos avanzados (optimización del rendimiento de las redes neuronales o estrategias para evitar el problema del sobreentrenamiento). La tercera parte presenta los fundamentos teóricos, estructura y principales arquitecturas de las redes neuronales convolucionales (Convolutional neural networks, CNN) y su aplicación en el procesamiento de imágenes. Finalmente, el cuarto bloque de este texto se centra los fundamentos teóricos, estructura y principales arquitecturas de las redes neuronales recurrentes (Recurrent neural networks, RNN) y su aplicaciones para el procesamiento de series temporales y textos.
  • Cover
  • Title page
  • Copyright page
  • Índice
  • Prefacio
  • Parte I. Introducción
    • Capítulo 1. Introducción y contextualización
      • 1.1.¿Qué es deep learning?
      • 1.2. Contextualización de las redes neuronales
    • Capítulo 2. Conceptos básicos de aprendizaje automático
      • 2.1. Tipología de métodos
      • 2.2. Tipología de tareas
      • 2.3. Preprocesamiento de datos
      • 2.4. Datos de entrenamiento y test
      • 2.5. Evaluación de modelos
  • Parte II. Redes neuronales artificiales
    • Capítulo 3. Principios y fundamentos
      • 3.1. Las neuronas
      • 3.2. Arquitectura de una red neuronal
      • 3.3. Entrenamiento de una red neuronal
      • 3.4. Ejemplo de aplicación
      • 3.5. El problema de la desaparición del gradiente
      • 3.6. Resumen
    • Capítulo 4. Optimización del proceso de aprendizaje
      • 4.1. Técnicas relacionadas con el rendimiento de la red
      • 4.2. Técnicas relacionadas con la velocidad del proceso de aprendizaje
      • 4.3. Técnicas relacionadas con el sobreentrenamiento
      • 4.4. Resumen
    • Capítulo 5. Autoencoders
      • 5.1. Estructura básica
      • 5.2. Entrenamiento de un autoencoder
      • 5.3. Preentrenamiento utilizando autoencoders
      • 5.4. Tipos de autoencoders
  • Parte III. Redes neuronales convolucionales
    • Capítulo 6. Introducción y conceptos básicos
      • 6.1. Visión por computador
      • 6.2. La operación de convolución
      • 6.3. Ventajas derivadas de la convolución
      • 6.4. Conclusiones
    • Capítulo 7. Componentes y estructura de una CNN
      • 7.1. La capa de convolución
      • 7.2. Otras capas de las CNN
      • 7.3. Estructura de una red neuronal convolucional
    • Capítulo 8. Arquitecturas de CNN
      • 8.1. Redes convolucionales clásicas
      • 8.2. Residual networks (ResNet)
      • 8.3. Inception
    • Capítulo 9. Consejos prácticos y ejemplos
      • 9.1. Consejos prácticos en el uso de las CNN
      • 9.2. Ejemplos
  • Parte IV. Redes neuronales recurrentes
    • Capítulo 10. Fundamentos de las redes recurrentes
      • 10.1. Concepto de recurrencia
      • 10.2. Tipos de redes neuronales recurrentes
      • 10.3. Entrenamiento de una red neuronal recurrente
    • Capítulo 11. Tipología de celdas recurrentes
      • 11.1. Long short term memory (LSTM)
      • 11.2. Gated recurrent unit (GRU)
    • Capítulo 12. Arquitecturas de redes recurrentes
      • 12.1. Redes neuronales recurrentes bidireccionales
      • 12.2. Redes neuronales recurrentes profundas
      • 12.3. Arquitectura codificador-decodificador
      • 12.4. Mecanismo de atención
    • Capítulo 13. Consejos prácticos y ejemplos
      • 13.1. Consejos prácticos en el uso de RNN
      • 13.2. Ejemplos
  • Parte V. Apéndices
    • Apéndice A. Notación
    • Apéndice B. Detalles del backpropagation
      • 2.1. Notación
      • 2.2. Caso particular con un único ejemplo
      • 2.3. Caso general con varios ejemplos
  • Bibliografía

SUBSCRIBE TO OUR NEWSLETTER

By subscribing, you accept our Privacy Policy