¿Por qué usamos el gradiente para entrenar Redes Neuronales? Ejemplo - Deep Learning - (Parte 6)

Описание к видео ¿Por qué usamos el gradiente para entrenar Redes Neuronales? Ejemplo - Deep Learning - (Parte 6)

Si llegaron hasta este video, de verdad ¡muchas gracias!
Al principio, pensé que esta serie sería principalmente práctica con un par de videos de teoría, pero van siete y creo faltan al menos un par más. No obstante, estamos casi por empezar implementando nuestros modelos en código. Este video es un ejemplo muy simple para tener una mejor intuición de cómo el gradiente, o en este ejemplo la derivada, funciona para estimar el impacto de una variable de entrada en la salida de una función. En el siguiente video se analizarán un par de pasos de descenso por gradientes en una arquitectura muy sencilla de Red Neuronal, lo que nos permitirá observar cómo nuestros parámetros W y b afectan nuestra función de Costo.


Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).

About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Комментарии

Информация по комментариям в разработке