Embeddings: Word2Vec, GloVe y fastText | Clase 15 | Curso Aprendizaje Profundo 2021

Описание к видео Embeddings: Word2Vec, GloVe y fastText | Clase 15 | Curso Aprendizaje Profundo 2021

En la clase de hoy vamos a hablar sobre los embeddings, un concepto que permite codificar información semántica de las palabras en los tokens que las representan. De esta manera, los tokens de palabras cercanas en significado también se encuentren cerca a nivel númerico.

Esta clase es parte de un curso gratuito dictado en la Ciudad de Mendoza, Argentina en Otoño de 2021. Podés encontrar todo el material en https://datitos.github.io/curso-apren...




0:00 Introducción
0:42 Limitación de la Codificación One-Hot
3:29 Concepto de Embedding
5:50 Similitud del Coseno
7:55 Embeddings de Palabras
12:30 Semántica Distribucional
15:58 Skipgram vs CBOW
18:44 Armado del Dataset
23:20 Muestreo Negativo
27:54 Entrenamiento de Word2Vec
32:08 Implementación del Entrenamiento de Word2Vec con PyTorch
38:25 GloVe
48:28 fastText

Комментарии

Информация по комментариям в разработке