Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Ep 36. Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets

  • AI Papers Podcast
  • 2024-10-07
  • 158
Ep 36. Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
GrokkingDeep learning
  • ok logo

Скачать Ep 36. Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Ep 36. Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Ep 36. Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Ep 36. Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets

This episode discussed a research paper exploring neural network generalization on tiny, algorithmically generated datasets. The authors found a phenomenon called "grokking" where validation accuracy suddenly jumps after apparent overfitting. This suggests deeper understanding of patterns beyond memorization. The study revealed that grokking is tied to dataset size and optimization, and that weight decay helps. The use of binary operation tables with abstract symbols eliminates inherent structure and focuses on symbol relationships. Double descent in validation loss, where it initially decreases, increases (overfitting), and then decreases again, was observed, suggesting a link between optimization landscape and generalization. The authors also visualized learned embeddings, revealing patterns reflecting the underlying mathematical operations. The research challenges our understanding of deep learning generalization by highlighting the crucial role of optimization and the emergence of generalization even after overfitting. It opens new avenues for research into the fundamental mechanisms of deep learning.

Original paper: https://arxiv.org/pdf/2201.02177

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]