Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Talk on "What Kinds of Functions Do Neural Networks Learn? Low-Norm vs. Flat Solutions"

  • SysConTalks
  • 2026-02-19
  • 60
Talk on "What Kinds of Functions Do Neural Networks Learn? Low-Norm vs. Flat Solutions"
  • ok logo

Скачать Talk on "What Kinds of Functions Do Neural Networks Learn? Low-Norm vs. Flat Solutions" бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Talk on "What Kinds of Functions Do Neural Networks Learn? Low-Norm vs. Flat Solutions" или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Talk on "What Kinds of Functions Do Neural Networks Learn? Low-Norm vs. Flat Solutions" бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Talk on "What Kinds of Functions Do Neural Networks Learn? Low-Norm vs. Flat Solutions"

This talk investigates the fundamental differences between low-norm and flat solutions of shallow ReLU networks training problems, particularly in high-dimensional settings. We sharply characterize the regularity of the functions learned by neural networks in these two regimes. This enables us to show that global minima with small weight norms exhibit strong generalization guarantees that are dimension-independent. In contrast, local minima that are "flat" can generalize poorly as the input dimension increases. We attribute this gap to a phenomenon we call neural shattering, where neurons specialize to extremely sparse input regions, resulting in activations that are nearly disjoint across data points. This forces the network to rely on large weight magnitudes, leading to poor generalization. Our analysis establishes an exponential separation between flat and low-norm minima. In particular, while flatness does imply some degree of generalization, we show that the corresponding convergence rates necessarily deteriorate exponentially with input dimension. These findings suggest that flatness alone does not fully explain the generalization performance of neural networks.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • Talk on
    Talk on "Differentiable World Models for Physical AI"
    2 недели назад
  • But how do AI images and videos actually work? | Guest video by Welch Labs
    But how do AI images and videos actually work? | Guest video by Welch Labs
    7 месяцев назад
  • Counterfactual explanations
    Counterfactual explanations
    6 дней назад
  • Simone Brugiapaglia, From compression to depth: generative compressive sensing 2026.02.17
    Simone Brugiapaglia, From compression to depth: generative compressive sensing 2026.02.17
    2 недели назад
  • Neural networks
    Neural networks
  • [Quantum Seminar] Alexander Schmidhuber | Hamiltonian Decoded Quantum Interferometry
    [Quantum Seminar] Alexander Schmidhuber | Hamiltonian Decoded Quantum Interferometry
    2 недели назад
  • A talk on
    A talk on "Finite-Time Control and Estimation" by Dr. Rakesh Warier at IIT Bombay
    5 лет назад
  • Манухов С.И. - Теория групп - 1. Основные понятия теории групп. Часть 1
    Манухов С.И. - Теория групп - 1. Основные понятия теории групп. Часть 1
    4 дня назад
  • Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев
    Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев
    4 месяца назад
  • Я полностью перешел на Linux и больше НИКОГДА не установлю Windows
    Я полностью перешел на Linux и больше НИКОГДА не установлю Windows
    14 часов назад
  • Что НА САМОМ ДЕЛЕ происходит, когда нажимаешь
    Что НА САМОМ ДЕЛЕ происходит, когда нажимаешь "ПРИНЯТЬ ВСЕ КУКИ"?
    3 дня назад
  • Лекция от легенды ИИ в Стэнфорде
    Лекция от легенды ИИ в Стэнфорде
    1 месяц назад
  • Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?
    Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?
    9 дней назад
  • ⚡️ Срочный ответ Путина Трампу || Россия вступила войну ?
    ⚡️ Срочный ответ Путина Трампу || Россия вступила войну ?
    2 часа назад
  • Это самый глубокий уровень материи?
    Это самый глубокий уровень материи?
    1 день назад
  • Блокировка Telegram: ТОП-5 защищенных мессенджеров на замену
    Блокировка Telegram: ТОП-5 защищенных мессенджеров на замену
    8 дней назад
  • Частиц НЕ существует (Вы состоите из квантовых полей, а не из вещей) | Фейнман объясняет реальность
    Частиц НЕ существует (Вы состоите из квантовых полей, а не из вещей) | Фейнман объясняет реальность
    1 день назад
  • Альтермагнетики: новый вид магнетизма или хайп? – Семихатов, Перов
    Альтермагнетики: новый вид магнетизма или хайп? – Семихатов, Перов
    2 недели назад
  • Разработка, кибербезопасность и парадокс интеллекта — Ивар ft. Григорий Сапунов | Мыслить как ученый
    Разработка, кибербезопасность и парадокс интеллекта — Ивар ft. Григорий Сапунов | Мыслить как ученый
    1 месяц назад
  • Вся IT-база в ОДНОМ видео: Память, Процессор, Код
    Вся IT-база в ОДНОМ видео: Память, Процессор, Код
    3 месяца назад
  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей video2contact@gmail.com