Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть 1W-MINDS, Dec. 4: Minxin Zhang (UCLA), Structure-Aware Adaptive Nonconvex Optimization for Deep...

  • Mark Iwen
  • 2025-12-04
  • 48
1W-MINDS, Dec. 4:  Minxin Zhang (UCLA), Structure-Aware Adaptive Nonconvex Optimization for Deep...
  • ok logo

Скачать 1W-MINDS, Dec. 4: Minxin Zhang (UCLA), Structure-Aware Adaptive Nonconvex Optimization for Deep... бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно 1W-MINDS, Dec. 4: Minxin Zhang (UCLA), Structure-Aware Adaptive Nonconvex Optimization for Deep... или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку 1W-MINDS, Dec. 4: Minxin Zhang (UCLA), Structure-Aware Adaptive Nonconvex Optimization for Deep... бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео 1W-MINDS, Dec. 4: Minxin Zhang (UCLA), Structure-Aware Adaptive Nonconvex Optimization for Deep...

Structure-Aware Adaptive Nonconvex Optimization for Deep Learning and Scientific Computing

Modern machine learning and scientific computing pose optimization challenges of unprecedented scale and complexity, demanding fundamental advances in both theory and algorithmic design for nonconvex optimization. This talk presents recent advances that address these challenges by exploiting matrix and tensor structures, integrating adaptivity, and leveraging sampling techniques. In the first part, I introduce AdaGO, a new optimizer that combines orthogonalized momentum updates with adaptive learning rates. Building on the recent success of the Muon optimizer in large language model training, AdaGO incorporates an AdaGrad-type stepsize that scales orthogonalized update directions by accumulated past gradient norms. This design preserves the structural advantage of orthogonalized updates while adapting stepsizes to noise and the optimization landscape. We establish optimal convergence rates for smooth nonconvex functions and demonstrate improved performance over Muon and Adam on classification and regression tasks. The second part focuses on zeroth-order global optimization. We develop a theoretical framework for inexact proximal point (IPP) methods for global optimization, establishing convergence guarantees when proximal operators are estimated either deterministically or stochastically. The quadratic regularization in the proximal operator induces a concentrated Gibbs measure landscape that facilitates effective sampling. We propose two sampling-based algorithms: TT-IPP, which constructs a low-rank tensor-train (TT) approximation using a randomized TT-cross algorithm, and MC-IPP, which employs Monte Carlo integration. Both IPP algorithms adaptively balance efficiency and accuracy in proximal operator estimation, achieving strong performance across diverse benchmark functions and applications. Together, these works advance structure-aware adaptive first-order optimization for deep learning and zeroth-order global optimization in scientific computing.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]