Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Efficient Deep Learning of Robust Policies from MPC via Imitation and Tube-Guided Data Augmentation

  • AerospaceControlsLab
  • 2024-07-17
  • 763
Efficient Deep Learning of Robust Policies from MPC via Imitation and Tube-Guided Data Augmentation
  • ok logo

Скачать Efficient Deep Learning of Robust Policies from MPC via Imitation and Tube-Guided Data Augmentation бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Efficient Deep Learning of Robust Policies from MPC via Imitation and Tube-Guided Data Augmentation или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Efficient Deep Learning of Robust Policies from MPC via Imitation and Tube-Guided Data Augmentation бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Efficient Deep Learning of Robust Policies from MPC via Imitation and Tube-Guided Data Augmentation

In this work, we propose an Imitation Learning strategy to efficiently compress a computationally expensive MPC into a deep neural network policy that is robust to previously unseen disturbances.
By using a robust variant of the MPC, called Robust Tube MPC, and leveraging properties from the controller, we introduce computationally-efficient data augmentation methods that enable a significant reduction of the number of MPC demonstrations and training efforts required to generate a robust policy.
Our approach opens the possibility of zero-shot transfer of a policy trained from a single MPC demonstration collected in a nominal domain, such as a simulation or a robot in a lab/controlled environment, to a new domain with previously unseen bounded model errors/perturbations.
Numerical evaluations performed using linear and nonlinear MPC for agile flight on a multirotor show that our method outperforms strategies commonly employed in IL (such as Dataset-Aggregation (DAgger) and Domain Randomization (DR)) in terms of demonstration-efficiency, training time, and robustness to perturbations unseen during training. Experimental evaluations validate the efficiency and real-world robustness.

Arxiv: https://arxiv.org/abs/2306.00286

Accepted to the IEEE Transactions on Robotics (T-RO) 2024.

Interested to know more? Check out our related work:
Tube-NeRF: Efficient learning of vision-based policies:    • Tube-NeRF: Efficient Imitation Learning of...  
SAMA: Efficient learning of adaptive policies:    • Experimental Results for "Efficient Learni...  

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]