Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть TUTEL-MoE-STACK OPTIMIZATION FOR MODERN DISTRIBUTED TRAINING | RAFAEL SALAS & YIFAN XIONG

  • PyTorch
  • 2021-12-15
  • 648
TUTEL-MoE-STACK OPTIMIZATION FOR MODERN DISTRIBUTED TRAINING | RAFAEL SALAS & YIFAN XIONG
  • ok logo

Скачать TUTEL-MoE-STACK OPTIMIZATION FOR MODERN DISTRIBUTED TRAINING | RAFAEL SALAS & YIFAN XIONG бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно TUTEL-MoE-STACK OPTIMIZATION FOR MODERN DISTRIBUTED TRAINING | RAFAEL SALAS & YIFAN XIONG или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку TUTEL-MoE-STACK OPTIMIZATION FOR MODERN DISTRIBUTED TRAINING | RAFAEL SALAS & YIFAN XIONG бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео TUTEL-MoE-STACK OPTIMIZATION FOR MODERN DISTRIBUTED TRAINING | RAFAEL SALAS & YIFAN XIONG

The Mixture-of-Experts (MoE) is a sparsely activated deep learning model architecture that has sublinear compute costs with respect to their parameters. MoE is one of the few scalable approaches for training trillion-parameter scale deep learning models. This talk will present Tutel, an open-source project built with the Pytorch framework. Tutel is being actively developed by Microsoft and has been integrated into Microsoft’s Deepspeed project as well as Meta’s Fairseq project. Tutel currently supports both CUDA and ROCm. Tutel aims to improve the end-to-end MoE performance on the Azure Platform for large-scale deep learning training. We demonstrate number of Tutel results on the Microsoft Azure NDv4 platform: 7.49x speedup for a single MoE layer; 1.75x speedup on 64 VMs (over the default Fairseq implementation); and 40% end-to-end speedup on 64 VMs for Meta’s GPT-3 MoE. Tutel currently supports both CUDA and ROCm and leverages All-to-All communication improvements from Microsoft’s MSCCL library. We encourage the PyTorch developer community to explore Tutel for scaling their respective MoE models!

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]