Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Tutorial (2/3)

  • Computer Vision in the Wild (CVinW)
  • 2022-12-20
  • 357
Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Tutorial (2/3)
  • ok logo

Скачать Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Tutorial (2/3) бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Tutorial (2/3) или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Tutorial (2/3) бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Tutorial (2/3)

ECCV 2022 CVinW Workshop Invited Talk: Scaling Vision and Language Learning with Vision Transformers (Xiaohua Zhai) | Google Brain Zurich Team Tutorial (2/3)

Abstract: Attention-based neural networks such as the Vision Transformer (ViT) have recently achieved state-of-the-art results on many computer vision benchmarks. Scale is a primary ingredient in obtaining excellent results. In this talk, I will first present how to train a text model to "read out'' good representations from a pre-trained and locked Vision Transformer model for new tasks, named "Locked-image Tuning" (LiT). A LiT model gains the capability of zero-shot transfer to new vision tasks, such as image classification or retrieval. Then I will discuss how to use the mixture of experts model (LIMoE) for contrastive learning, which accepts both images and text simultaneously. Finally I will share how to reuse pre-trained ViT models and pre-trained encoder-decoder language models in PaLI, to support vision and language downstream tasks such as captioning and VQA across over 100 languages. When scaling up the PaLI visual component from ViT-G to ViT-e, we observed a significant boost on vision and language tasks.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]