Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Pre-training of BERT-based Transformer architectures explained – language and vision!

  • AI Coffee Break with Letitia
  • 2020-07-15
  • 8382
Pre-training of BERT-based Transformer architectures explained – language and vision!
AIBERTFacebookMicrosoft ResearchNLPNeural networksSOTAUNITERVL-BERTVaswaniViLBERTalgorithmanimatedanimationartificial intelligenceattention is all you needbasicsbeginnerbert question answeringcomprehensiblecomputer visiondatadeep learningeasyexampleexplainedfor beginnershistorylanguage modellearningmachine learningmachine translationmulti-modalmultimodalresearchshortteachingtransformertranslation
  • ok logo

Скачать Pre-training of BERT-based Transformer architectures explained – language and vision! бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Pre-training of BERT-based Transformer architectures explained – language and vision! или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Pre-training of BERT-based Transformer architectures explained – language and vision! бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Pre-training of BERT-based Transformer architectures explained – language and vision!

What is masked language modelling? Or next sentence prediction? And why are they working so well? If you ever wondered what tasks the Transformer architectures are trained on and how the Multimodal Transfomer learns about the connection between images and text, then this is the right video for you!
➡️ AI Coffee Break Merch! 🛍️ https://aicoffeebreak.creator-spring....

▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
🔥 Optionally, pay us a coffee to boost our Coffee Bean production! ☕
Patreon:   / aicoffeebreak  
Ko-fi: https://ko-fi.com/aicoffeebreak
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀

🎬 Ms. Coffee Bean explained the Multimodal Transformer:    • Transformer combining Vision and Language?...  
🎬 She also explained the Language-based Transformer:    • The Transformer neural network architectur...  

Content:
00:00 Pre-training strategies
00:48 Masked language modelling
03:37 Next sentence prediction
04:31 Sentence image alignment
05:07 Image region classification
06:14 Image region regression
06:53 Pre-training and fine-tuning on the downstream task

📄 This video has been enabled by the beautiful overview table in the Appendix of this paper:
VL-BERT: Su, Weijie, Xizhou Zhu, Yue Cao, Bin Li, Lewei Lu, Furu Wei, and Jifeng Dai. "Vl-bert: Pre-training of generic visual-linguistic representations." arXiv preprint arXiv:1908.08530 (2019). https://arxiv.org/pdf/1908.08530.pdf


🔗 Links:
YouTube:    / @aicoffeebreak  
Twitter:   / aicoffeebreak  
Reddit:   / aicoffeebreak  

#AICoffeeBreak #MsCoffeeBean #MachineLearning #AI #research #BERT

Video and thumbnail contain emojis designed by OpenMoji – the open-source emoji and icon project. License: CC BY-SA 4.0

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]