Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть CSAIL Forum, Yoon Kim, "Efficient & Expressive Architectures for Language Modeling"

  • Symposia at CSAIL
  • 2025-04-25
  • 323
CSAIL Forum, Yoon Kim, "Efficient & Expressive Architectures for Language Modeling"
  • ok logo

Скачать CSAIL Forum, Yoon Kim, "Efficient & Expressive Architectures for Language Modeling" бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно CSAIL Forum, Yoon Kim, "Efficient & Expressive Architectures for Language Modeling" или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку CSAIL Forum, Yoon Kim, "Efficient & Expressive Architectures for Language Modeling" бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео CSAIL Forum, Yoon Kim, "Efficient & Expressive Architectures for Language Modeling"

This lecture was delivered by Prof. Yoon Kim on April 22, 2025, as part of the CSAIL Forum series. In this lecture, Prof. Yoon Kim discusses how Transformers have become the dominant architecture for language modeling — and for generative AI more broadly. The attention mechanism within Transformers is considered core to the architecture, enabling accurate sequence modeling at scale. However, the complexity of attention grows quadratically with input length, making it difficult to apply Transformers to model long sequences. Moreover, Transformers have theoretical limitations regarding the class of problems they can solve, preventing them from effectively modeling certain phenomena, such as state tracking. Prof. Kim describes recent work on efficient alternatives to Transformers that can overcome these limitations.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]