Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть InfLLM-V2: Переключаемое внимание для длинных LLM

  • AI Research Roundup
  • 2025-09-30
  • 41
InfLLM-V2: Переключаемое внимание для длинных LLM
AIAttentionDeepLearningEfficiencyInferenceLLMLargeLanguageModelsLongContextMachineLearningNLPPodcastResearchSequenceModelingSparseAttentionTransformer
  • ok logo

Скачать InfLLM-V2: Переключаемое внимание для длинных LLM бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно InfLLM-V2: Переключаемое внимание для длинных LLM или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку InfLLM-V2: Переключаемое внимание для длинных LLM бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео InfLLM-V2: Переключаемое внимание для длинных LLM

В этом выпуске обзора исследований ИИ Алекс обсуждает статью:
«InfLLM-V2: Переключаемое внимание с плотной на разреженную память для плавной адаптации с коротких на длинные (2509.24663v1)»
Авторы представляют InfLLM-V2 — обучаемую структуру разреженной памяти, которая повторно использует параметры плотной памяти с помощью архитектурной модификации без параметров, сохраняя стандартный рабочий процесс «предобучение — короткие, тонкая настройка — длинные». Она использует плотную память для коротких входных данных и плавно переключается на разреженную память для длинных последовательностей, обеспечивая эффективность при любой длине. Оптимизированная реализация дополнительно снижает накладные расходы, обеспечивая практическое ускорение. Эксперименты показывают до 4 раз более высокую скорость обработки при сохранении 98,1% производительности в задачах понимания длинного контекста и 99,7% в задачах на цепочку мыслей. URL статьи: https://arxiv.org/pdf/2509.24663

#ИИ #МашинноеОбучение #ГлубокоеОбучение #LLM #Трансформатор #SparseAttention #ДлинныйКонтекст

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]