Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть QwenLong-L1.5: Long-Context LLM Training

  • AI Research Roundup
  • 2025-12-16
  • 75
QwenLong-L1.5: Long-Context LLM Training
AIAIPaperContextWindowDeepLearningGRPOLLMLanguageModelsLongContextMachineLearningMemoryManagementNLPPodcastRLHFReinforcementLearningResearch
  • ok logo

Скачать QwenLong-L1.5: Long-Context LLM Training бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно QwenLong-L1.5: Long-Context LLM Training или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку QwenLong-L1.5: Long-Context LLM Training бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео QwenLong-L1.5: Long-Context LLM Training

In this AI Research Roundup episode, Alex discusses the paper: 'QwenLong-L1.5: Post-Training Recipe for Long-Context Reasoning and Memory Management' The episode breaks down how QwenLong-L1.5 proposes a post-training recipe to boost long-context reasoning and memory in large language models, starting from Qwen3-30B-A3B-Thinking. Alex explains the long-context data synthesis pipeline that decomposes documents into atomic facts, builds cross-document knowledge graphs, and generates complex multi-hop tasks with globally distributed evidence. The discussion covers how a multi-agent self-evolve loop and rule-based checks curate a high-quality RL dataset for contexts up to and beyond 64K tokens. Alex also explores their stabilized reinforcement learning approach using Group-Relative Policy Optimization and Adaptive Entropy-Controlled Policy Optimization to keep training stable on ultra-long sequences, including beyond 1 million tokens. Paper URL: https://arxiv.org/abs/2512.12967 #AI #MachineLearning #DeepLearning #LongContext #LLM #ReinforcementLearning #LanguageModels #MemoryManagement

Resources:
GitHub: https://github.com/Tongyi-Zhiwen/Qwen...
Hugging Face model: https://huggingface.co/Tongyi-Zhiwen/...

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]