Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Homunculus 12B and GLM-4-32B-Base-32K: 2 new Arcee AI research-oriented models

  • Julien Simon
  • 2025-07-03
  • 22375
Homunculus 12B and GLM-4-32B-Base-32K: 2 new Arcee AI research-oriented models
small language modelsslmllmopen aianthropicaigen aimachine learningdata scienceopen sourcehugging face
  • ok logo

Скачать Homunculus 12B and GLM-4-32B-Base-32K: 2 new Arcee AI research-oriented models бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Homunculus 12B and GLM-4-32B-Base-32K: 2 new Arcee AI research-oriented models или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Homunculus 12B and GLM-4-32B-Base-32K: 2 new Arcee AI research-oriented models бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Homunculus 12B and GLM-4-32B-Base-32K: 2 new Arcee AI research-oriented models

In this video, I introduce two new research-oriented models that Arcee AI recently released on Hugging Face.

Homunculus is a 12 billion-parameter instruction model distilled from Qwen3-235B onto the Mistral-Nemo backbone. It was purpose-built to preserve Qwen’s two-mode interaction style—/think (deliberate chain-of-thought) and /nothink (concise answers)—while running on a single consumer GPU, and even on CPU as demonstrated in the video.

GLM-4-32B-Base-32K is an enhanced version of THUDM's GLM-4-32B-Base-0414, specifically engineered to offer robust performance over an extended context window. While the original model's capabilities degraded after 8,192 tokens, this version maintains strong performance up to a 32,000-token context, making it ideal for tasks requiring long-context understanding and processing.

⭐️⭐️⭐️ Don't forget to subscribe to be notified of future videos. You can also follow me on Medium at   / julsimon   or Substack at https://julsimon.substack.com. ⭐️⭐️⭐️

** Homunculus
https://huggingface.co/arcee-ai/Homun...
https://huggingface.co/arcee-ai/Homun...

bin/llama-cli -m ~/models/homunculus/Homunculus-Q4_K_M.gguf --color -c 65535

"Looking at multi-head attention, group-query attention, multi-query attention, and multi-head latent attention, which method would optimize inference latency for a small language model with 32 attention layers running on a 64-core Intel CPU?"

** GLM-4-32B-Base-32K
https://huggingface.co/arcee-ai/GLM-4...
https://huggingface.co/bartowski/arce...
https://www.arcee.ai/blog/extending-a...

⭐️⭐️⭐️ While you're here, I’ve got a great deal for you! If you care about your online security, you need Proton Pass — the ultra-secure password manager from the creators of Proton Mail. GET 60% OFF at https://go.getproton.me/aff_c?offer_i... ⭐️⭐️⭐️

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]