Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Build an LLM from Scratch 3: Coding attention mechanisms

  • Sebastian Raschka
  • 2025-03-11
  • 33509
Build an LLM from Scratch 3: Coding attention mechanisms
LLMsPyTorchLarge Language ModelsAIArtificial IntelligencePythonDeep LearningCodingCode
  • ok logo

Скачать Build an LLM from Scratch 3: Coding attention mechanisms бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Build an LLM from Scratch 3: Coding attention mechanisms или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Build an LLM from Scratch 3: Coding attention mechanisms бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Build an LLM from Scratch 3: Coding attention mechanisms

Links to the book:
https://amzn.to/4fqvn0D (Amazon)
https://mng.bz/M96o (Manning)

Link to the GitHub repository: https://github.com/rasbt/LLMs-from-sc...

This is a supplementary video explaining how attention mechanisms (self-attention, causal attention, multi-head attention) work by coding them from scratch.

00:00 3.3.1 A simple self-attention mechanism without trainable weights
41:01 3.3.2 Computing attention weights for all input tokens
52:40 3.4.1 Computing the attention weights step by step
1:12:33 3.4.2 Implementing a compact SelfAttention class
1:21:00 3.5.1 Applying a causal attention mask
1:32:33 3.5.2 Masking additional attention weights with dropout
1:38:05 3.5.3 Implementing a compact causal self-attention class
1:46:55 3.6.1 Stacking multiple single-head attention layers
1:58:55 3.6.2 Implementing multi-head attention with weight splits

You can find additional bonus materials on GitHub:

Comparing Efficient Multi-Head Attention Implementations, https://github.com/rasbt/LLMs-from-sc...

Understanding PyTorch Buffers, https://github.com/rasbt/LLMs-from-sc...

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]