Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Understanding the Llama 3 Tokenizer | Llama for Developers

  • AI at Meta
  • 2024-06-28
  • 10622
Understanding the Llama 3 Tokenizer | Llama for Developers
Meta AIArtificial IntelligenceMeta LlamaMeta Llama 3Llama tokenizeropen source AILLMsLarge Language ModelsGroup Query AttentionTokenizerTiktokenSentencePieceVocabulary sizeInference efficiencyState-of-the-art modelLarge batch processingNatural Language Processing (NLP)Deep LearningArtificial Intelligence (AI)Machine LearningText AnalysisLanguage ModelingAI Latency reductionAI Compression ratio
  • ok logo

Скачать Understanding the Llama 3 Tokenizer | Llama for Developers бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Understanding the Llama 3 Tokenizer | Llama for Developers или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Understanding the Llama 3 Tokenizer | Llama for Developers бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Understanding the Llama 3 Tokenizer | Llama for Developers

Download Meta Llama 3 ➡️ https://go.fb.me/kbpn54

Aston Zhang, research scientist working on Llama at Meta discusses the new tokenizer in Meta Llama 3. He discusses the improvements made to the tokenizer in Meta's latest Llama 3 models. The new tokenizer uses Tiktoken instead of SentencePiece and has a larger vocabulary size of 128k, resulting in better performance on coding, reasoning, and more. The increased vocabulary size allows for more specific and nuanced encoding of inputs, while the higher compression ratio reduces the number of tokens required to represent an input. Additionally, the use of Group Query Attention helps balance out the increased memory and compute needs, resulting in a model that can process larger batches without increasing latency.

Timestamps
00:00 Introduction
00:25 What's new in the Llama 3 tokenizer?
01:58 Vocabulary size and compression ratio
13:01 Performance, efficiency and improving costs
17:46 Recap and resources


Additional Resources
• Dive into Deep Learning ebook: https://go.fb.me/ao405f
• Getting Started Guide: https://go.fb.me/xucc2m


#llama3 #llm #opensource
- -
Subscribe: https://www.youtube.com/aiatmeta?sub_...
Learn more about our work: https://ai.meta.com

Follow us on social media

Follow us on Twitter:   / aiatmeta  
Follow us on LinkedIn:   / aiatmeta  
Follow us on Threads: https://threads.net/aiatmeta
Follow us on Facebook:   / aiatmeta  

Meta AI focuses on bringing the world together by advancing AI, powering meaningful and safe experiences, and conducting open research.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]