Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Fine-tune High Performance Sentence Transformers (with Multiple Negatives Ranking)

  • James Briggs
  • 2021-10-26
  • 9576
Fine-tune High Performance Sentence Transformers (with Multiple Negatives Ranking)
HuggingfaceTensorflowartificial intelligencebertcodecodingdata scienceeducationfine tuninggpt 2learningmachine learningnatural language processingnlpnlprocprogrammingpythonpytorchsemantic searchsentence transformerssimilarity searchtorchtutorialtutorialsvector searchvector similarity search
  • ok logo

Скачать Fine-tune High Performance Sentence Transformers (with Multiple Negatives Ranking) бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Fine-tune High Performance Sentence Transformers (with Multiple Negatives Ranking) или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Fine-tune High Performance Sentence Transformers (with Multiple Negatives Ranking) бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Fine-tune High Performance Sentence Transformers (with Multiple Negatives Ranking)

Transformer-produced sentence embeddings have come a long way in a very short time. Starting with the slow but accurate similarity prediction of BERT cross-encoders, the world of sentence embeddings was ignited with the introduction of SBERT in 2019. Since then, many more sentence transformers have been introduced. These models quickly made the original SBERT obsolete.

How did these newer sentence transformers manage to outperform SBERT so quickly? The answer is multiple negatives ranking (MNR) loss.

This video will cover what MNR loss is, the data it requires, and how to implement it to fine-tune our own high-quality sentence transformers.

Implementation will cover two approaches. The first is more involved, and outlines the exact steps to fine-tune the model (we'll just run over it quickly). The second approach makes use of the sentence-transformers library's excellent utilities for fine-tuning.

🌲 Pinecone article:
https://www.pinecone.io/learn/fine-tu...

Check out the Sentence Transformers library:
https://github.com/UKPLab/sentence-tr...

Talk by Nils Reimers (one of the SBERT creators) on training:
   • Training State-of-the-Art Sentence Embeddi...  

He does more NLP vids too:
   / @nilsreimerstalks  

🤖 70% Discount on the NLP With Transformers in Python course:
https://bit.ly/3DFvvY5

🎉 Subscribe for Article and Video Updates!
  / subscribe  
  / membership  

👾 Discord:
  / discord  

00:00 Intro
01:02 NLI Training Data
02:56 Preprocessing
10:11 SBERT Finetuning Visuals
14:14 MNR Loss Visual
16:37 MNR in PyTorch
23:04 MNR in Sentence Transformers
34:20 Results
36:14 Outro

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]