Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Using Vector Databases for Multimodal Embeddings and Search - Zain Hasan - NDC London 2024

  • NDC Conferences
  • 2024-05-15
  • 3642
Using Vector Databases for Multimodal Embeddings and Search - Zain Hasan - NDC London 2024
Machine LearningBig DataDatabaseNDCConferences2024LiveFunLondonMLZain Hasan
  • ok logo

Скачать Using Vector Databases for Multimodal Embeddings and Search - Zain Hasan - NDC London 2024 бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Using Vector Databases for Multimodal Embeddings and Search - Zain Hasan - NDC London 2024 или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Using Vector Databases for Multimodal Embeddings and Search - Zain Hasan - NDC London 2024 бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Using Vector Databases for Multimodal Embeddings and Search - Zain Hasan - NDC London 2024

This talk was recorded at NDC London in London, England. #ndclondon #ndcconferences #developer #softwaredeveloper

Attend the next NDC conference near you:
https://ndcconferences.com
https://ndclondon.com/

Subscribe to our YouTube channel and learn every day:
/ ‪@NDC‬

Follow our Social Media!

  / ndcconferences  
  / ndc_conferences  
  / ndc_conferences  

#machinelearning #database #bigdata

Many real-world problems are inherently multimodal, from the communicative modalities humans use such as spoken language and gestures to the force, proprioception, and visual sensors ubiquitous in robotics. In order for machine learning models to address these problems and interact more naturally and wholistically with the world around them and ultimately be more general and powerful reasoning engines we need them to understand data across all of its corresponding image, video, text, audio, and tactile representations.

In this talk, Zain Hasan will discuss how we can use open-source multimodal models (such as https://github.com/facebookresearch/I..., that can see, hear, read, and feel data(!), to perform cross-modal search(searching audio with images, videos with text etc.) at the billion-object scale with the help of open source vector databases. I will also demonstrate, with live code demos and large-scale datasets, how being able to perform this cross-modal retrieval in real-time can help users add natural search interfaces to their apps. This talk will revolve around how we scaled the usage of multimodal embedding models in production and how you can add cross-modal search into your apps.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]