Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Explaining the ‘black box’: deep learning in drug discovery

  • OptibriumLtd
  • 2025-01-29
  • 345
Explaining the ‘black box’: deep learning in drug discovery
artificial intelligenceAIXAIdeep learningexplainable AIdrug discoverypredictive modellingQSARSARimputationkinase profiling
  • ok logo

Скачать Explaining the ‘black box’: deep learning in drug discovery бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Explaining the ‘black box’: deep learning in drug discovery или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Explaining the ‘black box’: deep learning in drug discovery бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Explaining the ‘black box’: deep learning in drug discovery

Recent years have seen a remarkable rise in the number and scope of artificial intelligence and machine learning (especially deep learning) algorithms for small molecule discovery. But how can these methods provide new and transformative insights into our discovery data? How can we uncover complex relationships within our data, such as mechanisms of action or adverse outcome pathways, and guide compound design using explainable AI?

In this webinar, Dr Daniel Barr, Senior Application Scientist at Optibrium, explores, using case studies, the workings and impact of our deep learning imputation platform, Cerella™.

Through practical, real-world examples, Daniel demonstrates:

1) How deep learning imputation outperforms traditional QSAR methods when predicting activities and properties without sacrificing interpretability.
2) How these models capture more than twice the information about the relationships between endpoints than correlation analysis.
3) How Cerella’s approach improves prediction accuracy by excluding extraneous data and utilising indirect correlations that other methods miss.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]