Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть What Happens After We Solve Continual Learning? with Stephanie Chan

  • Kempner Institute at Harvard University
  • 2026-02-09
  • 149
What Happens After We Solve Continual Learning? with Stephanie Chan
  • ok logo

Скачать What Happens After We Solve Continual Learning? with Stephanie Chan бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно What Happens After We Solve Continual Learning? with Stephanie Chan или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку What Happens After We Solve Continual Learning? with Stephanie Chan бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео What Happens After We Solve Continual Learning? with Stephanie Chan

Stephanie Chan from DeepMind visited the Kempner Seminar Series on February 6, 2026, to discuss: "What Happens After We Solve Continual Learning?"

Researchers often point to continual learning as a major missing component for modern AI models, and an area in which neuroscience may inform AI model development. With increased focus on this research area, we may soon find ourselves in a world with widely deployed continual learning agents. The benefits are endless, but continual learning also poses major challenges for AI safety and alignment — many existing techniques assume a single static base model (e.g. RLXF-based post-training), and are not suited for dynamically changing models. In this talk, I will lay out some challenges and examples. I will also describe potential starting points for technical solutions, drawing connections to catastrophic forgetting and to Quine’s “web of ideas”.

Stephanie Chan is a Staff Research Scientist at Google Deepmind. She received her PhD in computational neuroscience from Princeton University, and an SB in physics and an SB in brain & cognitive sciences, both from MIT. Her research covers a few broad areas. One set of work aims for a scientific understanding of modern AI models, especially in-context learning. She also works on developing AI systems for human enrichment and human empowerment. This has included work in AI for education, and AI to improve the information ecosystem. Now, her primary work revolves around understanding the future impacts of AI on society.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]