Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть F. Boenisch "Understanding & Mitigating Memorization in Foundation Models"@CISPAELLISSummerSchool'25

  • CISPA
  • 2025-10-22
  • 30
F. Boenisch "Understanding & Mitigating Memorization in Foundation Models"@CISPAELLISSummerSchool'25
  • ok logo

Скачать F. Boenisch "Understanding & Mitigating Memorization in Foundation Models"@CISPAELLISSummerSchool'25 бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно F. Boenisch "Understanding & Mitigating Memorization in Foundation Models"@CISPAELLISSummerSchool'25 или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку F. Boenisch "Understanding & Mitigating Memorization in Foundation Models"@CISPAELLISSummerSchool'25 бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео F. Boenisch "Understanding & Mitigating Memorization in Foundation Models"@CISPAELLISSummerSchool'25

Talk by Franziska Boenisch (CISPA Helmholtz Center for Information Security) at the CISPA ELLIS Summer School 2025 on "Trustworthy AI – Secure and Safe Foundation Models"

https://cispa.de/summer-school-2025

Abstract
Memorization occurs when machine learning models store and reproduce specific training examples at inference time—a phenomenon that raises serious concerns for privacy and intellectual property. In this talk, we will explore what it means for modern ML models to memorize data, and why this behavior has become especially relevant in large foundation models. I will present concrete ways to define and measure memorization, show how it manifests in practice, and analyze which data is most vulnerable. We will examine both large self-supervised vision encoders and state-of-the-art diffusion models. For encoders, we identify the neurons responsible for memorization, revealing insights into internal model behavior and contrasting supervised with self-supervised training. For diffusion models, I will show how to localize memorization, prune responsible neurons, and reduce overfitting to the training data—helping to mitigate privacy and copyright risks while improving generation diversity.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]