DLRL Summer School 2022 - Mi Jung Park - Privacy-Preserving Deep Learning

Описание к видео DLRL Summer School 2022 - Mi Jung Park - Privacy-Preserving Deep Learning

Speaker: Mi Jung Park, Canada CIFAR AI Chair, Amii; Assistant Professor, University of British Columbia

"In this lecture, I will describe the gold standard privacy notion, called differential privacy, and how the privacy notion is applied to the training of large-scale deep learning models. I will also talk about deep generative modelling with the aim of privacy-preserving data generation. In the last section of the lecture, I will present how the privacy notion trades off with other emerging notions in machine learning such as interpretability, fairness, and causality."

Mijung’s primary focus is on building privacy-preserving machine learning algorithms using a sophisticated mathematical notion called differential privacy. Her other research interests include: compressing neural network models using Bayesian methods, and; understanding the relationships between differential privacy and other emerging notions in machine learning such as fairness, interpretability, and causality.

----
Apprentissage profond et confidentialité
Mi Jung Park, Chaires en IA Canada-CIFAR, Amii ; professeur adjoint, Université de la Colombie-Britannique

« Dans cette présentation, nous décrirons la confidentialité différentielle, une notion de référence en matière de confidentialité, et la façon dont elle est appliquée à la formation de modèles d’apprentissage profond à grande échelle. Nous parlerons également de la modélisation générative profonde visant à produire des données en toute confidentialité. Dans la dernière partie, nous expliquerons comment la notion de confidentialité exige un compromis quant à d’autres notions émergentes en apprentissage automatique, telles que l’interprétabilité, l’équité et la causalité. »

Mijung Park se concentre principalement sur la création d’algorithmes d’apprentissage automatique qui préserve la confidentialité à l’aide d’une notion mathématique sophistiquée appelée « confidentialité différentielle ». Elle s’intéresse également à la compression des modèles de réseaux neuronaux au moyen de méthodes bayésiennes et à la compréhension des relations entre la confidentialité différentielle et d’autres notions émergentes en apprentissage automatique comme l’équité, l’interprétabilité et la causalité.

Комментарии

Информация по комментариям в разработке