[Open DMQA Seminar] Conditional Diffusion Models

Описание к видео [Open DMQA Seminar] Conditional Diffusion Models

생성모델은 몇년동안 눈부신 발전을 이루어 왔다. 그 중 diffusion 모델은 높은 퀄리티와 다양성을 갖춘 샘플들을 생성하는 능력을 보였으며, text, image 등 다른 modality 를 condition 으로 주어 사용자가 원하는 이미지를 생성하는 방법론 또한 발전해 왔다. 이에 본 세미나는 diffusion 모델의 근본적인 원리와 loss function 의 derivation, 그리고 text 등 원하는 샘플을 생성하는 conditional diffusion 모델에 대해 살펴본다.

[1] Sohl-Dickstein, Jascha, et al. "Deep unsupervised learning using nonequilibrium thermodynamics." International Conference on Machine Learning. PMLR, 2015

[2] Ho, Jonathan, Ajay Jain, and Pieter Abbeel. "Denoising diffusion probabilistic models." Advances in Neural Information Processing Systems 33 (2020): 6840-6851

[3] Kingma, Diederik P., and Max Welling. "Auto-encoding variational bayes." arXiv preprint arXiv:1312.6114 (2013)

[4] Dhariwal, Prafulla, and Alexander Nichol. "Diffusion models beat gans on image synthesis." Advances in Neural Information Processing Systems 34 (2021): 8780-8794

[5] Ho, Jonathan, and Tim Salimans. "Classifier-free diffusion guidance." arXiv preprint arXiv:2207.12598 (2022)

[6] Rombach, Robin, et al. "High-resolution image synthesis with latent diffusion models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022

Комментарии

Информация по комментариям в разработке