DDPM(Denoising Diffusion Probabilistic Models)扩散模型由两个过程组成:forward process(diffusion process)以及reverse process。
forward process用于以markov链的形式向原始数据逐渐添加高斯噪声;reverse process接受随机噪声,生成目标数据(如图片)。
本文介绍均以图片为例。
涉及公式如下:
X0∼q(X0)X_0\sim q(X_0)X0∼q(X0)
q(X1,...,XT∣X0):=∏t=1Tq(Xt∣Xt−1)q(X_{1},...,X_{T}|X_0):=\prod\limits_{t=1}^Tq(X_{t}|X_{t-1})q(X1,...,XT∣X0):=t=1∏Tq(Xt∣Xt−1)
q(Xt∣Xt−1):=N(Xt;1−βtXt−1,βtI),βt∈(0,1)q(X_{t}|X_{t-1}):=\mathcal N(X_{t};\sqrt{1-\beta_t}X_{t-1},\beta_tI),\quad\beta_t\in(0,1)q(Xt∣Xt−1):=N(Xt;1−βtXt−1,βtI),βt∈(0,1)
如果T
充分大,并且存在一个好的βt\beta_tβt函数,XTX_{T}XT会逐渐接近各向同性的高斯分布(isotropic Gaussian distribution)。
αt:=1−βt,α‾t:=∏s=1tαs\alpha_t:=1-\beta_t,\overline{\alpha}_t:=\prod\limits_{s=1}^t\alpha_sαt:=1−βt,αt:=s=1∏tαs
q(Xt∣X0):=N(Xt;α‾tX0,(1−α‾t)I)q(X_t|X_0):=\mathcal N(X_{t};\sqrt{\overline{\alpha}_t}X_{0},(1-\overline{\alpha}_t)I)q(Xt∣X0):=N(Xt;αtX0,(1−αt)I)
μt=1−βtXt−1,σt2=βt,ϵ∼N(0,1),∴Xt=1−βtXt−1+βtϵ\mu_t=\sqrt{1-\beta_t}X_{t-1},\sigma_t^2=\beta_t,\epsilon\sim\mathcal N(0,1),\therefore X_t=\sqrt{1-\beta_t}X_{t-1}+\sqrt{\beta_t}\epsilonμt=1−βtXt−1,σt2=βt,ϵ∼N(0,1),∴Xt=1−βtXt−1+βtϵ
随机采样一个高斯分布 XT∼N(0,1)X_T\sim\mathcal N(0,1)XT∼N(0,1),如果我们知道条件概率分布 p\large{p}p(Xt∣Xt−1)(X_t|X_{t-1})(Xt∣Xt−1),执行反向的forward process(diffusion process)
,就可以获得X0∼q(X0)X_0\sim q(X_0)X0∼q(X0)。
由于条件概率分布很难获得,我们可以通过训练神经网络来获得近似分布 pθ\large{p}_{\theta}pθ(Xt∣Xt−1)(X_t|X_{t-1})(Xt∣Xt−1),θ{\theta}θ表示模型的参数。
假设 reverse process
也符合高斯分布,有:
pθ\qquad\qquad\qquad\large{p}_{\theta}pθ(Xt∣Xt−1)=N(Xt−1;μθ(xt,t),Σθ(xt,t))(X_t|X_{t-1})=\mathcal N(X_{t-1};\mu_{\theta}(x_t,t),\Sigma_{\theta}(x_t,t))(Xt∣Xt−1)=N(Xt−1;μθ(xt,t),Σθ(xt,t))
DDPM
中设 Σθ(xt,t))=σt2I\Sigma_{\theta}(x_t,t))=\sigma_t^2IΣθ(xt,t))=σt2I,σt2\sigma_t^2σt2可以取βt\beta_tβt或者β~t=1−α‾t−11−α‾tβt\widetilde{\beta}_t=\cfrac{1-\overline\alpha _{t-1}}{1-\overline\alpha _t} \beta_tβt=1−αt1−αt−1βt。
\qquad\qquad\qquad其中 αt:=1−βt\alpha_t:=1-\beta_tαt:=1−βt,α‾t:=∏s=1tαs\overline{\alpha}_t:=\prod\limits_{s=1}^t\alpha_sαt:=s=1∏tαs
negative log-likelihood(NLL) loss
与VLB
:VLB
的进一步计算
即:
\qquad\qquad
由于xTx_TxT是高斯噪音且qqq无需要学习的参数,因此LT\large{L}_TLT是常数项,可忽略。
VLB
中Lt−1\large{L}_{t-1}Lt−1项的计算Lt−1\large{L}_{t-1}Lt−1项:
\qquad\qquad
其中 μ~t\widetilde{\mu}_tμt的推导可参考What are Diffusion Models?。
DDPM
中使用的简化损失函数/训练目标DDPM
论文中最终建议使用的损失函数同时也忽略了L0\large{L}_0L0项,
\qquad\qquad
从数据集中选择图片,使用均匀采用选择一个t
值,利用前述损失函数,训练深度学习模型。
随机产生一张符合高斯分布的噪音图片xTx_TxT,利用迭代公式,迭代T次,获得生成图片x0x_0x0。
[1] Hugging Face:The Annotated Diffusion Model
[2] What are Diffusion Models?
[3] How A.I. Creates Art - A Gentle Introduction to Diffusion Models
[4]diffusion model模型应用与理解
[5] 保姆级讲解 Diffusion 扩散模型(DDPM)
[6] 物理改变图像生成:扩散模型启发于热力学,比它速度快10倍的挑战者来自电动力学
[7] Introduction to Diffusion Models for Machine Learning
[8] Denoising Diffusion Probabilistic Models
[9] PROBABILITY DISTRIBUTIONS
[10] Improved Denoising Diffusion Probabilistic Models
[11] ELBO — What & Why