EM算法推导小记
admin
2024-01-25 12:04:10
0

  EM算法(Expectation-Maximization),即期望-最大化算法。目标是估计某个概率分布函数中的参数θ\thetaθ,使得在事件xxx发生的期望值Ex(log⁡P(x∣θ))E_{x}(\log P(x|\theta))Ex​(logP(x∣θ))最大化。通常该问题可以通过最大似然估计的方法求解,但在许多情况下,数据的分布十分复杂,我们必须要引入一个隐变量zzz,假设xxx是由zzz产生的,而zzz的分布是可以自己假设的,从而减少了分布模型的复杂度。下面来简单的推导一下EM算法的过程,以帮助自己理解和记忆。
  首先,我们有对数似然函数L(θ)=log⁡P(x∣θ)L(\theta) = \log P(x|\theta)L(θ)=logP(x∣θ)引入隐变量zzz,可得到log⁡P(x∣θ)=log⁡P(x,z∣θ)−log⁡P(z∣x,θ)\log P(x|\theta)=\log P(x,z|\theta)-\log P(z|x,\theta)logP(x∣θ)=logP(x,z∣θ)−logP(z∣x,θ)证明过程如下,根据贝叶斯公式P(A∣B)=P(AB)P(B)P(A|B)=\frac{P(AB)}{P(B)}P(A∣B)=P(B)P(AB)​可得P(x,z∣θ)=P(x,z,θ)P(θ)⇒P(θ)=P(x,z,θ)P(x,z∣θ))P(x,z|\theta)=\frac{P(x,z,\theta)}{P(\theta)}\Rightarrow P(\theta)=\frac{P(x,z,\theta)}{P(x,z|\theta))}P(x,z∣θ)=P(θ)P(x,z,θ)​⇒P(θ)=P(x,z∣θ))P(x,z,θ)​P(z∣x,θ)=P(x,z,θ)P(x,θ)⇒P(x,θ)=P(x,z,θ)P(z∣x,θ))P(z|x,\theta)=\frac{P(x,z,\theta)}{P(x, \theta)}\Rightarrow P(x, \theta)=\frac{P(x,z,\theta)}{P(z|x,\theta))}P(z∣x,θ)=P(x,θ)P(x,z,θ)​⇒P(x,θ)=P(z∣x,θ))P(x,z,θ)​P(x∣θ)=P(x,θ)P(θ)=P(x,z∣θ)P(z∣x,θ)P(x|\theta)=\frac{P(x,\theta)}{P(\theta)}=\frac{P(x,z|\theta)}{P(z|x,\theta)}P(x∣θ)=P(θ)P(x,θ)​=P(z∣x,θ)P(x,z∣θ)​两边取对数可得log⁡P(x∣θ)=log⁡P(x,z∣θ)P(z∣x,θ)=log⁡P(x,z∣θ)−log⁡P(z∣x,θ)\log P(x|\theta)=\log \frac{P(x,z|\theta)}{P(z|x,\theta)}=\log P(x,z|\theta)-\log P(z|x,\theta)logP(x∣θ)=logP(z∣x,θ)P(x,z∣θ)​=logP(x,z∣θ)−logP(z∣x,θ)做一个恒等变换log⁡P(x∣θ)=log⁡P(x,z∣θ)−log⁡P(z)−[log⁡P(z∣x,θ)−log⁡P(z)]\log P(x|\theta)=\log P(x,z|\theta)-\log P(z)-[\log P(z|x,\theta)-\log P(z)]logP(x∣θ)=logP(x,z∣θ)−logP(z)−[logP(z∣x,θ)−logP(z)]log⁡P(x∣θ)=log⁡P(x,z∣θ)P(z)−log⁡P(z∣x,θ)P(z)\log P(x|\theta)=\log \frac{P(x,z|\theta)}{P(z)}-\log \frac{P(z|x, \theta)}{P(z)}logP(x∣θ)=logP(z)P(x,z∣θ)​−logP(z)P(z∣x,θ)​两边分别乘以P(z)P(z)P(z)并对zzz取积分可得∫zP(z)log⁡P(x∣θ)dz=∫zP(z)log⁡P(x,z∣θ)P(z)dz−∫zP(z)log⁡P(z∣x,θ)P(z)dz\int_zP(z)\log P(x|\theta)dz=\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz-\int_zP(z)\log \frac{P(z|x, \theta)}{P(z)}dz∫z​P(z)logP(x∣θ)dz=∫z​P(z)logP(z)P(x,z∣θ)​dz−∫z​P(z)logP(z)P(z∣x,θ)​dz由于P(x∣θ)P(x|\theta)P(x∣θ)是与zzz无关的函数,因此等号左边为∫zP(z)log⁡P(x∣θ)dz=log⁡P(x∣θ)∫zP(z)dz=log⁡P(x∣θ)\int_zP(z)\log P(x|\theta)dz=\log P(x|\theta)\int_zP(z)dz=\log P(x|\theta)∫z​P(z)logP(x∣θ)dz=logP(x∣θ)∫z​P(z)dz=logP(x∣θ)等号右边化简可得∫zP(z)log⁡P(x,z∣θ)P(z)dz−∫zP(z)log⁡P(z∣x,θ)P(z)dz=∫zP(z)log⁡P(x,z∣θ)P(z)dz−[∫zP(z)log⁡P(z∣x,θ)−P(z)log⁡P(z)dz]=∫zP(z)log⁡P(x,z∣θ)P(z)dz+[∫zP(z)log⁡P(z)−P(z)log⁡P(z∣x,θ)dz]=∫zP(z)log⁡P(x,z∣θ)P(z)dz+∫zP(z)log⁡P(z)P(z∣x,θ)dz=∫zP(z)log⁡P(x,z∣θ)P(z)dz+DKL(P(z)∥P(z∣x,θ))\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz-\int_zP(z)\log \frac{P(z|x, \theta)}{P(z)}dz\: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \\ \\=\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz-[\int_zP(z)\log P(z|x,\theta)-P(z)\log P(z)dz]\\ \\=\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz+[\int_zP(z)\log P(z)-P(z)\log P(z|x,\theta)dz]\\ \\ =\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz+\int_zP(z)\log \frac{P(z)}{P(z|x, \theta)}dz\: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \\ \\ =\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz+D_{KL}(P(z)\|P(z|x,\theta))\: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \: \:∫z​P(z)logP(z)P(x,z∣θ)​dz−∫z​P(z)logP(z)P(z∣x,θ)​dz=∫z​P(z)logP(z)P(x,z∣θ)​dz−[∫z​P(z)logP(z∣x,θ)−P(z)logP(z)dz]=∫z​P(z)logP(z)P(x,z∣θ)​dz+[∫z​P(z)logP(z)−P(z)logP(z∣x,θ)dz]=∫z​P(z)logP(z)P(x,z∣θ)​dz+∫z​P(z)logP(z∣x,θ)P(z)​dz=∫z​P(z)logP(z)P(x,z∣θ)​dz+DKL​(P(z)∥P(z∣x,θ))其中DKL(P(z)∥P(z∣x,θ))≥0D_{KL}(P(z)\|P(z|x,\theta))\geq 0DKL​(P(z)∥P(z∣x,θ))≥0表示KL散度,因此可得log⁡P(x∣θ)≥∫zP(z)log⁡P(x,z∣θ)P(z)dz\log P(x|\theta)\geq \int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dzlogP(x∣θ)≥∫z​P(z)logP(z)P(x,z∣θ)​dz我们称不等号的右侧式子为ELBO(evidence lower bound),当且仅当DKL(P(z)∥P(z∣x,θ))=0D_{KL}(P(z)\|P(z|x,\theta))= 0DKL​(P(z)∥P(z∣x,θ))=0时等号成立,即P(z)=P(z∣x,θ)P(z)=P(z|x,\theta)P(z)=P(z∣x,θ)P(z∣x,θ)P(z|x,\theta)P(z∣x,θ)表示zzz的后验概率,我们可以令第iii次迭代时,zzz的后验概率为P(z)=P(z∣x,θ(i))P(z)=P(z|x,\theta^{(i)})P(z)=P(z∣x,θ(i))则ELBO=∫zP(z)log⁡P(x,z∣θ)P(z)dz=∫zP(z∣x,θ(i))log⁡P(x,z∣θ)P(z∣x,θ(i))dzELBO=\int_zP(z)\log \frac{P(x,z|\theta)}{P(z)}dz\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \\=\int_zP(z|x,\theta^{(i)})\log \frac{P(x,z|\theta)}{P(z|x,\theta^{(i)})}dzELBO=∫z​P(z)logP(z)P(x,z∣θ)​dz=∫z​P(z∣x,θ(i))logP(z∣x,θ(i))P(x,z∣θ)​dz计算在参数θ(i)\theta^{(i)}θ(i)的条件下,期望值Ez∣x,θ(i)[log⁡P(x,z∣θ)]=ELBOE_{z|x,\theta^{(i)}}[\log P(x,z|\theta)]=ELBOEz∣x,θ(i)​[logP(x,z∣θ)]=ELBO的过程就是EM算法中的E步,核心在于计算zzz的后验概率P(z∣x,θ)P(z|x,\theta)P(z∣x,θ)。M步则是寻找更优的模型参数θ\thetaθ以最大化对数似然函数log⁡P(x∣θ)\log P(x|\theta)logP(x∣θ),其等价于最大化ELBO,即θ(i+1)=arg max⁡θlog⁡P(x∣θ)=arg max⁡θELBO=arg max⁡θ∫zP(z∣x,θ(i))log⁡P(x,z∣θ)P(z∣x,θ(i))dz=arg max⁡θ∫z[P(z∣x,θ(i))log⁡P(x,z∣θ)−P(z∣x,θ(i))log⁡P(z∣x,θ(i))]dz=arg max⁡θ∫zP(z∣x,θ(i))log⁡P(x,z∣θ)dz\theta^{(i+1)}=\argmax_{\theta}\log P(x|\theta)\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \\ \\=\argmax_{\theta}ELBO\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \\ \\=\argmax_{\theta}\int_zP(z|x,\theta^{(i)})\log \frac{P(x,z|\theta)}{P(z|x,\theta^{(i)})}dz\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \:\: \: \:\: \: \\ \\=\argmax_{\theta}\int_z[P(z|x,\theta^{(i)})\log P(x,z|\theta)-P(z|x,\theta^{(i)})\log P(z|x,\theta^{(i)})]dz\\ \\=\argmax_{\theta}\int_zP(z|x,\theta^{(i)})\log P(x,z|\theta)dz\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \:\: \: \: \: \: \: \: \: \: \: \:\: \: \: \: \: \:\: \: \:\: \:\:\: \:\:\: \:θ(i+1)=θargmax​logP(x∣θ)=θargmax​ELBO=θargmax​∫z​P(z∣x,θ(i))logP(z∣x,θ(i))P(x,z∣θ)​dz=θargmax​∫z​[P(z∣x,θ(i))logP(x,z∣θ)−P(z∣x,θ(i))logP(z∣x,θ(i))]dz=θargmax​∫z​P(z∣x,θ(i))logP(x,z∣θ)dz上式最后一步推导,是因为P(z∣x,θ(i))log⁡P(z∣x,θ(i))P(z|x,\theta^{(i)})\log P(z|x,\theta^{(i)})P(z∣x,θ(i))logP(z∣x,θ(i))是与θ\thetaθ无关的常数项,因此可以可以直接忽略。EM算法就是,通过先固定参数θ\thetaθ调整后验概率P(z)P(z)P(z),然后再固定P(z)P(z)P(z),调整θ\thetaθ使得期望达到最大。重复迭代E和M步,直至收敛。

相关内容

热门资讯

安卓系统是不是中国,中国智慧与... 你有没有想过,那个陪伴你每天刷手机、玩游戏、办公的安卓系统,它是不是中国的“孩子”呢?这个问题听起来...
电脑如果安装安卓系统,探索安卓... 你有没有想过,如果家里的电脑突然决定要换换口味,不再坚守Windows的阵营,而是拥抱安卓系统呢?想...
安卓手机升级苹果系统,体验全新... 你有没有想过,你的安卓手机突然间变成了苹果的忠实粉丝,想要体验一番iOS系统的魅力呢?这可不是天方夜...
安卓系统短信不通知,享受宁静 你是不是也遇到了这个问题?安卓系统短信不通知,是不是让你抓狂?别急,今天就来给你详细解析一下这个让人...
夏普电视非安卓系统,非安卓系统... 亲爱的读者们,你是否曾对夏普电视的非安卓系统感到好奇呢?今天,就让我带你一探究竟,揭开这个神秘面纱背...
安卓系统43适配软件,软件升级... 你有没有发现,你的安卓手机最近是不是有点儿“水土不服”?别急,别急,让我来给你揭秘为什么你的安卓系统...
安卓系统有车载系统吗吗,智能驾... 你有没有想过,当你坐在车里,享受着旅途的悠闲时光,手机上的安卓系统是不是也能派上用场呢?没错,我就要...
安卓8.1系统解锁方法,畅享自... 你有没有想过,你的安卓手机里隐藏着无数的小秘密?比如,解锁安卓8.1系统,就能让你的手机焕发出全新的...
安卓系统怎么打开邮件,安卓系统... 你有没有想过,每天那么多邮件,怎么才能快速打开它们呢?尤其是当你用的是安卓系统手机的时候。别急,今天...
封闭安卓系统安装软件,一步到位... 你有没有想过,为什么你的安卓手机里有些软件只能通过官方渠道安装呢?今天,就让我带你一探究竟,揭开封闭...
小米mipad升级安卓系统,解... 你有没有发现,最近小米Mipad的安卓系统升级可是个大热门呢!这不,我就迫不及待地来和你聊聊这个话题...
哪个安卓系统体验好,揭秘安卓系... 你有没有想过,手机里的安卓系统就像是个大厨,不同的版本就是不同的拿手好菜,有的让你回味无穷,有的却让...
安卓系统开发测试,全方位技术解... 你有没有想过,那个陪伴你每天刷手机、玩游戏、办公的安卓系统,是怎么从无到有,一步步成长起来的呢?今天...
安卓系统怎么查配置,轻松掌握设... 你有没有想过,你的安卓手机里藏着多少秘密?别小看这些配置信息,它们可是了解你手机性能的“小侦探”呢!...
pve下安装安卓系统,PVE环... 你有没有想过,在你的PVE服务器上安装一个安卓系统呢?听起来是不是有点酷炫?想象你的服务器不仅能够运...
安卓手机安装虹膜系统,安卓手机... 你有没有想过,你的安卓手机还能这样玩?没错,就是安装虹膜系统!听起来是不是有点酷炫?别急,让我带你一...
小米论坛原生安卓系统,深度解析... 你有没有想过,你的手机系统其实可以更加纯粹、更加原生?今天,就让我带你走进小米论坛,一探究竟,看看那...
安卓怎么装iphone系统,轻... 你是不是也和我一样,对安卓手机上的iPhone系统充满了好奇?想象那流畅的界面、强大的性能,还有那独...
模拟器系统安卓,打造移动应用开... 你有没有想过,在手机上也能体验到电脑游戏的快感?没错,这就是安卓模拟器系统的魅力所在!今天,就让我带...
安卓系统清理系统更新包,提升运... 手机里的安卓系统是不是越来越慢了?别急,今天就来给你支个招,让你的安卓手机焕然一新!那就是——清理系...