Expectation Maximization,EM算法是带有隐变量的概率模型参数的极大似然估计(MLE为给定参数,观测数据出现/生成的可能性)。

如下为《统计机器学习》中对应EM算法的笔记。

0
  • 观测数据Y和隐变量X合称,完全数据
  • 观测数据Y称,不完全数据
0
E步:(期望步)求Q函数(上一轮参数固定,模型参数为变量的函数),即期望(原始似然函数的下界)
M步:(极大步)求Q函数的局部极值
通过迭代法逐步逼近原始似然函数的解
0
0
 EM算法本质是,有隐变量的似然函数的MLE。通过计算Q函数,得到似然函数的下界,然后最大化下界这一迭代过程,来优化参数。
Q函数本身是一个条件期望。 EM算法就在E步求期望,M步最大化它。
 
内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/justLittleStar/p/17322000.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!