基于变分贝叶斯期望最大化(VBEM,variational Bayes expectation maximization)算法和Turbo原理,提 出了时变信道条件下MIMO-OFDM系统中的联合符号检测与信道估计算法。设计的软入软出空时检测器在采用 列表球形译码避免穷尽搜索的同时,考虑了信道估计误差方差矩阵的影响;利用空时检测获得的发送信号后验概率 分布估计,推出了新的Kalman前向后向递归信道估计器。仿真结果表明,在时变多径信道条件下,提出的算法 比传统EM算法和面向判决算法更加具有顽健性。
1
ML-EM算法EM算法(Expectation Maximization Algorithm,期望极大算法)是一种解决优化问题的迭代算法,用于求解含有隐变量的概率模型参数的极大似然估计(MLE)或极大后验概率估计(MAP)。EM算法是一种比较通用的参数估计算法,被广泛用于支持向量机(SMO算法)、朴素贝叶斯、GMM(高斯混合模型)、K-means(K均值聚类)和HMM(隐马尔可夫模型)的参数估计。 理解EM算法(例子)   在统计学中,概率用于在已知一些参数的情况下,预测接下来的所得到的结果;而似然性则是用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估计。   EM算法和极大似然估计的前提是一样的,都要假设数据总体的分布,如果不知道数据分布,是无法使用EM算法的。 三硬币模型   假设有3枚硬币A,B,C,这些硬币正面出现的概率分别是π \piπ,p pp和q qq。进行如下掷硬币试验:先掷硬币A,根据其结果选出硬币B或硬币C,正面选硬币B,反面选硬币C;然后掷选出的硬币,掷硬币的结果,正面记作1,反面记作0;独立重复n此试验,观测结果: 1 , 1 , 0 ,
1
此代码使用 EM 来估计高斯混合分布的参数。 它能够处理缺失数据,由数据矩阵中的 NaN 表示。 包括一个示例脚本和一个关于 EM 的简短文档,特别是估计高斯混合密度。 主要功能以及示例脚本位于文件夹 EM/GMM 中。
2022-11-16 18:32:54 360KB matlab
1
一个比较好的用于自学和研究HMM性质的文档
2022-11-14 15:48:15 338KB HMM 机器学习
1
13.1 极大似然估计的原理 极大似然的估计原理可以由下面的程序得到说明。我们首先生成 10 个服从 正态分布的总体,每个总体的均值都不同,依次为 0,1,2,3,4,5,6,7,8, 9。方差相同,均为 1。然后我们随机地取出一个总体,从中抽出 10 个样本,因 为事先不知道是从哪一个总体中抽出来的,所以我们分别用已知的 10 个总体参 数值代入似然函数,计算出 10 个似然函数值,取其中 大的似然值,认为该样 本是从相应的总体中取出的(从而联合概率密度也 大化)。然后我们让计算机 告诉我们它是从第几个总体中取样的,并与我们的判断进行对比。 *===========================begin================================== capt prog drop mle prog mle /*生成10个均值不同、方差均为1的正态总体,每个总体取8个样本*/ drawnorm double x0-x9,n(8) m(0,1,2,3,4,5,6,7,8,9) clear global i=int(10*uniform()) //设定一个随机数,用于随机取出一个总体 forv j=0/9 { gen lnf`j' =-0.5*ln(2*_pi)*8-sum(0.5*(x$i-`j')^2) //对取出的总体计算似然值 scalar lnf`j'=lnf`j'[_N] //最终的似然值 } scalar list // 比较10个似然值哪个最大,猜想是从第几个总体取出来的? end mle *根据10个似然值,猜想是从第几个总体取出来的? di "所抽中的样本为" as error "X"$i //显示真正的取样总体是什么 *===========================end==================================== 在现实中,我们并不知道任何一个真正的总体参数,因此,只能借助于找到 样本似然值(实际上是联合概率密度的对数值) 大的总体参数,即认为其是总 体参数。在 STATA 中实现 大似然法的估计必须自己编写程序。下面的例子说 明了如何利用 stata 编写程序来实现对模型的极大似然估计。 13.2 正态总体均值和方差的极大似然估计 *===========================begin================================== capt prog drop bb prog bb //定义程序的名称 args lnf u v //声明参数,u 为均值,v为方差 quietly replace `lnf' = -0.5*ln(2*_pi) - ln(`v') -0.5*($ML_y1-`u')^2/(`v')^2 end drawnorm x,n(100) m(10) sd(3) clear//模拟均值为10,方差为3的100个正态样本 ml model lf bb (x=) (variance:) //利用迭代法则进行极大似然估计
2022-11-05 22:27:01 2.41MB stata
1
EM(expectation-maximization)算法是Dempster,Laird和Rubin(DLR)三个人在1977年正式提出的.主要是用于在不完全数据的情况下计算最大似然估计。ppt中包含以下内容: 算法介绍 EM算法 GEM算法性质 EM算法解释 EM不足及改进 作者:尤全增 ultimateyou@gmail.com
2022-11-05 20:58:12 520KB 模型参数估计
1
文章目录0.前言1.E-M在解决什么问题?(一句话概括EM)2.E-M是一种模型么?3.E-step和M-step分别指的是什么?4.E-M的优化目标是什么?5.E-M收敛么,为什么?6.怎么理解隐变量,对任意模型都可以引入隐变量么?(隐变量的合理性)7.如何理解GMM中的隐变量8.怎么理解GMM和E-M之间的关系?9.GMM可以做什么事情?10.GMM和K-means之间有什么联系?参考文献源码 0.前言 看过很多博客“详解EM和GMM算法”这之类的,也看过李航《统计学基础》上的EM和GMM,这里总结一下几个问题,如果以下问题可以解决,我觉得EM算法和GMM模型就理解的相当好了。本文章不做数
2022-11-01 16:09:15 188KB em算法 gmm 算法
1
离散控制Matlab代码潜在Alpha模型估算代码的文档 作者: Philippe Casgrain 电子邮件: MATLAB和C代码的此集合可用于通过EM算法估算纯跳跃潜在alpha模型中的参数。 有关这些模型和估计算法以及它们在算法交易中的使用的更多信息,请参见[^ fn1]。 注意:在此存储库中找到的许多C代码都是基于的经典HMM的Forward-Backward算法的C / mex实现。 该算法的原始代码以及不同实现方式的比较。 价格过程模型 我们考虑资产价格过程$ S_t $的连续时间模型,该模型由潜在的隐马尔可夫链$ \ Theta $驱动。 我们假设此特定模型的动力学表示为$$ dS_t = \ delta \ left(dN_t ^ +-dN_t ^-\ right); $ $$,其中$ \ delta> 0 $表示刻度尺寸,而$ N_t ^ \ pm $是具有相应随机强度$ \ lambda_t ^ {\ pm} $的泊松过程。 我们假设强度过程采用如下形式$ $$ \ lambda_t ^ {\ pm} = \ sigma + \ kappa(\ Theta_t-S
2022-10-28 21:51:10 1.71MB 系统开源
1
算法逻辑推导
2022-10-27 20:03:46 259KB 算法 数据分析 数据挖掘 机器学习
1
遗传算法是弥补了EM算法的缺点,是现在比较流行的一种利用迭代计算全局最优值的一种算法。遗传算法是借鉴了自然遗传学,因此它们的基本思想是想通的。
2022-10-27 09:35:43 1KB em_ga em_遗传算法 em算法 ga-em
1