期望最大化算法(Expectation-maximization algorithm)是机器学习中一个非常重要的算法,又称作 EM 算法。EM算法是由Dempster等人1977年提出的统计模型参数估计的一种算法。它采用的迭代交替搜索方式可以简单有效的求解最大似然函数估计问题。已知的概率模型内部存在隐含的变量,导致了不能直接用极大似然法来估计参数,EM算法就是通过迭代逼近的方式用实际的值带入求解模型内部参数的算法。它在当代的工业、商业和科学研究领域发挥了重要的作用。
2021-06-15 13:54:58 100KB 机器学习
1
高斯混合模型的em算法代码,文档粗略解析和代码。注释高斯混合,不是高斯过程混合。
2021-06-14 23:40:52 350KB gaussian
1
Matlab实现EM算法,用于解决混合高斯模型, 包含用混合高斯模型生成测试数据的代码,包含二维图像生成代码,模式随机选取初值 和 用kmeans方法选取初值两种方式
2021-06-12 23:05:00 58KB EM算法 混合高斯模型 Matlab实现
1
本文描述了EM算法在高斯混合模型的参数估计中的应用,有Matlab的详细程序
2021-06-12 20:18:52 249KB EM 高斯混合模型 参数估计 最大期望
1
高斯混合模型意味着每个数据点(随机)从 C 类数据之一中抽取,概率 p_i 从第 i 类中抽取,并且每个类都分布为具有平均标准差 mu_i 和 sigma_i 的高斯分布。 给定从这种分布中提取的一组数据,我们试图估计这些未知参数。 这里用于估计的算法是 EM(期望最大化)。 简单地说,如果我们知道 N 个输入数据点中的每一个的类别,我们就可以将它们分开,并使用最大似然估计每个类别的参数。 这是 M 步。 E 步骤根据每个类的前一轮参数估计为每个数据点(软)选择(未知)类。 隐式地将数据分类(或聚类)到不同的类中,估计其参数。 当前代码仅适用于一维数据,主要用于说明混合模型和 EM 的想法,但很容易推广到更高维度。
2021-06-12 19:52:36 4KB matlab
1
EM算法是一种针对不带标签数据但类别有限的参数估计方法,通常用于估计混合高斯模型的参数训练。
2021-06-11 20:44:11 904KB EM
1
PyTorch中的非负矩阵组合 PyTorch不仅是一个很好的深度学习框架,而且还是矩阵操作和大数据卷积方面的快速工具。 一个很好的例子是 。 在此程序包中,我基于torch.nn.Module在PyTorch中实现了NMF,PLC​​A及其反卷积变化,因此可以在CPU / GPU设备之间自由移动模型并利用cuda的并行计算。 模组 NMF 基本的NMF和NMFD模块使用乘法更新规则将beta差异最小化。 乘数是通过torch.autograd获得的,因此减少了代码量并且易于维护。 该界面类似于sklearn.decomposition.NMF ,但具有一些其他选项。 NMF :原始NMF算法。 NMFD :一维反卷积NMF算法。 NMF2D :二维反卷积NMF算法。 NMF3D :3-D反卷积NMF算法。 可编程逻辑控制器 基本的PLCA和SIPLCA模块使用EM算法来最
2021-06-11 20:31:24 1.8MB gpu pytorch nmf em-algorithm
1
蓝德控制器 VOTOL EM系列控制器程序调试
2021-06-08 12:13:26 6.07MB 蓝德控制器
1
蓝德控制器调试程序,EM30-EM150专用程序,带CAN使能调试模式,可用于调试程序。调功率和限流。
2021-06-08 12:10:49 6.15MB VOTOL 蓝德控制器 EM30-EM150
1
R语言是一个开放的统计编程环境,提供一种集成的统计工具.随着互联网的发展,数据量越来越大,缺失数据现象也越来越多.如何在数据丢失的情况下,将数据分析结果达到最优,文章探讨R软件的强大计算、统计功能应用与EM算法中,使缺失数据分析达到最优化.
2021-06-05 16:08:22 175KB R语言 EM算法
1