贝叶斯网络参数学习 课程项目-COL884(Spring'18):人工智能的不确定性 创作者:Navreet Kaur [2015TT10917] 客观的: 警报贝叶斯网络给定数据的贝叶斯参数学习,每行最多有一个缺失值。 使用的算法: 期望最大化 目标: 这项任务的目的是获得学习贝叶斯网络的经验,并了解它们在现实世界中的价值。 设想: 医学诊断。 一些医学研究人员创建了贝叶斯网络,该网络对(某些)疾病和观察到的症状之间的相互关系进行建模。 作为计算机科学家,我们的工作是根据健康记录来学习网络的参数。 不幸的是,在现实世界中,某些记录缺少值。 我们需要尽力计算网络参数,以便以后可以将其用于诊断。 问题陈述: 我们得到了由研究人员创建的贝叶斯网络(如BayesNet.png所示),注意此处对八种诊断进行了建模:血容量不足,左心衰竭,过敏React,镇痛不足,肺栓塞,插管,弯管和断线。
1
这是多维高斯混合模型的期望最大化算法的并行实现,旨在在 NVidia 显卡上运行,支持CUDA。 在我的机器上,它提供高达 170 倍的性能提升(16 个暗淡、16 个集群、1000000 个数据点)。 有关更多信息,请参阅http://andrewharp.com/gmmcuda 上提供的报告。 有趣的代码都在 gpugaumixmod.h 和 gpugaumixmod_kernel.h 中。 参考 CPU 实现位于 cpuaumixmod.h 中。 它可以集成到支持 CUDA 的系统上的任何 C 程序中。 此外,在 gmm.cu 中提供了 Matlab 集成。 自最初发布以来,我添加了同步随机重启。 实验 1 现在利用了这一点。 编译================================================== ====================
2023-03-09 17:44:44 127KB matlab
1
matlab 期望函数代码 ML_Maximization 最大似然期望最大化算法 分两个语言版本: Matlab:主函数为demo_MLEM_Simulation.m python: im = phantom(im_size, im_size)函数是Matlab内置的,生产一个im_size * im_size的矩阵(图片),在python中直接把矩阵数据放到im.csv中进行读取 Images MLEM函数的主要作用是试照片降噪,在程序迭代10次,python代码把每次迭代后的图像记录也保存下来了,请参考images文件夹
2023-03-02 12:44:22 333KB 系统开源
1
em算法matlab代码电磁场 HMRF的MATLAB实现,如“通过隐马尔可夫随机场模型和期望最大化算法对脑MR图像进行分段”(Zhang等人,2001年)所述。 HMRF被应用于从OASIS脑截面数据集中分割图像,但是提供的代码可以针对任何3D图像分割进行修改。 您可以在什么上测试此算法? 任何3D图像,但我已经使用OASIS截面数据集验证了模型。 该数据集由416名18-96岁的正常和早发的阿尔茨海默氏病患者组成。 数据集提供了地面真相标签-来自Zhang等人描述的HMRF的FAST-FSL实现。 纸。 相关博客文章:
2023-02-28 11:45:37 8KB 系统开源
1
多元高斯混合的自由分裂和合并期望最大化算法。 该算法适用于估计混合参数和化合物数量 用法------ [M , S , P ,logl] = fsmem_mvgm(Z , [option] , [M0] , [S0] , [P0]); 输入项------ Z 测量 (dx N) M0 初始平均向量。 M0可以是(dx 1 x K)(默认[来自Z的基尼随机元素]) S0 初始协方差矩阵。 S0 可以是 (dxdx K)(默认 [cov(Z)/40]) P0 初始混合概率(1 x 1 x K):(默认 [1/Kini]) 选项Kini 初始化合物数(默认 [5]) Kmax 最大化合物数(默认 [15]) maxite_fsmem fsmem 主循环的最大迭代次数(默认 [100]) maxite_fullem 主循环内完整 EM 的最大迭代次数(默认 [100]) maxite_pa
2023-02-06 10:59:08 221KB matlab
1
em算法代码matlab实现期望最大化 Matlab中的期望最大化(EM)算法 此代码实现了Expectation-Maximization(EM)算法,并在简单的2D数据集上对其进行了测试。 期望最大化(EM)算法是一种迭代方法,用于在统计模型中依赖于未观察到的潜在变量的情况下,找到参数的最大似然或最大后验(MAP)估计。 EM迭代在执行期望(E)步骤和创建最大化(M)步骤之间进行交互,该期望步骤用于创建使用参数的当前估计值评估的对数似然性的期望函数,该步骤用于计算使期望对数最大化的参数。在E步上找到的可能性。 然后,这些参数估计值将用于确定下一个E步骤中潜在变量的分布。 例子 在此示例中,我们首先从两个正态分布生成点的数据集,并标记该数据集。 带有正确标签的数据集是我们的真实值。 然后,我们重新组合标签并为新数据集运行EM算法。 EM算法正确地对数据集进行聚类,并且还估计了可用于绘制点的两个正态分布的参数。 结果 我在计算机上得到的结果如下: iteration: 1, error: 1.7244, mu1: [1.2662 1.7053], mu2: [3.6623 3.0902
2023-02-03 11:27:27 76KB 系统开源
1
基于变分贝叶斯期望最大化(VBEM,variational Bayes expectation maximization)算法和Turbo原理,提 出了时变信道条件下MIMO-OFDM系统中的联合符号检测与信道估计算法。设计的软入软出空时检测器在采用 列表球形译码避免穷尽搜索的同时,考虑了信道估计误差方差矩阵的影响;利用空时检测获得的发送信号后验概率 分布估计,推出了新的Kalman前向后向递归信道估计器。仿真结果表明,在时变多径信道条件下,提出的算法 比传统EM算法和面向判决算法更加具有顽健性。
1
它是期望最大化算法的一种实现,它带有数据集的完整图形和绘图。 无需指定复杂的属性,只需运行脚本即可享受!
2022-11-10 16:11:04 410KB matlab
1
动态贝叶斯网络(DBN)是基因调控网络的一种有力建模工具。贝叶斯结构期望最大算法(SEM)能较好地处理构建基因调控网络中数据缺失的情况,但SEM算法学习的结果对初始参数设置依赖性强。针对此问题,提出一种改进的SEM算法,通过随机生成一些候选初始值,在经过一次迭代后得到的参数中选择一个最好的初始值作为模型的初始参数值,然后执行基本的SEM算法。利用啤酒酵母细胞周期微阵列表达数据,构建其基因调控网络并与现有文献比较,结果显示该算法进一步提高了调控网络构建的精度。
1
期望最大化算法(Expectation-maximization algorithm)是机器学习中一个非常重要的算法,又称作 EM 算法。它采用的迭代交替搜索方式可以简单有效的求解最大似然函数估计问题。已知的概率模型内部存在隐含的变量,导致了不能直接用极大似然法来估计参数,EM算法就是通过迭代逼近的方式用实际的值带入求解模型内部参数的算法。它在当代的工业、商业和科学研究领域发挥了重要的作用。
2022-06-17 21:05:25 87KB 期望最大化(EM)