高斯过程模型的自动变分推断。 论文“高斯过程模型的自动变分推论”的代码。 如果您使用任何代码,请引用: Nguyen,电视和Bonilla,EV,高斯过程模型的自动变分推理,在NIPS 2014中。 请参见src / demoFull.m和src / demoMixture.m ,以获取有关如何使用代码分别对具有完整高斯分布和高斯分布混合的回归模型进行推理的示例。 该代码还包括其他模型的实现:二进制分类,多分类,扭曲的高斯过程和对数高斯考克斯过程。 有关详细信息,请参见src / likelihood目录。 这些模型的预测也可以在src / prediction中实现。 要尝试新模型,只需在签名后实现一个新的似然函数: logllh = newFunction(y,f,hyp) 在哪里 y : N x P vector of observations (each colu
2021-12-16 16:52:27 712KB MATLAB
1
(PyTorch)自编码变分推断主题模型
2021-11-26 11:18:36 2.9MB Python开发-机器学习
1
1.口述EM算法 EM算法就是近似极大化似然函数的一种方法。 那么一般的MLE存在的问题就是当likelihood-function存在log-sum项时,变得极难求解,这时候就要换一种思路,引入隐变量Z,和Z的某种分布q(Z)。这里先不说q(Z)是什么,买下一个伏笔。 EM算法的一个巧妙之处在于:似然函数经过变形(除以q(Z)再乘以q(z)),然后利用jenson’s inequality将log-sum项去掉了,这时候我们可以得到一个似然函数的下界 什么时候取等号呢?当q(z)=p(z|x,θ)时,会得到似然函数的“紧”下界,这时候我们只要最大化下界就可以了 这时候就有了EM算法的核心:就
2021-10-20 20:25:33 48KB em算法 函数 变分推断
1
变分推断(Variational Inference, VI)是贝叶斯近似推断方法中的一大类方法,将后验推断问题巧妙地转化为优化问题进行求解,相比另一大类方法马尔可夫链蒙特卡洛方法(Markov Chain Monte Carlo, MCMC),VI 具有更好的收敛性和可扩展性。。。
2021-05-18 14:30:10 1.41MB 变分推断 Variational Infe 最新进展简述
1