使用R的集成方法 ######我已经完成了关于集成方法的个人项目(论文)。 首先,我对不同的集成方法进行了背景研究,然后在基础机器学习算法上实现了Boosting,AdaBoost,Bagging和随机森林技术。 我使用了提升方法来提高弱小的学习者(如决策树桩)的性能。 为决策树(包括回归和分类问题)和KNN分类器实施装袋。 将随机森林用作分类树。 我已经在使用不同阈值的逻辑回归算法上实现了一种特殊的增强算法,称为“ AdaBoost”。 然后绘制不同的图形,例如错误率与增强,装袋和随机森林迭代的关系。 比较装袋与提振的结果。 在应用集成方法之前和应用集成方法之后,分析了分类器的性能。 使用了诸如交叉验证,MSE,PRSS,ROC曲线,混淆矩阵和袋外误差估计之类的不同模型评估技术来评估集成技术的性能。
2021-12-29 22:46:40 12KB R
1
计算男女身高,非常强大的matlab编程实现贝叶斯程序,可直接使用,模式识别
2021-12-23 21:37:06 4KB MATLAB 贝叶
1
用于模拟传输和接收 16-PSK 调制的脚本。 符号错误率是从模拟中发现的,并确认模拟结果与理论描述比较好。 理论描述请参考以下帖子: http://www.dsplog.com/2008/03/18/symbol-error-rate-for-16psk/
2021-12-20 20:22:38 2KB matlab
1
k-近邻法的错误率 最近邻法和k-近邻法的错误率上下界都是在一倍到两倍贝叶斯决策方法的错误率范围内。 在k >1的条件下,k-近邻法的错误率要低于最近邻法。 在k →∞的条件下,k-近邻法的错误率等于贝叶斯误差率。 *
2021-11-22 11:06:48 1.45MB 非参数 估计 模式识别 HJ
1
为什么称为最小错误率Bayes决策? 最小错误率Bayes决策使得每个观测值下的条件错误率最小因而保证了(平均)错误率最小。 Bayes决策是最优决策:即,能使决策错误率最小。 为什么Bayes决策是最优决策,我们还要学习这门课的其它方法?
2021-11-18 19:17:02 3.3MB 贝叶斯决策
1
FastWER 用于快速字/字符错误率 (WER/CER) 计算的 PyPI 包 快速(cpp 实现) 句子级和语料库级 WER/CER 分数 安装 pip install pybind11 fastwer 例子 import fastwer hypo = [ 'This is an example .' , 'This is another example .' ] ref = [ 'This is the example :)' , 'That is the example .' ] # Corpus-Level WER: 40.0 fastwer . score ( hypo , ref ) # Corpus-Level CER: 25.5814 fastwer . score ( hypo , ref , char_level = True ) # Sentence-Leve
1
4PAM 传输方案采用字母 {+/-1, +/-3}。 生成的随机字母通过加性高斯白噪声并计算符号错误率。 通过仿真计算出的符号错误率与符号错误率的理论推导相符。 关于误码率的理论推导说明,请参考: http://www.dsplog.com/2007/10/07/symbol-error-rate-for-pam/
2021-11-08 18:47:24 1KB matlab
1
传统基于邻域决策错误率的属性约简准则是针对总体分类精度的提升而设计的,未能展现因约简而引起的各类别精度变化情况。针对这一问题,引入局部邻域决策错误率以及局部属性约简的概念,其目的是提升单个类别的分类精度。在此基础上,进一步给出了求解局部邻域决策错误率约简的启发式算法。在8个UCI数据集上的实验结果表明,局部约简不仅是提高各个类别精度的有效技术手段,而且也解决了因全局约简所引起的局部分类精度下降问题。
2021-11-06 09:52:30 938KB 论文研究
1
python Knn算法和错误率测试源代码,在python文件中,shape函数f返回dataset的行数,tile函数是将inMat这个测试数据每一行复制一次,总共复制了datasetsize次,argsort函数返回的是排序后的索引值!同时这个KNN算法演示文件中还包括了提取训练数据和分类标签、归一化、测试错误率等功能。
2021-10-12 13:18:15 16KB 其它源码-Python
1