在案例12中我们采用SVM来做分类预测,达到了较满意的结果,但用SVM做分类预测时需要调节相关的参数(主要是惩罚参数c和核函数参数g)才能得到比较理想的预测分类准确率,那么SVM的参数该如何选取呢?有没有最佳的参数呢?采用cross validation的思想可以在某种意义下得到最优的参数,可以有效的避免过学习和欠学习状态的发生,最终对于测试集合的预测得到较理想的准确率.采用实例验证表明,用cross validation选取出的参数来训练SVM得到的模型比随机的选取参数训练SVM得到的模型在最后分类预测上更有效.
2022-10-19 14:21:08 288KB SVM
1
SVM案例(包括数据集)
2022-03-05 16:12:49 732KB SVM 分类模型
1
MNIST(“修改后的国家标准与技术研究所”)是计算机视觉事实上的“hello world”数据集。⾃1999年发布以来,这⼀经 典的⼿写图像数据集已成为分类算法基准测试的基础。随着新的机器学习技术的出现,MNIST仍然是研究⼈员和学习者 的可靠资源。
2021-08-26 14:07:14 14.8MB 数字识别器 SVM案例
1
01_案例一:鸢尾花数据SVM分类 02_案例二:鸢尾花数据不同分类器效果比较 03_案例三:不同SVM核函数效果比较. 04_案例四:不同SVM惩罚参数C值不同效果比较. 05_案例五:SVM多目标属性分类问题. 06_案例六:手写数字识别. 08_案例八:使用SVM预测波士顿房价. 07_案例七:自定义SVM内部核函数. 09_综合案例:分类算法比较
2021-07-16 20:07:23 1.98MB 机器学习 分类
1
机器学习之SVM案例.pdf
2021-05-08 17:07:13 701KB SVM
1