基于LGB实现车联网大数据碰撞识别.zip
2022-11-18 14:29:53 154.6MB 机器学习 深度学习 人工智能
1
用c++实现的基于免疫算法/遗传算法的连通图最短哈密顿回路(TSP问题)求解,并支持记录迭代过程与画图。注释应有尽有,各项参数可调,结构清晰且难度较低,适合通过代码对经典免疫算法进行学习。
2022-11-18 14:29:50 53.61MB c++ 机器学习 免疫算法 TSP问题
1
xgboost模型训练、评估与模型的保存、加载及使用 python 经过调试的代码,可运行,数据集存于https://download.csdn.net/download/zzpl139/86838136
2022-11-17 19:27:00 36KB xgboost python 机器学习 模型
1
西瓜书第六章,选择两个UCI数据集(iris和XX),linear,rbf两个核函数训练SVM,BP,C.4.5决策树实验比较
2022-11-17 19:26:58 9KB 机器学习
1
机器学习-西瓜书-在iris数据集上综合评价BP、 ABP神经网络的性能
2022-11-17 19:26:57 6KB 机器学习 iris
1
机器学习实验报告加州房价预测项目notebook.zip。 手写线性回归。 线性回归法。 使用R2评估模型效果。
2022-11-17 11:25:00 431KB 机器学习 线性回归 加州房价预测
1
Tensorflow 实现论文"Spectral Normalization for Generative Adversarial Networks" (ICML 2017)
2022-11-16 20:14:41 178KB Python开发-机器学习
1
可用于机器学习课程的结课论文。 本文在对Lending Club数据集进行初步数据分析的基础上,通过选取4组不同的特征,采用同一种算法(逻辑回归,LR)进行分类预测,最终确定3个相对较优特征为:loan_amnt,annual_inc,term。随后本文针对“多源数据集”,采用神经网络、贝叶斯分类器和决策树三种算法对数据进行分类预测,最终综合三种算法的模型结果参数,确定决策树为三者最优。最后,本文仍选取Lending Club数据集作为研究对象,经预处理后,选取数据的55个特征,并将二分类问题变为三分类问题。之后,采用单一树类模型——决策树,以及集成树类模型——随机森林和极端随机树对数据进行分类预测,对比模型结果参数,得出结论:集成算法相比较于单一算法有更好的准确度和泛化能力,但是相应模型也会消耗更多计算机资源。
2022-11-16 18:32:34 1.15MB 机器学习 结课论文 分类预测 LendingClub
1
本资源为原创论文的word版。 可用于机器学习课程的结课论文。 本文在对Lending Club数据集进行初步数据分析的基础上,通过选取4组不同的特征,采用同一种算法(逻辑回归,LR)进行分类预测,最终确定3个相对较优特征为:loan_amnt,annual_inc,term。随后本文针对“多源数据集”,采用神经网络、贝叶斯分类器和决策树三种算法对数据进行分类预测,最终综合三种算法的模型结果参数,确定决策树为三者最优。最后,本文仍选取Lending Club数据集作为研究对象,经预处理后,选取数据的55个特征,并将二分类问题变为三分类问题。之后,采用单一树类模型——决策树,以及集成树类模型——随机森林和极端随机树对数据进行分类预测,对比模型结果参数,得出结论:集成算法相比较于单一算法有更好的准确度和泛化能力,但是相应模型也会消耗更多计算机资源。
2022-11-16 18:32:30 1.81MB 机器学习 分类预测 LendingClub 结课论文
1
目前,机器学习中的K近邻(KNN)分类算法和支持向量机(SVM)算法被认为是处理文本分类的最好方法。但KNN分类算法有以下的缺陷: KNN是基于近邻度量的一种模式分类算法,它高度依赖于数据间的相似度度量,简单的欧式距离在实际应用时,由于不考虑不同维度之间对分类的影响以及输入数据数据维数高的问题,往往不能取得良好的分类效果。 KNN 分类算法虽然可以一定情况下克服数据偏斜带来的分类误差,但是这也是造成它对样本密度分布敏感的主要原因,当类间密度高度分布不均时,分类效果会有较大的影响。
2022-11-16 09:20:26 2.09MB metric
1