特征选择示例ddddddddddd
2022-04-14 18:00:48 605KB spark
1
文章目录前言1.数据集选择2.feature-selector用法3.具有高missing-values百分比的特征4.具有高相关性的特征5.对模型预测结果无贡献的特征6.对模型预测结果只有很小贡献的特征7.具有单个值的特征8.从数据集去除选择的特征9.结论 前言        FeatureSelector是用于降低机器学习数据集的维数的工具。        文章介绍地址        项目地址        本篇主要介绍一个基础的特征选择工具feature-selector,feature-selector是由Feature Labs的一名数据科学家williamkoehrsen写的特征选
2022-04-12 08:43:04 744KB c cto ec
1
采用基于遗传算法(GA)的二维主成分分析法(2DPCA)进行人脸识别。2DPCA 直接以二维图像矩阵为研究对象,以其 协方差矩阵的特征向量为投影轴进行特征提取。
2022-04-10 16:37:18 173KB 遗传算法,特征选择
1
在实际情况中,分类中使用的许多特征选择方法都直接应用于排序 我们认为,由于排名和分类之间的显著差异,最好开发不同的特征选择方法进行排名。 本文提出了一种新的特征选择方法
2022-04-07 09:08:26 824KB 特征选择 算法
基于特征选择的软件缺陷预测方法.pdf
2022-04-06 00:22:59 1.01MB 技术文档
pyHSICLasso pyHSICLasso是希尔伯特·施密特(Hilbert Schmidt)独立标准套索(HSIC Lasso)的软件包,这是一种考虑了非线性输入和输出关系的黑匣子(非线性)特征选择方法。 HSIC Lasso可以看作是广泛使用的最小冗余最大相关性(mRMR)特征选择算法的凸变体。 HSIC套索的优势 可以有效地找到与非线性相关的特征。 可以找到非冗余功能。 可以获得全局最优的解决方案。 可以通过内核处理回归和分类问题。 功能选择 监督性特征选择的目标是找到负责预测输出值的输入特征子集。 通过使用它,您可以补充非线性输入和输出的依赖性,并且可以有效地计算高维问题的最优解。 通过针对数以千计的特征进行分类和回归的特征选择实验证明了其有效性。 在许多实际应用中,例如从微阵列数据中选择基因,文档分类和假体控制,在高维监督学习中寻找功能的子集是一个重要的问题。 安装
1
为解决传统隐马尔可夫股价行为预测模型对输入特征序列和隐含状态数目敏感,导致预测结果存在局部最优、误差较大的问题,设计了新的股票因子特征选择方法,包括对因子特征的筛选和特征数据预处理。结合贝叶斯信息规则确定模型最佳隐含状态数目,提出了一种优化股价行为预测性能的PRHMM模型。通过对比支持向量机、ARIMA模型,实验结果证明,所提出的预测算法相对传统预测模型,在股价行为预测中有更好的预测表现。
2022-03-30 13:33:42 253KB 隐马尔可夫模型
1
在过去的几十年中,特征选择已经在机器学习和人工智能领域发挥着重要作用。许多特征选择算法都存在着选择一些冗余和不相关特征的现象,这是因为它们过分夸大某些特征重要性。同时,过多的特征会减慢机器学习的速度,并导致分类过渡拟合。因此,提出新的基于前向搜索的非线性特征选择算法,该算法使用互信息和交互信息的理论,寻找与多分类标签相关的最优子集,并降低计算复杂度。在UCI中9个数据集和4个不同的分类器对比实验中表明,该算法均优于原始特征集和其他特征选择算法选择出的特征集。
1
用Relief算法进行特征选择,最早提出的 Relief 算法主要针对二分类问题,该方法设计了一个“相关统计量”来度量特征的重要性,该统计量是一个向量,向量的每个分量是对其中一个初始特征的评价值,特征子集的重要性就是子集中每个特征所对应的相关统计量之和,因此可以看出,这个“相关统计量”也可以视为是每个特征的“权值”。可以指定一个阈值 τ,只需选择比 τ 大的相关统计量对应的特征值,也可以指定想要选择的特征个数 k,然后选择相关统计量分量最大的 k 个特征。
2022-03-25 15:18:44 4KB Relief 特征选择
1