机器学习实战,内容包括教材和代码
2022-05-10 18:10:29 43.5MB 机器学习 源码软件 人工智能
1
机器学习实战,促进学习,交流,更好的为人类发展做出贡献,此版本有中文,英文版本,还有源码,
2022-05-09 01:19:12 68.39MB 机器学习实战
1
Scikit-learn使用手册中文版、机器学习原理和实战、深度学习实战caffe
2022-05-03 12:06:56 120.78MB 机器学习 深度学习 scikit-learn caffe
机器学习实战代码MLiA_SourceCode.rar
2022-05-02 16:06:06 30.92MB 源码软件 机器学习 人工智能
本资源为机器学习实战的所有源代码。包含的内容有使用k-近邻算法改进约会网站的配对效果、使用k-近邻算法识别手写数字、使用决策树预测隐形眼镜类型、使用朴素贝叶斯过滤垃圾邮件、从疝气病症预测病马的死亡率、SVM手写识别问题回顾、利用AdaBoost元算法提高分类、线性回归预测鲍鱼的年龄、岭回归预测乐高玩具套装的价格、树回归、K-means对地理坐标进行聚类、Apriori算法发现毒蘑菇的相似特征、FP-growth算法从新闻网站点击流中挖掘、PCA对半导体制造数据降维、SVD基于协同过滤的推荐引擎、分布式SVM的Pegasos算法、用mrjob实现MapReduce版本的SVM。’
2022-04-30 13:06:16 12.72MB 机器学习 决策树 回归 支持向量机
【全部课程列表】 第1章 机器学习概述 共18页.pptx 第2章 Tensorflow基础 共15页.pptx 第3章 Tensorflow进阶 共11页.pptx 第4章 线性模型 共14页.pptx 第5章 支持向量机 共19页.pptx 第6章 神经网络 共41页.pptx 第7章 无监督学习 共13页.pptx 第8章 自然语言文本处理 共24页.pptx 第9章 语音处理 共16页.pptx 第10章 图像处理 共21页.pptx 第11章 人脸识别 共19页.pptx
2022-04-29 10:05:33 78.24MB tensorflow 人工智能 python 机器学习
决策树(Decision Tree)是监督学习中的一种算法,并且是一种基本的分类与回归的方法 决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3, C4.5和C5.0生成树算法使用熵。这一度量是基于信息学理论中熵的概念。 决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。 分类树(决策树)是一种十分常用的分类方法。它是一种监督学习,所谓监督学习就是给定一堆样本,每个样本都有一组属性和一个类别,这些类别是事先确定的,那么通过学习得到一个分类器 1.什么是决策树 2.决策树的构建准备工作 3.使用决策树进行分类 4.使用SKlearn中graphviz包实现决策树的绘制
2022-04-27 16:05:49 3.33MB 机器学习 决策树 人工智能 算法
1
贝叶斯分类算法是统计学的一种概率分类方法,朴素贝叶斯分类是贝叶斯分类中最简单的一种。其分类原理就是利 用贝叶斯公式根据某特征的先验概率计算出其后验概率,然后选择具有最大后验概率的类作为该特征所属的类。之所以称之为”朴素”,是因为贝叶斯分类只做最原始、最简单的假设:所有的特征之间是统计独立的。 朴素贝叶斯法(Naive Bayes model)是基于贝叶斯定理与特征条件独立假设的分类方法。 最为广泛的两种分类模型是决策树模型(Decision Tree Model)和朴素贝叶斯模型(Naive Bayesian Model,NBM)。和决策树模型相比,朴素贝叶斯分类器(Naive Bayes Classifier 或 NBC)发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。同时,NBC模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上,NBC模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为NBC模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,这给NBC模型的正确分类带来了一定影响
2022-04-27 16:05:48 1.46MB 算法 机器学习 数据结构 人工智能
1
邻近算法,或者说K最邻近(KNN,K-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。近邻算法就是将数据集合中每一个记录进行分类的方法. KNN(K- Nearest Neighbor)法即K最邻近法,最初由 Cover和Hart于1968年提出,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路非常简单直观:如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别 [2] 。 该方法的不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最邻近点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。另外还有一种 Reverse KNN法,它能降低KNN算法的计算复杂度,提高分类的效率 [2] 。 KNN算法比较适用于样本容量比较大的类域的自动分类
2022-04-27 16:05:47 4.11MB 机器学习 KNN算法 K-近邻算法 人工智能
1