信用卡欺诈检测 使用Logstic Regression对信用卡欺诈检测进行分类 步骤以及一些需要注意的点 特征工程 样本不均衡问题的解决(降采样以及过采样两种方式) 下采样策略 交叉验证(充分利用数据,使模型可以说服力) 模型评估方法(分类准确率,精确率,召回率,F1值) 正则化惩罚(防止模型过拟合,日期L2正则化) 逻辑回归阈值对结果的影响(通过重复矩阵​​的可视化以及召回率来体现) 过采样策略(SMOTE算法) 如何运行? 信用卡数据集为“ creditcard.csv”,地址为: ://myblogs-photos-1256941622.cos.ap-chengdu.myqcloud
1
基于人脸识别的考勤系统 详细项目在这里工作... 该项目包含两个使用flask和python3开发的webapp。( ) 使用的数据库:MySQL社区版。 对于面部识别,我使用了ageitgey的python3“ face_recogntion”。( ),它是使用dlib先进的面部识别技术构建而成的,该面部识别技术是通过深度学习构建的。 该模型在Wild基准中的Labeled Faces上的准确性为99.38%。 为了进行欺骗检测,我通过重新训练它的最后一层来使用tensorflow初始模型,以便它可以检测图像中的手机。( ) 为了生成和管理Excel,我使用了xlrx,xl
2022-07-01 13:55:55 85.62MB flask machine-learning web-app python3
1
UBC Mark Schmidt讲授 这是Mark Schmidt在UBC教机器学习的各种课程的课程材料的集合,包括100多个讲座的材料,涵盖了大量与机器学习相关的主题。 这是在 UBC 教授的有关机器学习的各种课程的课程资料合集,其中包括来自 100 多场讲座的资料,涵盖了大量与机器学习相关的主题。主题的符号相当一致,这使得更容易看到关系,并且主题应该按顺序进行(难度慢慢增加,概念在第一次出现时就被定义)。
2022-06-29 09:13:30 235.65MB 机器学习
The Support Vector Machine is a powerful new learning algorithm for solving a variety of learning and function estimation problems, such as pattern recognition, regression estimation, and operator inversion. The impetus for this collection was a workshop on Support Vector Machines held at the 1997 NIPS conference. The contributors, both university researchers and engineers developing applications for the corporate world, form a Who's Who of this exciting new area. Contributors: Peter Bartlett, Kristin P. Bennett, Christopher J. C. Burges, Nello Cristianini, Alex Gammerman, Federico Girosi, Simon Haykin, Thorsten Joachims, Linda Kaufman, Jens Kohlmorgen, Ulrich Kreßel, Davide Mattera, Klaus-Robert Müller, Manfred Opper, Edgar E. Osuna, John C. Platt, Gunnar Rätsch, Bernhard Schölkopf, John Shawe-Taylor, Alexander J. Smola, Mark O. Stitson, Vladimir Vapnik, Volodya Vovk, Grace Wahba, Chris Watkins, Jason Weston, Robert C. Williamson.
2022-06-27 11:03:37 11.6MB kernel machine learning svm
1
The Support Vector Machine is a powerful new learning algorithm for solving a variety of learning and function estimation problems, such as pattern recognition, regression estimation, and operator inversion. The impetus for this collection was a workshop on Support Vector Machines held at the 1997 NIPS conference. The contributors, both university researchers and engineers developing applications for the corporate world, form a Who's Who of this exciting new area. Contributors: Peter Bartlett, Kristin P. Bennett, Christopher J. C. Burges, Nello Cristianini, Alex Gammerman, Federico Girosi, Simon Haykin, Thorsten Joachims, Linda Kaufman, Jens Kohlmorgen, Ulrich Kreßel, Davide Mattera, Klaus-Robert Müller, Manfred Opper, Edgar E. Osuna, John C. Platt, Gunnar Rätsch, Bernhard Schölkopf, John Shawe-Taylor, Alexander J. Smola, Mark O. Stitson, Vladimir Vapnik, Volodya Vovk, Grace Wahba, Chris Watkins, Jason Weston, Robert C. Williamson.
2022-06-27 11:03:00 12.47MB kernel machine learning svm
1
The Support Vector Machine is a powerful new learning algorithm for solving a variety of learning and function estimation problems, such as pattern recognition, regression estimation, and operator inversion. The impetus for this collection was a workshop on Support Vector Machines held at the 1997 NIPS conference. The contributors, both university researchers and engineers developing applications for the corporate world, form a Who's Who of this exciting new area. Contributors: Peter Bartlett, Kristin P. Bennett, Christopher J. C. Burges, Nello Cristianini, Alex Gammerman, Federico Girosi, Simon Haykin, Thorsten Joachims, Linda Kaufman, Jens Kohlmorgen, Ulrich Kreßel, Davide Mattera, Klaus-Robert Müller, Manfred Opper, Edgar E. Osuna, John C. Platt, Gunnar Rätsch, Bernhard Schölkopf, John Shawe-Taylor, Alexander J. Smola, Mark O. Stitson, Vladimir Vapnik, Volodya Vovk, Grace Wahba, Chris Watkins, Jason Weston, Robert C. Williamson.
2022-06-27 11:01:35 12.13MB kernel machine learning svm
1
The Support Vector Machine is a powerful new learning algorithm for solving a variety of learning and function estimation problems, such as pattern recognition, regression estimation, and operator inversion. The impetus for this collection was a workshop on Support Vector Machines held at the 1997 NIPS conference. The contributors, both university researchers and engineers developing applications for the corporate world, form a Who's Who of this exciting new area. Contributors: Peter Bartlett, Kristin P. Bennett, Christopher J. C. Burges, Nello Cristianini, Alex Gammerman, Federico Girosi, Simon Haykin, Thorsten Joachims, Linda Kaufman, Jens Kohlmorgen, Ulrich Kreßel, Davide Mattera, Klaus-Robert Müller, Manfred Opper, Edgar E. Osuna, John C. Platt, Gunnar Rätsch, Bernhard Schölkopf, John Shawe-Taylor, Alexander J. Smola, Mark O. Stitson, Vladimir Vapnik, Volodya Vovk, Grace Wahba, Chris Watkins, Jason Weston, Robert C. Williamson.
2022-06-27 10:54:12 15.06MB kernel machine learning svm
1
通过多模型监督学习算法进行收入预测 寻找慈善捐助者 胡安·罗隆(Juan E.Rolon),2017年 项目概况 在此项目中,我采用了几种监督算法,以使用从1994年美国人口普查中收集的数据准确地预测个人收入。 我们执行各种测试过程,以从初步结果中选择最佳候选算法,然后进一步优化该算法以对数据进行最佳建模。 此实现的主要目标是构建一个模型,该模型可以准确地预测个人的收入是否超过50,000美元。 在非营利机构中,组织可以靠捐赠生存,这种任务可能会出现。 了解个人的收入可以帮助非营利组织更好地理解要请求的捐赠额,或者是否应该从一开始就伸出援手。 虽然直接从公共来源确定个人的一般收入等级可能很困难,但我们可以从其他公共可用功能中推断出此价值。 该项目是从Udacity获得机器学习工程师Nanodegree所需条件的一部分。 安装 此项目需要Python 2.7和已安装的以下Python
1
BELMKN:贝叶斯极限学习机Kohonen网络 无监督的极限学习机(ELM)是一种用于特征提取的非迭代算法。 该方法应用于IRIS数据集以进行非线性特征提取,聚类预测,最后使用k-means进行聚类。 客观的 要使用Unsuoervised Extreme Learning Machine执行非线性特征学习,使用贝叶斯信息准则(BIC)预测数据集中的聚类数,最后使用k-means,自组织图/ Kohonen网络和EM算法进行聚类 模组 无监督的极限学习机:在此模块中,使用无监督的极限学习机执行数据集的特征提取。 这是具有单个隐藏层的非迭代算法,其中输入层和隐藏层之间的权重被随机初始化,并且使用目标函数计算隐藏层和输出层之间的权重。 因此,可以保证收敛于全局最小值。 贝叶斯信息准则:贝叶斯信息准则是一种统计方法,使用d来找出数据集中的聚类数。 它使用期望最大化(EM)算法来查找数据集中的
1
蒸汽推荐系统 基于Steam用户库数据集中的协同过滤(皮尔逊相似系数)的推荐系统。 Pandas用于大多数数据操作,其中一些字符串函数用于非Unicode,非字母数字文本清除。 此外,Flask和JS用于前端。 数据整理 在建立此推荐系统时使用了两个数据集。 首先是来自Kaggle的。 这是为了将游戏名称标识为其应用程序ID,这是必需的,因为其他数据集(不包含应用程序ID)以用户每个游戏小时的小时数的形式包含隐式评级。 用户数据集也来自Kaggle。 隐式评级 用户数据集包含每个用户的数据 玩游戏 为了 小时。 我所做的是将隐式的评分时间转换为从1到5的显式评分。 只需将额定值线性映射到范围即可实现 在哪里 是平均游戏小时数 在整个数据集中播放。 端点数据集 此数据集是使用我们数据集中的游戏者的appid与包含游戏标头图像的媒体数据集的内部连接生成的。 该数据集用于检索浏览器中前端的媒
1