吴恩达机器学习 Neural Networks for Binary Classification Jupyter note版本编程作业 机器学习与数据挖掘
2022-10-09 18:07:03 13.45MB 机器学习 数据挖掘 神经网络
1
【kaggle】TPS-AUG22 Binary Classification
2022-08-07 12:04:54 180KB kaggle
1
matlab条纹代码使用指称语义确定简单程序的功能 团队成员 : 塞缪尔·托斯() 教师顾问: 安卡·拉列斯库() 目录 用户故事和设计图 项目任务和时间表 预算 该项目没有预算 附录 用户文档-如何 本节将复制结果,并在具有不同示例空间的项目中重复使用代码。 所需技术 python3 广发银行 海湾合作委员会 Matlab或Octave 项目的一部分 利用项目中的代码分为三个主要部分,每个部分都可以单独进行编辑以彻底改变项目的结果和交互。 C代码是结果所基于的原始源文件。 脚本为Matlab进行文件的处理和分类。 最后,Matlab执行机器学习算法并执行结果分析。 C代码 在“代码”子目录中,有一个名为“ Sample_Programs”的文件夹。 此文件夹包含完成分析的所有C代码。 因此,这是整个数据集。 在其基础上,数据集中有29种不同的程序,涵盖了各种各样的实现。 该数据集可以添加,删除,也可以进行完全更改,以更改结果和分类。 众所周知,Python归类脚本依赖于大多数在这些文件中找到的机器代码,因此添加引入不常见操作的程序可能会使一些不同归类过程的结果稍有偏差,但是从根本上讲
2022-05-11 10:07:50 7.58MB 系统开源
1
DAGM-2007-二进制分类\ 数据集: 要求: Python 3.6 Tensorflow 1.12 凯拉斯2.2.4 OpenCV 3.4.1 增强器
2022-04-19 22:04:39 731KB JupyterNotebook
1
二元分类模型比较 在本笔记本中,我使用生成的二进制分类数据比较了Scikit-Learn算法 , , , , , 和简单的ANN在Keras和PyTorch中构建的预测精度。
2021-12-27 17:21:57 133KB JupyterNotebook
1
2017-CCF-BDCI-Enterprise 这是我的第一个数据挖掘比赛,CCF 大数据与计算智能大赛(BDCI)中的一题:。最终取得复赛 A 榜第 3,B 榜第 9 (Top 1.58%) 的成绩。 这个比赛 12 月中旬就结束了,硬是被我拖到现在才来总结,我这拖延症真的是……现在回忆起这个比赛,比赛时的那种郁闷感依然记忆犹新。我在复赛的第 5 天便达到了分数 6924,但之后一直无法提分,这种烦躁感当时给我带来了挺大的困扰(当然最后还是提升到了分数 6930)。等比赛结束之后,我回过头来看,其实当时我参赛的心态是不端正的,功利心太强,这样带来的问题就是比赛心态的爆炸,自己的眼界会被约束,提分方式的想象力也会被限制。最好的心态应该是抱着学习的心态参赛,只要能够学到一点点新的东西,就会感到惊喜。 另外一个想说的点是,我们团队在复赛 A 榜中排名第 3,但是切换 B 榜之后,便跌到第 9
2021-10-27 09:53:53 21KB data-mining ccf binary-classification 2017
1
焦点损失 降低了分类良好的示例的权重。 这样做的净效果是,将更多的培训重点放在难以分类的数据上。 在我们的数据不平衡的实际环境中,由于我们拥有更多的数据,我们的多数阶级将很快得到很好的分类。 因此,为了确保我们在少数族裔班上也能达到很高的准确性,我们可以使用焦点损失在训练过程中为那些少数族裔班级提供更多的相对权重。 焦点损失可以很容易地在Keras中实现为自定义损失函数。 用法 以焦点损失为样本编译模型: 二进位 model.compile(损失= [binary_focal_loss(alpha = .25,gamma = 2)],指标= [“准确性”],优化程序= adam) 分类的 model.compile(损失= [categoical_focal_loss(alpha = [[。25,.25,.25]],gamma = 2)],指标= [“准确性”],优化程序= ad
1