文件:python代码 内容:基于 anaconda+keras 框架,在 jupter notebook 中 构建多层感知器,识别MNIST数据集中的手写数字。 亲测可用,同学们可以放心下载。 MNIST数据集 (Mixed National Institute of Standards and Technology database) 是美国国家标准与技术研究院收集整理的大型**手写数字数据库**,包含 6万 个示例的训练集以及 1万 个示例的测试集。MNIST数字文字识别数据集数据量不太多,而且是单色的图像,比较简单,很适合深度学习的初学者用来练习建立模型、训练、预测。 经典的MNIST数据集包含了大量的手写数字。十几年来,来自机器学习、机器视觉、人工智能、深度学习领域的研究员们把这个数据集作为衡量算法的基准之一。你会在很多的会议,期刊的论文中发现这个数据集的身影。实际上,MNIST数据集已经成为算法作者的必测的数据集之一。有人曾调侃道:"如果一个算法在MNIST不work, 那么它就根本没法用;而如果它在MNIST上work, 它在其他数据上也可能不work!"
2022-07-20 09:07:09 120KB MNIST数据集 多层感知器 keras Anaconda
1
人工智能-多层感知器神经网络的局部泛化误差模型.pdf
CIFAR_MLP_Pytorch_Lightning 使用Pytorch照明库对多层感知器(MLP)神经网络进行了训练。 CIFAR数据集用于对神经网络进行分类。 进行不同的实验并观察结果。 实验类型和网络验证准确性如下: 版本1:B_SIze:32 H_Layers:1 H神经元:512 Optim:SGD Sigmoid Val_Acc:0.4706 版本2:B_SIze:32 H_Layers:1 H神经元:1512优化:SGD Sigmoid Val_Acc:0.4626 版本3:B_SIze:32 H_Layers:1 H神经元:1512优化:SGD RELU Val_Acc:0.5089 版本4:B_SIze:32 H_Layers:1 H神经元:1512优化:ADAM RELU Val_Acc:0.5114 版本5:B_SIze:32 H_Layers:1 H
2022-05-11 11:39:33 3KB Python
1
数据集名称:成人自闭症谱系筛查数据 摘要:自闭症谱系障碍(ASD)是一种与显着的医疗费用有关的神经发育疾病,早期诊断可以显着减少这些疾病。 不幸的是,等待ASD诊断的时间很长,而且程序的成本效益也不高。 自闭症的经济影响和全世界ASD病例数量的增加表明,迫切需要开发易于实施和有效的筛查方法。 因此,迫切需要进行时间高效且可访问的ASD筛查,以帮助卫生专业人员并告知个人是否应进行正式的临床诊断。 全球ASD病例数的快速增长需要与行为特征相关的数据集。 但是,这样的数据集很少,因此很难进行全面的分析以提高ASD筛选过程的效率,敏感性,特异性和预测准确性。 目前,与临床或筛查有关的自闭症数据集非常有限,并且大多数都是自然遗传的。 因此,我们提出了一个与成人自闭症筛查有关的新数据集,其中包含20个特征,可用于进一步分析,特别是在确定有影响力的自闭症特征和改善ASD病例分类方面。 在此数据集中,我们
1
泰坦尼克号的受难者数据
2022-04-06 03:12:04 33KB 深度学习
1
p 原始的多层感知器实现 用法:mlp输入数据输出目录纪元最大速度图层-cfg 输入数据-带有数据的文本文件的路径:每行包含点坐标及其类标签 output- dir-包含训练结果的dir的路径(将包含errs.txt,errs_val.txt,weights.txt,results.txt) epoch-max- [int]最大纪元数 速度-[双]学习速度 layers-cfg-文本文件的路径,其中包含带有隐藏层的输出编号的一行 err_graph.py-用于培训和验证错误可视化的脚本 用法:python err_graph.py draw_results.py-用于分类结果可视化的脚本 用法:python draw_results.py results-path results-path :output-dir / results.txt
2022-03-01 16:57:51 32KB C++
1
实验报告——多层感知器进行目标检测
2022-01-23 09:15:22 238KB 目标检测 人工智能 计算机视觉
1
它包括决策边界图
2022-01-09 11:15:44 71KB matlab
1
多层感知器神经网络 多层感知器神经网络的实现(多层感知器 - MLP) - 语言:C++ MLP(多层感知器)是一种前馈神经网络,可将输入数据集映射到适当的输出集。 MLP 由有向图中的几层节点(顶点)组成,每一层都完全连接到下一层。 除了输入节点,每个节点都是一个具有激活函数的神经元。 MLP 使用监督训练,也就是说,您显示输入和相应的输出来训练网络。 如果你有一个数据集,通常 70% 用于训练,30% 用于测试,这可能会有很大差异。 MLP 网络训练过程(葡萄牙语缩写为 PMC)使用反向传播算法,也称为广义增量规则。 训练的第一阶段是前向传播,其中将样本插入网络输入并逐层传播,直到产生相应的输出。 这样做只是为了从网络获得响应。 输出产生的响应与相应的期望响应进行比较。 产生偏差(错误),然后应用反向传播方法的第二阶段,即反向传播(反向传播)。 在这个阶段,网络中所有神经元
2021-12-07 20:37:47 9KB C++
1