文档里面有百度云链接,都是纯图片,不是二进制文件。训练集和测试集都分好了
2022-05-18 19:06:35 32B 手写字体
1
内含mnist数据集和训练代码和qt界面代码 可直接python运行,十分方便。 可参考博客介绍:https://blog.csdn.net/qq_34904125/article/details/124832709 本代码基于python实现,深度学习训练mnsit数据集,pytorch的框架,也可以改成tensorflow进行训练。
2022-05-18 12:06:14 31.13MB python qt 源码软件 开发语言
MNIST手写数字包以及下载地址,免费的,大家没事关注一下我啊,G众H: 风景邮递Yuan,可以一起交流编程,里面还有大学英语答案,U校园的,感谢关注,拿走不谢!!!有改变才有转机。初三的时候,那时候我想换一种生活方式,很坚定,回想以前的经历,都说吃喝玩乐,上课随便听听,甚至不听。为了彻底改变我习惯,我当时剃了寸头,便不再下课趴在走廊的窗户和别的班的好朋友闲聊,而是待教室里好好学习,也是怕老朋友笑话吧,剃了寸头之后也不愿意出去露脸了。最后我成功逆袭考上了高中~ ———————————————— 版权声明:本文为CSDN博主「风景邮递Yuan」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_50942093/article/details/124806596
2022-05-17 14:07:34 11.09MB 文档资料 MNIST
1
We present MedMNIST, a collection of 10 pre-processed medical open datasets, is standardized to perform classification tasks on lightweight 28 * 28 images, which requires no background knowledge. Covering the primary data modalities in medical image analysis, it is diverse on data scale (from 100 to
2022-05-16 21:37:25 623.71MB medmnist mnist 医疗数据集
1
mnist手写体的识别采用KNN算法,Java实现,60K训练集,10K测试集。代码主要包括读mnist数据集,KNN算法。
2022-05-16 15:20:18 12.87MB java KNN mnist
1
基于华为自研MindSpore深度学习框架构建网络模型,实现MNIST手写体识别实验。 包含可运行源码、运行结果演示视频,本地MindSpore详细配置教程(私信可远程配置) 本例子会使用MindSpore深度学习框架实现一个简单的图片分类实验,整体流程如下: 1、 处理需要的数据集,这里使用了MNIST数据集。 2、 定义一个网络,这里我们使用LeNet网络。 3、 定义损失函数和优化器。 4、 加载数据集并进行训练,训练完成后,查看结果及保存模型文件。 5、 加载保存的模型,进行推理。 6、 验证模型,加载测试数据集和训练后的模型,验证结果精度。
2022-05-11 11:31:37 35.17MB MindSpore MNIST MNIST手写体 手写体识别
前言 在前一篇文章【深度域适配】一、DANN与梯度反转层(GRL)详解中,我们主要讲解了DANN的网络架构与梯度反转层(GRL)的基本原理,接下来这篇文章中我们将主要复现DANN论文Unsupervised Domain Adaptation by Backpropagation中MNISTMNIST-M数据集的迁移训练实验。 该项目的github地址为:DANN-MNIST 一、MNISTMNIST-M介绍 为了利用DANN实现MNISTMNIST-M数据集的迁移训练,我们首先需要获取到MNISTMNIST-M数据集。其中MNIST数据集很容易获取,官网下载链接为:MNSIT。需要
2022-05-10 15:31:45 526KB cls domain IS
1
这是MNIST手写数字数据集的jpg格式,包含60000张训练图片和10000张测试图片
2022-05-10 10:07:06 61.79MB 深度学习
1
VGG作为流行的几个模型之一,训练图形数据效果不错,在mnist数据集是常用的入门集数据,VGG层数非常多,如果严格按照规范来实现,并用来训练mnist数据集,会出现各种问题,如,经过16层卷积后,28*28*1的图片几乎无法进行。 先介绍下VGG ILSVRC 2014的第二名是Karen Simonyan和 Andrew Zisserman实现的卷积神经网络,现在称其为VGGNet。它主要的贡献是展示出网络的深度是算法优良性能的关键部分。 他们最好的网络包含了16个卷积/全连接层。网络的结构非常一致,从头到尾全部使用的是3×3的卷积和2×2的汇聚。他们的预训练模型是可以在网络上获得并在Ca
2022-05-10 07:13:31 58KB ens fl flow
1
tensorflow实现单层感知机对MNIST分类-附件资源
2022-05-09 17:52:04 106B
1