LeNet web 做CIFAR10 的图像分类
2022-11-09 09:24:40 876KB 图像分类 深度学习
1
CIFAR10数据集
2022-11-04 12:04:51 357.16MB 数据集
1
kaggle 官方的数据,数据简介: CIFAR-10数据由10类60,000张32x32彩色图像组成,每类6000张图像。官方数据中有50,000张训练图像和10,000张测试图像。我们保留了原始数据集的训练/测试拆分。提供的文件是: train.7z-包含png格式的测试图像的文件夹 test.7z-包含png格式的测试图像的文件夹 trainLabels.csv-培训标签 为了阻止某些形式的作弊行为(例如手签),我们在测试集中添加了290,000张垃圾图像。这些图像在评分中被忽略。我们还对10,000张官方测试图像进​​行了细微的修改,以防止通过文件哈希查找它们。这些修改不应明显影响评分。您应该预测所有300,000张图像的标签。 数据集中的标签类为: 飞机 汽车 鸟 猫 鹿 狗 青蛙 马 船 卡车 这些类是完全互斥的。汽车和卡车之间没有重叠。“汽车”包括轿车,SUV和类似的东西。“卡车”仅包括大型卡车。都不包括皮卡车。
2022-10-27 13:03:57 715.4MB cifar10
1
里面有百度云下载链接,永久有效,该数据集共有60000张彩色图像,这些图像是32*32,分为10个类,每类6000张图。这里面有50000张用于训练,构成了5个训练批,每一批10000张图;另外10000用于测试,单独构成一批。
2022-10-21 16:31:31 147B 数据集 深度学习
1
作业实现cnn并用在cifar10上,卷积,padding等部分不需torch实现
2022-10-13 22:05:12 236KB python
1
由于可用资源有限,我们仅在 cifar10 上测试模型。 我们主要想重现这样的结果: 使用 MAE 预训练 ViT 可以比直接使用标签进行监督学习训练获得更好的结果。这应该是自我监督学习比监督学习更有效的数据的证据。 主要遵循论文中的实现细节
2022-10-12 17:06:58 63.84MB 深度学习 何凯明 MAE CIFAR
在Pytorch中CIFAR10 / CIFAR100的正确ResNet实施 提供了许多最新体系结构的实现,但是,其中大多数是为ImageNet定义和实现的。 通常,在其他数据集上使用提供的模型很简单,但是某些情况下需要手动设置。 例如,很少有带有CIFAR10上ResNets的pytorch存储库提供了如所述的实现。 如果仅在CIFAR10上使用Torchvision的模型,您将获得在层数和参数上有所不同的模型。 如果要直接将CIFAR10上的ResNet-s与原始纸张进行比较,这是不可接受的。 此存储库的目的是为原始文件中所述的CIFAR10提供ResNet-s的有效pytorch实现。 提供以下模型: 名称 #层 #个参数 测试错误(纸) 测试错误(此隐含) 20 27万 8.75% 8.27% 32 46万 7.51% 7.37% 44 66万 7.17%
2022-07-31 20:24:54 84.31MB pytorch resnet cifar resnet110
1
tensorflow2.3-keras使用卷积神经网络CNN实现cifar10图像分类源码+数据集+注释+模型加载保存
2022-07-29 17:05:54 317.84MB keras tensorflow 深度学习 卷积神经网络
1
基于tensorflow和keras的cifar10图像分类源码,5星级源码
2022-07-29 17:05:50 8KB tensorflow cnn 深度学习
1
包含pytorch使用的mnist数据集以及mnist原始数据集。用来实验
2022-07-14 22:16:17 30.89MB pytorch cifar10
1