Dorefa网 的pytorch实施 .The代码的灵感来自和 。 要求 python> 3.5 火炬> = 1.1.0 火炬视觉> = 0.4.0 每晚,未来(用于张量板) nvidia-dali> = 0.12(更快的 ) Cifar-10精度 从头开始训练量化模型 模型 W_位 一点点 加速器 网路18 32 32 94.71% 网路18 4 4 94.36% 网路18 1个 4 93.87% ImageNet精度 从头开始训练量化模型 模型 W_位 一点点 前1名 前5 网路18 32 32 69.80% 89.32% 网路18 4 4 66.60% 87.15% 用法 下载ImageNet数据集并将验证图像移动到带标签的子文件夹中。为此,您可以使用以下 训练模型 python3 cifar_train_eval.py pyt
2022-01-17 17:17:57 847KB imagenet resnet quantization nvidia-dali
1
imagenet-caffe-alex.mat 用于matlab中CNN+SVM使用
2022-01-13 15:20:11 216.88MB imagenet-caffe matlab cnn svm
1
AdderNet:我们真的需要深度学习中的乘法吗? 该代码是CVPR 2020论文的演示 我们提出加法器网络(AdderNets)来交换深度神经网络(尤其是卷积神经网络(CNN))中的大规模乘法运算,以更便宜的加法运算来减少计算成本。在AdderNets中,我们将滤波器和输入要素之间的L1范数距离作为输出响应。结果,在ImageNet数据集上使用ResNet-50,建议的AdderNets可以达到74.9%的Top-1精度91.7%的Top-5精度,而无需在卷积层上进行任何乘法。 更新:培训代码在6/28中发布。 运行python main.py以在CIFAR-10上进行训练。 更新:11月27日发布了有关AdderNet的Model Zoo。 CIFAR-10和CIFAR-100数据集的分类结果。 模型 方法 CIFAR-10 CIFAR-100 VGG-小 有线电视新闻网 94.
1
ImageNet上预先训练的Keras分类模型
2021-12-29 03:31:23 39KB Python开发-机器学习
1
GhostNet的PyTorch实施 如GhostNet中所述重现GhostNet架构的由Kai Han,Yunhe Wang,祁天,郭建元,徐纯景,关于框架的ILSVRC2012基准。 预训练模型 建筑学 # 参数 MFLOPs 前1名/前5名准确性(%) 5.181百万 140.77 73.636 / 91.228 from ghostnet import ghostnet net = ghostnet () net . load_state_dict ( torch . load ( 'pretrained/ghostnet_1x-9c40f966.pth' )) 培训策略 8个GPU上的批处理大小为1024 初学率0.4 重量衰减0.00004 辍学率0.2 BN重量无衰减 我们将上述设置保持不变,并使用以下不同的训练技术进行实验,以进行消融和繁殖。 在预热阶段,学
2021-12-24 09:17:57 18.68MB pytorch imagenet pretrained-models reproduction
1
lambda.pytorch [NEW!]看看我们的最新作品在CVPR'21该桥梁卷积和自我关注运营商。 LambdaNetworks的PyTorch实现。 Lambda网络应用矩阵乘法的关联定律来逆转自我注意力的计算顺序,从而实现了有关内容交互的线性计算复杂性。 以前在和使用了类似的技术。 在另一个存储库签出一系列自我注意模块。 训练配置 ✓SGD优化器,初始学习率0.1,动量0.9,重量衰减0.0001 ✓时代130,批量大小256,8个Tesla V100 GPU,LR衰减策略余弦 ✓标签平滑0.1 训练有素的检查站 建筑学 参数 襟翼 前1名/前5名(%) 下载 Lambda-ResNet-50 14.995万 6.576克 78.208 / 93.820 | 引文 如果您发现此存储库对您的研究有用,请引用 @InProceedings { Li_2021_CVPR
2021-12-21 09:57:57 5KB pytorch imagenet attention pre-trained-model
1
ResNet-101在ImageNet数据集上的caffe预训练模型,可以用于分类和目标检测网络。
2021-12-09 16:51:52 170.4MB ResNet101 预训练模型 ImageNet 分类
1
鬼网 新闻 2020/11/10 TinyNet(NeurIPS 2020)的代码已在发布。 2020/10/31 GhostNet + TinyNet取得了更好的性能。 请参阅我们的NeurIPS 2020论文中的详细信息: 。 2020/09/24我们发布了GhostNet模型,可在和上更多视觉任务。 2020/06/10 GhostNet包含在。 2020/06/08 PyTorch代码包含在此存储库中。 GhostNet:廉价运营带来的更多功能。 CVPR2020。 韩开,王云和,田琦,郭建元,徐春景,徐昌。 方法 性能 GhostNet击败了其他SOTA轻量级C
1
视觉识别的瓶颈变压器 实验 模型 参数(M) 累积(%) ResNet50基线() 23.5百万 93.62 BoTNet-50 1880万 95.11% BoTNet-S1-50 1880万 95.67% 僵尸网络-S1-59 2750万 95.98% BoTNet-S1-77 4490万 ip 概括 用法(示例) 模型 from model import Model model = ResNet50 ( num_classes = 1000 , resolution = ( 224 , 224 )) x = torch . randn ([ 2 , 3 , 224 , 224 ]) print ( model ( x ). size ()) 模块 from model import MHSA resolution = 14 mhsa = MHSA ( plan
1