Swin Transformer的测试模型
2022-04-12 17:05:57 494.65MB transformer 深度学习 人工智能
本例提取了植物幼苗数据集中的部分数据做数据集,数据集共有12种类别,演示如何使用timm版本的Swin Transformer图像分类模型实现分类任务已经对验证集得分的统计,本文实现了多个GPU并行训练。 通过本文你和学到: 1、如何从timm调用模型、loss和Mixup? 2、如何制作ImageNet数据集? 3、如何使用Cutout数据增强? 4、如何使用Mixup数据增强。 5、如何实现多个GPU训练和验证。 6、如何使用余弦退火调整学习率? 7、如何使用classification_report实现对模型的评价。 8、预测的两种写法。
2022-02-24 09:11:40 930.94MB transformer 分类 深度学习 人工智能
1. 机器学习模型 2. 图片分类
2022-02-21 17:07:34 22KB 分类 transformer 数据挖掘 人工智能
1
Swin-Transformer+gradcam可视化代码+Windows环境
2022-01-18 18:00:26 205.75MB gradcam可视化 swin-transformer
1
Swin分割模型。
2021-12-14 11:09:10 686.51MB Swin
1
Swin-Transformer图像分类实战,详见文章:https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/121744503?spm=1001.2014.3001.5501
2021-12-06 16:05:34 916.69MB Swin-Transformer
C ++的Swin变压器实现 参考: : 在职的....
2021-11-16 10:33:53 11KB C++
1
swin-timesformer 一个简单的滑动窗口Timesformer
2021-11-12 09:47:12 3KB Python
1
变形金刚 作者:*,*,*,*,,,和。 此回购协议是的正式实现。 当前,它包含用于以下任务的代码和模型: 图像分类:包含在此仓库中。 有关快速,请参见 。 对象检测和实例分割:有关对象检测,请参见 。 语义分割:有关语义分割的信息,请参见 。 更新 2021年4月12日 初始提交: 提供了ImageNet-1K( , , )和ImageNet-22K( , )上。 提供了用于ImageNet-1K图像分类,COCO对象检测和ADE20K语义分割的受支持代码和模型。 在分支提供了用于的cuda内核实现。 介绍 欧亚变压器(名称Swin代表对于s hifted赢得DOW)最初描述 ,其干练作为一个通用的骨干,为计算机视觉。 它基本上是一个分层的Transformer,其表示是通过移动窗口来计算的。 通过将自注意计算限制为不重叠的局部窗口,同时允许跨窗口连接,移位的窗
1
Swin变形金刚-PyTorch 体系结构的实现。 本文介绍了一种称为Swin Transformer的新型视觉变形金刚,它可以用作计算机视觉的通用骨干。 在两个领域之间的差异,例如视觉实体规模的巨大差异以及与文字中的单词相比,图像中像素的高分辨率,带来了使Transformer从语言适应视觉方面的挑战。 为了解决这些差异,我们提出了一个分层的Transformer,其表示是通过移动窗口来计算的。 通过将自注意计算限制为不重叠的局部窗口,同时允许跨窗口连接,移位的加窗方案带来了更高的效率。 这种分层体系结构具有在各种规模上建模的灵活性,并且相对于图像大小具有线性计算复杂性。 Swin Transformer的这些品质使其可与多种视觉任务兼容,包括图像分类(ImageNet-1K的准确度为86.4 top-1)和密集的预测任务,例如目标检测(COCO测试中为58.7框式AP和51.1遮罩式
1