1. 机器学习模型 2. 图片分类
2022-02-21 17:07:34 22KB 分类 transformer 数据挖掘 人工智能
1
Swin-Transformer+gradcam可视化代码+Windows环境
2022-01-18 18:00:26 205.75MB gradcam可视化 swin-transformer
1
Swin-Transformer图像分类实战,详见文章:https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/121744503?spm=1001.2014.3001.5501
2021-12-06 16:05:34 916.69MB Swin-Transformer
C ++的Swin变压器实现 参考: : 在职的....
2021-11-16 10:33:53 11KB C++
1
变形金刚 作者:*,*,*,*,,,和。 此回购协议是的正式实现。 当前,它包含用于以下任务的代码和模型: 图像分类:包含在此仓库中。 有关快速,请参见 。 对象检测和实例分割:有关对象检测,请参见 。 语义分割:有关语义分割的信息,请参见 。 更新 2021年4月12日 初始提交: 提供了ImageNet-1K( , , )和ImageNet-22K( , )上。 提供了用于ImageNet-1K图像分类,COCO对象检测和ADE20K语义分割的受支持代码和模型。 在分支提供了用于的cuda内核实现。 介绍 欧亚变压器(名称Swin代表对于s hifted赢得DOW)最初描述 ,其干练作为一个通用的骨干,为计算机视觉。 它基本上是一个分层的Transformer,其表示是通过移动窗口来计算的。 通过将自注意计算限制为不重叠的局部窗口,同时允许跨窗口连接,移位的窗
1
Swin变形金刚-PyTorch 体系结构的实现。 本文介绍了一种称为Swin Transformer的新型视觉变形金刚,它可以用作计算机视觉的通用骨干。 在两个领域之间的差异,例如视觉实体规模的巨大差异以及与文字中的单词相比,图像中像素的高分辨率,带来了使Transformer从语言适应视觉方面的挑战。 为了解决这些差异,我们提出了一个分层的Transformer,其表示是通过移动窗口来计算的。 通过将自注意计算限制为不重叠的局部窗口,同时允许跨窗口连接,移位的加窗方案带来了更高的效率。 这种分层体系结构具有在各种规模上建模的灵活性,并且相对于图像大小具有线性计算复杂性。 Swin Transformer的这些品质使其可与多种视觉任务兼容,包括图像分类(ImageNet-1K的准确度为86.4 top-1)和密集的预测任务,例如目标检测(COCO测试中为58.7框式AP和51.1遮罩式
1