视觉转换器 Keras Tensorflow Pytorch 示例 在介绍的 Vision Transformer (ViT) 的 Tensorflow 实现,作者表明 Transformers 直接应用于图像补丁并在大型数据集上进行了预训练,在图像分类方面效果非常好。 官方文件 官方代码 文章一步一步 视觉转换器 。 Vision Transformer 代码集锦 否 名称 关联 1。 ViT Pytorch (1.9K) :star: 2. 谷歌 Vit 代码(1.3K) :star: 3. 全天下(161) :star: 4. Vit Tensorflow2 5. 视觉转换器 Pytorch(80) :star: 6. 预训练视觉转换器 (70) :star: 7. 视觉转换器TF2(49) :star: 8. 视觉转换器 Tensorflow(62) :star: 9. 带控制激活图的视觉变压器(4
2021-08-19 09:26:59 7KB tensorflow example keras pytorch
1
Max7219驱动16x16共阴LED点阵实战, 16x16共阴LED点阵+Max7219+CubeMX+STM23F03+AD20
2021-08-15 16:53:21 2.34MB 共阴LED点阵 Max7219驱动LED 字符取模
1
2018年汇总的几千个16*16大小的图标合集,每种图标都对应着一系列的动作(view\add\delete等等),全部是png格式,全部背景透明,不管干什么,你都可能需要用到它~
2021-08-10 20:56:54 2.79MB 小图标 图标 icon 16x16
1
winform图标库,共3870个资源文件,70个常用,3800个扩展图标,16x16的3870个,32x32的3870个
2021-08-03 09:26:28 10.24MB 16x16 32x32 winform 图标资源文件
1
mmmmmmmmmmmmmmm
2021-07-19 21:01:46 3.23MB uuid
1
视觉变压器 Pytorch重新实现了针对随论文 ,Alexey Dosovitskiy,Lucas Beyer,Alexander Kolesnikov,Dirk Weissenborn,翟小华,Thomas Unterthiner,Mostafa Dehghani一起发布, Matthias Minderer,Georg Heigold,Sylvain Gelly,Jakob Uszkoreit和Neil Houlsby。 本文表明,将Transformers直接应用于图像补丁并在大型数据集上进行预训练,在图像识别任务上确实能很好地工作。 Vision Transformer使用标准的Transformer编码器和固定大小的补丁程序,可以实现图像识别任务中的最新技术。为了执行分类,作者使用了在序列中添加一个额外的可学习的“分类令牌”的标准方法。 用法 1.下载经过预先​​训练的模型(
2021-07-01 15:24:15 5.95MB JupyterNotebook
1
C语言输入汉字输出相应的点阵图
2021-06-29 13:05:34 138KB C语言
1
能够提取16*16字模
2021-06-28 13:24:19 177KB 16*16字模钻换
1
基于51单片机的16X16点阵动态显示数字,包含说明书,布线,源码,烧录文件
2021-06-27 12:59:50 4.77MB 点阵动态显示
1
以前,因为只学过汇编,于是程序都是用汇编写的; 现在,学会了C51编写,以后的程序偶都将用C51进行编写了。 这个源程序是16x16点阵的驱动,内含两种程序,一种是用按键控制显示不同的字;另一种是字自动向左移动的。 压缩包内带字模软件和16x16点阵元件库,所以就不用担心缺少Proteus元件库了。(Proteus7.7+keil Uv4写的)
2021-06-18 17:35:31 1.06MB C51 单片机 16x16 点阵
1