语音识别
2021-08-15 02:00:32 8KB 语音识别
视觉变压器 Pytorch重新实现了针对随论文 ,Alexey Dosovitskiy,Lucas Beyer,Alexander Kolesnikov,Dirk Weissenborn,翟小华,Thomas Unterthiner,Mostafa Dehghani一起发布, Matthias Minderer,Georg Heigold,Sylvain Gelly,Jakob Uszkoreit和Neil Houlsby。 本文表明,将Transformers直接应用于图像补丁并在大型数据集上进行预训练,在图像识别任务上确实能很好地工作。 Vision Transformer使用标准的Transformer编码器和固定大小的补丁程序,可以实现图像识别任务中的最新技术。为了执行分类,作者使用了在序列中添加一个额外的可学习的“分类令牌”的标准方法。 用法 1.下载经过预先​​训练的模型(
2021-07-01 15:24:15 5.95MB JupyterNotebook
1
视觉变形金刚 在PyTorch中实现,这是一种使用变压器样式编码器在视觉分类中实现SOTA的新模型。相关文章。 特征 香草维生素 混合ViT(支持BiTResNets作为骨干网) 混合ViT(支持AxialResNets作为骨干网) 训练脚本 去做: 训练脚本 支持线性衰减 正确的超级参数 全轴向ViT Imagenet-1K和Imagenet-21K的结果 安装 创建环境: conda env create -f environment.yml 准备数据集: mkdir data cd data ln -s path/to/dataset imagenet 运行脚本 对于非分布式培训: python train.py --model ViT --name vit_logs 对于分布式培训: CUDA_VISIBLE_DEVICES=0,1,2,3 python dist_tra
1
含有T2T-Vit、BotNet、MobileFaceNet、ResNet模型用于人脸识别训练。可参考:https://blog.csdn.net/Bixiwen_liu/article/details/113951973?spm=1001.2014.3001.5501,或,https://blog.csdn.net/Bixiwen_liu/article/details/114894804?spm=1001.2014.3001.5501
2021-04-14 09:02:24 80.04MB 人脸识别 T2T-Vit BotNet Transformer
vision in transformer论文源码
2021-03-13 09:05:43 5.16MB vit transformer
1
用于人脸识别的T2T-ViT网络。可参考博客:https://blog.csdn.net/Bixiwen_liu/article/details/114894804?spm=1001.2014.3001.5501
2021-02-23 20:02:44 6KB 人脸识别 TransFormer T2T-ViT