瓶颈变压器-火炬 在Pytorch中,在性能-计算权衡方面优于EfficientNet和DeiT的卷积(SotA)视觉识别模型的卷积+注意实现 安装 $ pip install bottleneck-transformer-pytorch 用法 import torch from torch import nn from bottleneck_transformer_pytorch import BottleStack layer = BottleStack ( dim = 256 , # channels in fmap_size = 64 , # feature map size dim_out = 2048 , # channels out proj_factor = 4 , #
1
spaCy是我的自然语言处理(NLP)任务的必备库。spaCy 用户手册
2021-07-01 18:02:44 445KB spacy 用户手册
1
视觉变形金刚 在PyTorch中实现,这是一种使用变压器样式编码器在视觉分类中实现SOTA的新模型。相关文章。 特征 香草维生素 混合ViT(支持BiTResNets作为骨干网) 混合ViT(支持AxialResNets作为骨干网) 训练脚本 去做: 训练脚本 支持线性衰减 正确的超级参数 全轴向ViT Imagenet-1K和Imagenet-21K的结果 安装 创建环境: conda env create -f environment.yml 准备数据集: mkdir data cd data ln -s path/to/dataset imagenet 运行脚本 对于非分布式培训: python train.py --model ViT --name vit_logs 对于分布式培训: CUDA_VISIBLE_DEVICES=0,1,2,3 python dist_tra
1
素描变压器 建模绘图,快速! 使用变压器的数据集。 火车模型 $ python train.py --on-memory-dataset 预训练模型 一个预先训练的模型( test llh: 3.002 assets/model_1000000.pt )在assets/model_1000000.pt $ python train.py --num-transformer-layers=8 --dropout-rate=0.1 --batch-size=128 --learning-rate=1e-3 --on-memory-dataset --log-freq=10000 产生样品 $
2021-04-27 16:59:49 69.02MB sketch transformers pytorch SketchPython
1
论文 Attention-is-all-you-need 训练数据集,即Transformers的数据集
2021-04-21 09:08:03 24.33MB Transformers
1
SWITCH TRANSFORMERS的PPT分享
2021-04-09 10:02:32 996KB transformer
1
LLC电源设计论文,值得参考
2021-04-04 09:06:54 1.76MB LLC电源
1
Deep Multifaceted Transformers for Multi-objective Ranking in Large-Scale E-commerce Recommender Systems 京东DMT模型论文
2021-03-30 09:18:20 1.8MB Multifaceted Transformers DMT 推荐算法
Use-transformers-train-Bert-from-scratch:TIANCHI-小布助手对话短文本语义匹配BERT基准
2021-03-13 14:54:37 9KB JupyterNotebook
1