Transformers_for_Text_Classification 基于Transformers的文本分类 基于最新的出品的v2.2.2代码进行重构。为了保证代码日后可以直接复现而不出现兼容性问题,这里将放到本地进行调用。 强调 支持transformer模型后接各种特征提取器 支持测试集预测代码 精简原始变形金刚代码,使之更适合文本分类任务 优化日志记录终端输出,使之输出内容更加合理 支持 型号: 伯特 伯特·cnn bert_lstm 伯特·格鲁 互联网 xlnet_cnn xlnet_lstm xlnet_gru 阿尔伯特 内容 数据集:存放数据集 pretrai
1
PyTorch中计算机视觉应用程序的自注意力构建基块 使用einsum和einops在PyTorch中实现计算机视觉的自我关注机制。 专注于计算机视觉自我注意模块。 通过pip安装 $ pip install self-attention-cv 如果您没有GPU,最好在您的环境中预安装pytorch。 相关文章 程式码范例 多头注意力 import torch from self_attention_cv import MultiHeadSelfAttention model = MultiHeadSelfAttention ( dim = 64 ) x = torch . rand ( 16 , 10 , 64 ) # [batch, tokens, dim] mask = torch . zeros ( 10 , 10 ) # tokens X tokens mask [ 5 :
1
PyTorch的Bert多标签文本分类 此仓库包含用于多标签文本分类的预训练BERT和XLNET模型的PyTorch实现。 代码结构 在项目的根目录,您将看到: ├── pybert | └── callback | | └── lrscheduler.py   | | └── trainingmonitor.py  | | └── ... | └── config | | └── basic_config.py #a configuration file for storing model parameters | └── dataset    | └── io
2021-08-27 20:41:49 154KB nlp text-classification transformers pytorch
1
细粒度情感分类 此仓库显示了对各种NLP方法的比较和讨论,这些方法可以在(SST-5)数据集上执行5级情感分类。 目标是使用多个基于规则,基于线性和神经网络的分类器来预测此数据集上的类,并查看它们之间的区别。 当前已实现以下分类器: TextBlob :基于规则,使用库中的内部polarity度量。 Vader :基于规则,使用库中的compound极性分数。 Logistic回归:在将词汇表转换为特征向量并考虑使用TF-IDF的词频影响后,在scikit-learn中训练简单的logistic回归模型。 SVM :在将词汇表转换为特征向量并使用TF-IDF考虑词频的影响后,在sci
2021-08-19 22:24:07 1.55MB nlp sentiment-analysis transformers flair
1
焦炉火中的DALL-E 在实现/复制 (OpenAI的文本到图像转换器)。 它还将包含用于对世代进行排名。 , 和正在开发 ! 如果您想了解DALL-E在TPU上的培训,请帮助他们。 在复制此内容之前,我们可以适应“或“ 状态 设法在仅2000张风景图像的数据集上训练了一个小的6层DALL-E! (2048个视觉标记) 安装 $ pip install dalle-pytorch 用法 火车VAE import torch from dalle_pytorch import DiscreteVAE vae = DiscreteVAE ( image_size = 256 ,
1
瓶颈变压器-火炬 在Pytorch中,在性能-计算权衡方面优于EfficientNet和DeiT的卷积(SotA)视觉识别模型的卷积+注意实现 安装 $ pip install bottleneck-transformer-pytorch 用法 import torch from torch import nn from bottleneck_transformer_pytorch import BottleStack layer = BottleStack ( dim = 256 , # channels in fmap_size = 64 , # feature map size dim_out = 2048 , # channels out proj_factor = 4 , #
1
spaCy是我的自然语言处理(NLP)任务的必备库。spaCy 用户手册
2021-07-01 18:02:44 445KB spacy 用户手册
1
视觉变形金刚 在PyTorch中实现,这是一种使用变压器样式编码器在视觉分类中实现SOTA的新模型。相关文章。 特征 香草维生素 混合ViT(支持BiTResNets作为骨干网) 混合ViT(支持AxialResNets作为骨干网) 训练脚本 去做: 训练脚本 支持线性衰减 正确的超级参数 全轴向ViT Imagenet-1K和Imagenet-21K的结果 安装 创建环境: conda env create -f environment.yml 准备数据集: mkdir data cd data ln -s path/to/dataset imagenet 运行脚本 对于非分布式培训: python train.py --model ViT --name vit_logs 对于分布式培训: CUDA_VISIBLE_DEVICES=0,1,2,3 python dist_tra
1
素描变压器 建模绘图,快速! 使用变压器的数据集。 火车模型 $ python train.py --on-memory-dataset 预训练模型 一个预先训练的模型( test llh: 3.002 assets/model_1000000.pt )在assets/model_1000000.pt $ python train.py --num-transformer-layers=8 --dropout-rate=0.1 --batch-size=128 --learning-rate=1e-3 --on-memory-dataset --log-freq=10000 产生样品 $
2021-04-27 16:59:49 69.02MB sketch transformers pytorch SketchPython
1
论文 Attention-is-all-you-need 训练数据集,即Transformers的数据集
2021-04-21 09:08:03 24.33MB Transformers
1