基于 pytorch-transformers 实现的 BERT 中文文本分类代码 数据: 从 THUCNews 中随机抽取20万条新闻标题,一共有10个类别:财经、房产、股票、教育、科技、社会、时政、体育、游戏、娱乐,每类2万条标题数据。数据集按如下划分: 训练集:18万条新闻标题,每个类别的标题数为18000 验证集:1万条新闻标题,每个类别的标题数为1000 测试集:1万条新闻标题,每个类别的标题数为1000
2024-05-09 10:42:25 732.57MB pytorch bert 文档资料 人工智能
1
huggingface下载速度慢,遇到sentence-transformers模型下载失败还是尽量使用进行本地下载改路径的方式。
2024-04-11 23:10:48 817MB 自然语言处理
1
是一个情感分类的项目,前面是对emotion数据集的处理和分析,以及将整个数据集分词以及处理成模型的输入形式。 主要是通过加载一个文本分类的预训练模型,然后在数据集上面进emotion数据集上面的fine-tuning。然后对训练好的模型进行效果的分析,包括F1,Precision和Recall等。 fine-tune transformers distilbert-base-uncased - distilbert 是对 bert 的 distill 而来 - 模型结构更为简单, - bert-base-uncased 参数量:109482240 - distilbert-base-uncased 参数量:66362880 - trainer默认自动开启 torch 的多gpu模式, - `per_device_train_batch_size`: 这里是设置每个gpu上的样本数量, - 一般来说,多gpu模式希望多个gpu的性能尽量接近,否则最终多gpu的速度由最慢的gpu决定, - 比如快gpu 跑一个batch需要5秒。
2023-07-10 16:26:26 658KB bert Transformer fine-tuning LLM
1
RAT-SQL 该存储库包含ACL 2020论文。 如果您在工作中使用RAT-SQL,请按以下方式引用: @inproceedings { rat-sql , title = " {RAT-SQL}: Relation-Aware Schema Encoding and Linking for Text-to-{SQL} Parsers " , author = " Wang, Bailin and Shin, Richard and Liu, Xiaodong and Polozov, Oleksandr and Richardson, Matthew " ,
1
GoEmotions火炬手 使用实现Pytorch实现 什么是GoEmotions 数据集以28种情感标记为58000个Reddit评论 钦佩,娱乐,愤怒,烦恼,批准,关怀,困惑,好奇心,欲望,失望,不赞成,厌恶,尴尬,兴奋,恐惧,感激,悲伤,喜悦,爱,紧张,乐观,骄傲,意识到,缓解,后悔,悲伤,惊喜+中立 训练细节 使用基于bert-base-cased (与论文的代码相同) 在本文中,使用了3种分类法。 我还使用用于分类hierarchical grouping和ekman新分类标签制作了数据。 原始GoEmotions (27种情感+中性) 分层分组(正,负,模棱两可+中性) 艾克曼(愤怒,厌恶,恐惧,喜悦,悲伤,惊奇+中立) 词汇 我已分别将[unused1] , [unused2]替换为[NAME]和[RELIGION] 。 [PAD] [NAME] [RELIGI
1
TimeSformer-Pytorch 实现,是一种基于关注点的纯净,简单的解决方案,可以在视频分类上达到SOTA。 该存储库将仅存储性能最佳的变体“时空分散注意力”,无非就是沿空间之前的时间轴的注意力。 安装 $ pip install timesformer-pytorch 用法 import torch from timesformer_pytorch import TimeSformer model = TimeSformer ( dim = 512 , image_size = 224 , patch_size = 16 , num_frames = 8 , num_classes = 10 , depth = 12 , heads = 8 , dim_head = 64 , attn_dropout =
1
文字图像匹配度检测软件(基于CLIP、Transformers等实现) 使用CLIP(对比图文预训练方法)提供的图文匹配度检测接口,使用huggingface基于Transformers的机器模型实现离线翻译,因此输入中英文均可检测。前端图形化界面使用PYQT开发,并使用了qdarkstyle进行优化 左边一栏是候选文字语句,右边一栏是对应每条文字语句的匹配度 支持中英文
2023-01-03 11:26:19 317.82MB python 深度学习 qt pyqt5
1
End-to-End Object Detection with Transformers论文阅读笔记
2023-01-02 20:27:38 9.33MB 深度学习 论文阅读
1
COCO LM预训练(WIP) 在Pytorch中实现 ,纠正和对比文本序列以进行语言模型预训练。 他们能够以自我监督的方式进行对比学习,以进行语言模型预训练。 似乎是Electra的坚实后继者。 安装 $ pip install coco-lm-pytorch 用法 使用x-transformers库的示例 $ pip install x-transformers 然后 import torch from torch import nn from x_transformers import TransformerWrapper , Encoder from coco_lm_pytorch import COCO # (1) instantiate the generator and discriminator, making sure that the generator is ro
1
基于Transformers的时间序列平稳性分析(Python完整源码和数据) 基于Transformers的时间序列平稳性分析(Python完整源码和数据) 基于Transformers的时间序列平稳性分析(Python完整源码和数据) Transformers 时间序列 数据分析
2022-11-25 12:26:58 2.01MB Transformers 时间序列 数据分析