在Pyrotch上实现情感分类模型,包含一个BERT 模型和一个分类器(MLP),两者间有一个dropout层。BERT模型实现了预训练参数加载功能,预训练的参数使用HuggingFace的bert_base_uncased模型。同时在代码中实现了基于预训练BERT模型的下游情感分类任务的fine_tune,包含了训练集上的训练、测试集上测试评估性能等内容。 情感分类的大致过程为:首先,将一个句子中的每个单词对应的词向量输入BERT,得到句子的向量表征。然后将句向量经过dropout层再输入分类器,最后输出二元分类预测。
2023-05-15 21:48:36 14KB 自然语言处理 pytorch bert finetune
1
DeBERTa:具有分散注意力的增强解码的BERT DeBERTa:具有分散注意力的增强解码的BERT这是DeBERTa实施的存储库。我们的代码仍处于发布业务流程中,它将在本周末准备就绪。 贡献该项目欢迎您的贡献和建议。 大多数捐款要求您同意一份《捐款者许可协议》(CLA),声明您有权并实际上授予我们使用您的捐款的权利。 有关详细信息,请访问https:// cla。
2023-04-10 16:59:07 114KB Python Natural Language Processing
1
bert-base-chinese bert中文预训练基线模型
2023-04-08 23:27:52 726.81MB bert chinese nlp
1
幽默是一种特殊的语言表达方式,在日常生活中扮演着化解尴尬、活跃气氛、促进交流的重要角色。而幽默计算是近年来自然语言处理领域的新兴热点之一,其主要研究如何基于计算机技术对幽默进行识别、分类与生成,具有重要的理论和应用价值。 本资源是基于基于bert的幽默识别模型,请结合我的博客使用!
2023-04-07 17:51:13 362.39MB nlp bert 预训练模型 python
1
R-BERT R-BERT是用分类的思想实现关系抽取。与基于BERT模型的分类模型有一些区别: 加入实体的标志符号,在BERT提取特征后,又提取了两个实体的词向量作为特征; 思想比较简单,模型的效果很好。 数据集 ccks2019关系抽取的数据集。将数据集处理为下面的格式: 出生日期 \t 汪晋贤1996年1月2日出生于湖北省武汉市,身高175cm,是一名中场球员,现效力于大连一方足球俱乐部 代码结构 |__main.py |__data_loader.py |__model.py |__trainer.py |__utils.py |__export_onnx.py |__predict.py 模型结果
2023-03-30 22:03:36 172KB Python
1
基于HuggingFace 哈工大hfl/chinese-bert-wwm-ext预训练模型微调的中文句子分类模型
2023-03-30 18:32:49 358.49MB 句子分类
1
tensorflow的预训练bert模型转换成pb文件,提供给大家下载
2023-03-28 11:06:11 122.07MB tensorflow bert pb
1
使用BERT的越南语NER(bert-vn-ner) 由Trong-Dat Ngo编写的代码。 引言 BERT模型的Pytorch实现为越南语执行命名实体识别(NER)。 此外,单词中的特征也用于表示单词。 该系统使用预训练模型 安装 要求: Python 3.6+ 火炬1.4+ 安装依赖项: pip3 install -r requirements.txt 数据集格式 bert-vn-ner的输入数据格式遵循CoNLL-2003格式,其中四列由制表符分隔,包括word , pos , chunk和named实体。 每个单词都放在单独的行上,每个句子后面都有一个空行。 请注意,分词不用于匹配BERT的预训练(以bert-base-multilingual-cased表示) 。 有关详细信息,请参见“数据”目录中的样本数据。 下表描述了数据集中的越南语例句示例。 单词 销售点
2023-03-23 21:36:36 710KB tagging named-entity-recognition ner bert
1
地址信息作为空间信息,在各行各业中的应用越来越广泛,通过日常地址和标准地址匹配获取到标准地址的经纬度的应用很广泛,目前在匹配中使用深度学习Bert模型的方法对地址进行分段分级,通过分级信息,对地址济宁精准匹配。
1
使用Bert进行文本二分类实验用的训练数据文件,仅限学习使用。
2023-03-15 10:19:54 128KB 文本分类 Bert
1