为解决旅游文本在特征表示时的一词多义问题, 针对旅游游记文本景点实体识别中景点别名的问题, 研究了一种融合语言模型的中文景点实体识别模型. 首先使用BERT语言模型进行文本特征提取获取字粒度向量矩阵, BiLSTM用于上下文信息的提取, 同时结合CRF模型提取全局最优序列, 最终得到景点命名实体. 实验表明, 提出的模型性能提升显著, 在实际旅游领域内景点识别的测试中, 与以往研究者方法比较下准确率, 召回率分别提升了8.33%, 1.71%.
1
bert+bilstm实现菜品正负分类,情感分析
2021-11-03 20:08:35 364.64MB bert
基于Pytorch的中文语义相似度匹配模型 基于Pytorch的中文语义相似度匹配模型 本项目将持续更新,对比目前业界主流文本匹配模型在中文的效果 运行环境:python3.7,pytorch1.2,transformers2.5.1 数据集采用LCQMC数据(将一个句子对进行分类,判断两个句子的语义是否相同(二分类任务)),因数据存在涉嫌嫌疑,故不提供下载,需要者可向官方提出数据申请 ,将数据解压到数据文件夹即可。模型评价指标为:ACC,AUC以及预测总计耗时。 嵌入:本项目输入都统一采用分字策略,故通过维基百科中文语料,训练了字向量作为嵌入。训练语料,矢量模型以及词表,可通过百度网盘下载。链接: : 提取码:s830 模型文件:本项目训练的模型文件(不一定最优,可通过超参继续调优),也可通过网盘下载。链接: : 提取码:s830 测试集结果对比: 模型 行政协调会 AUC 耗时(s
2021-11-03 12:47:32 126KB Python
1
cail2019_track2 中国法研杯CAIL2019要素抽取任务第三名方案分享 欢迎大家使用 (修改了一下readme,之前那一版感觉写的太水了。) 这次比赛和前两名差距很大,但是也在此给大家分享一下我所用的方案。 主要的trick包括领域预训练、focal loss、阈值移动、规则匹配以及模型优化、调参。 没有使用模型融合。 效果对比 由于是第一次参赛,很多比赛细节没有做记录,效果对比的分数是我从凭印象在上传历史记录里边找的,可能分数不一致,但是大概就在那个范围,还请见谅。 Model 详情 线上评分 BERT 使用bert_base做多标签分类 69.553 BERT+RCNN+ATT 在BERT后增加RCNN层,并把最大池化换成Attention 70.143 BERT+RCNN+ATT 增加阈值移动 70.809 BERT+RCNN+ATT 增加focal loss 71.1
2021-11-03 12:39:42 4.19MB multi-label-classification bert rcnn focal-loss
1
Python自然语言处理-BERT实战,提供全部课程资料,包括PPT,数据,代码。 Python自然语言处理-BERT模型实战课程旨在帮助同学们快速掌握当下NLP领域最核心的算法模型BERT的原理构造与应用实例。通俗讲解BERT模型中所涉及的核心知识点(Transformer,self-attention等),基于google开源BERT项目从零开始讲解如何搭建自然语言处理通用框架,通过debug源码详细解读其中每一核心代码模块的功能与作用。
2021-11-01 18:15:00 695B Python 自然语言处理 bert
1
FinBERT:BERT的财务情绪分析 现在可以在Hugging Face模型中心上使用FinBERT情绪分析模型。 您可以在获取模型。 FinBERT是经过预先训练的NLP模型,用于分析财务文本的情绪。 它是通过使用大型金融语料库进一步训练金融领域的语言模型并对其进行微调以进行金融情感分类而构建的。 有关详细信息,请参阅。 重要说明: FinBERT的实现依赖于Hugging Face的pytorch_pretrained_bert库及其用于序列分类任务的BERT的实现。 pytorch_pretrained_bert是库的早期版本。 在不久的将来将FinBERT的代码迁移到transformers是我们的首要任务。 正在安装 通过从给定的environment.yml文件创建Conda环境finbert并激活它来安装依赖项。 conda env create -f environ
2021-10-31 14:05:25 31KB JupyterNotebook
1
使用BERT模型作为句子编码服务,将可变长度句子映射到固定长度向量。
2021-10-31 06:52:48 3.22MB Python开发-机器学习
1
对Bert模型的Ner任务提供了数据集demo
2021-10-29 15:27:57 954KB Bert Ner 命名实体识别
1
给大家分享一套课程——Python自然语言处理-BERT实战,提供全部课程资料,包括PPT,数据,代码。 Python自然语言处理-BERT模型实战课程旨在帮助同学们快速掌握当下NLP领域最核心的算法模型BERT的原理构造与应用实例。通俗讲解BERT模型中所涉及的核心知识点(Transformer,self-attention等),基于google开源BERT项目从零开始讲解如何搭建自然语言处理通用框架,通过debug源码详细解读其中每一核心代码模块的功能与作用。最后基于BERT框架进行中文情感分析与命名实体识别等主流项目实战。
2021-10-27 21:06:38 683B 自然语言处理 bert 深度学习
1
实体关系提取 基于TensorFlow的实体和关系提取。基于TensorFlow的实体和关系撤消,2019语言与智能技术竞赛信息撤除(实体与关系撤回)任务解决方案。 如果您对信息抽取论文研究感兴趣,可以查看我的博客。 抽象 该代码以管道式的方式处理实体及关系抽取任务,首先使用一个多标签分类模型判断句子的关系种类,然后将句子和可能的关系类型输入序列标注模型中,序列标注模型标注出句子中的实体,最终结合预测的关系和实体输出实体-关系列表:(实体1,关系,实体2)。 该代码以管道方式处理实体和关系提取任务。 首先,使用多标签分类模型来判断句子的关系类型。 然后,将句子和可能的关系类型输入到序列标签模
1