基于bert的代码 :bert+dnn、bert +textcnn、bert_wwm+textcnn、bert+12层cls+textcnn
2021-12-28 18:03:59 365.1MB python
1
微博立场检测是判断一段微博文本针对某一目标话题所表达的观点态度是支持、中立或反对.随着社交媒体的发展,从海量的微博数据中挖掘其蕴含的立场信息成为一项重要的研究课题.但是现有的方法往往将其视作情感分类任务,没有对目标话题和微博文本之间的关系特征进行分析,在基于深度学习的分类框架上,扩展并提出了基于Bert-Condition-CNN的立场检测模型,首先为提高话题在文本中的覆盖率,对微博文本进行了主题短语的提取构成话题集;然后使用Bert预训练模型获取文本的句向量,并通过构建话题集和微博文本句向量之间的关系矩阵Condition层来体现两个文本序列的关系特征;最后使用CNN对Condition层进行特征提取,分析不同话题对立场信息的影响并实现对立场标签的预测.该模型在自然语言处理与中文计算会议(NLPCC2016)的数据集中取得了较好的效果,通过主题短语扩展后的Condition层有效地提升了立场检测的准确度.
2021-12-25 21:20:30 1.37MB 立场检测 主题短语 关系矩阵 句向量
1
本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMDB影评数据作为训练数据。 transformers模块简介 transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。 本来打算预训练bert-large模型,发现colab上GPU显存不够用,只能使用base版本了。打开colab,并且设置好GPU加速,接下来开
2021-12-25 13:21:21 101KB c OR 模型
1
XLNet的预训练好的模型文件,来自 https://github.com/zihangdai/xlnet
2021-12-22 15:42:32 413.55MB BERT
1
使用BERT的情感分析
2021-12-20 16:37:09 25.34MB Python
1
NL2SQL-BERT 内容增强的基于BERT的文本到SQL生成 将数据库设计规则整合到text-to-sql生成中: 我们使用表格单元格和问题字符串的匹配信息来构造一个向量,该向量的长度与问题长度相同。 该问题向量主要提高了WHERE-VALUE推理结果的性能。 因为它注入了将答案单元格及其对应的表头绑定在一起的知识。 如果找到答案单元格,那么我们将找到包含答案单元格的答案列。 我们使用所有表头和问题字符串的匹配信息来构造一个向量,该向量的长度与表头的长度相同。 该头向量主要提高了WHERE-COLUMN推理结果的性能。 要求 python 3.6 记录0.5.3 火炬1.1.0
2021-12-19 14:34:21 4.97MB nlp deep-learning knowledge pytorch
1
文字分类器 此仓库是基于Tensorflow2.3的文本分类任务,分别支持: 随机初始单词嵌入+ TextCNN 随机初始词嵌入+注意+ TextCNN 随机初始单词嵌入+ TextRCNN Word2Vec + TextCNN Word2Vec +注意+ TextCNN Word2Vec + TextRCNN 伯特嵌入(没有微调,直接取向量)+ TextCNN Bert嵌入(没有微调,直接取向量)+ TextRCNN 代码支持二分类和多分类,此项目基于爬取的游戏评论正是个二元的情感分类作为演示。 环境 python 3.6.7 张量流== 2.3.0 gensim == 3.8.3 杰巴== 0.42.1 sklearn == 0.0 其他环境见requirements.txt 更新历史 日期 版本 描述 2018-12-01 v1.0.0 初始仓库 2020-10-
2021-12-19 13:33:47 65.45MB word2vec textcnn textrcnn tensorflow2
1
一、DistilBert for Chinese 海量中文预训练蒸馏Bert模型 拟于12月16日发布 target to release on Dec 16th. 拟发布内容 Contents: 1.1 可下载的蒸馏模型,已经训练过 a pretrained chinese DistilBert, others can use it directly or trained again on their own corpus; 1.2 可用于下游任务的例子和代码,包括3个ChineseGLUE(CLUE)的任务 fine tuning examples and codes using DistilBert on three ChineseGLUE(CLUE) tasks; 1.3 小模型基准测评 performance comparsion with albert_tiny, ernie
2021-12-15 22:16:28 1KB
1
伯特比 BERTopic是一种利用主题建模技术 :hugging_face: 转换程序和c-TF-IDF创建密集的群集,使主题易于理解,同时在主题描述中保留重要字词。 它甚至支持类似于LDAvis的可视化! 相应的媒体帖子可以在找到。 安装 可以使用完成安装: pip install bertopic 要使用可视化选项,请按照以下步骤安装BERTopic: pip install bertopic[visualization] 安装错误推荐使用PyTorch 1.4.0或更高版本。 如果安装出现错误,请首先安装pytorch。 入门 要详细了解BERTopic的功能,您可以在查看完整的文档也可以Google Colab笔记本。 快速开始 我们首先从著名的20个新闻组数据集中提取主题,该数据组由英文文档组成: from bertopic import BERTopic from sklearn . datasets import fetch_20newsgroups docs = fetch_20newsgroups ( subset = 'all' , remove
2021-12-14 20:36:41 2.73MB nlp machine-learning topic transformers
1
2021_Semantic-aware Binary Code Representation with BERT PPT.pdf
2021-12-13 18:00:09 1.33MB Paper_ppt
1