A股上市公司媒体正面报道、中性报道和负面报道数据1994-2017.正面为1,中性为0,负面为-1,报道来自各大媒体。可用于财经信息情感分析。
2022-11-17 11:07:43 203.67MB 大数据 训练数据 bert 人工智能
1
机器 GeForce RTX 280 环境 python 3.6.12 pytorch 1.6.0 中文数据集 ChineseNlpCorpus中属于情感/观点/评论倾向性分析的微博评论数据集weibo_senti_100k 该数据集包含119988条带情感标注的新浪微博评论数据,其中正向评论占59993条,负向评论占59995条 类别:negative,positive 数据集划分: 数据集 数据量 训练集 95990 验证集 11999 测试集 11999 效果 模型 acc 备注 bert 97.78% 单纯的bert bert_BiLSTM 97.93% bert + BiLSTM bert_DPCNN 97.87% bert + DPCNN bert_BiLSTM_Att 98.42% bert + BiLSTM + Attention 预训练语言模型 bert模型放在 bert
2022-11-04 20:44:06 10.1MB Python
1
包括三个文件: 1. pytorch_model.bin 2. config.json 3. vocab.txt
2022-10-27 17:05:40 386.68MB bert模型
1
bert中文预处理模型,放在bert_pretrain文件下,包括三个文件: 1. pytorch_model.bin 2. bert_config.json 3. vocab.txt
2022-10-27 17:05:39 365.75MB bert
1
适合学习自然语言的入门者,内部含数据集
2022-10-17 09:07:00 433KB numpy复现bert
BERT手把手实现分类任务-Pytorch
2022-10-15 23:46:52 1.25MB pytorch bert 分类 人工智能
1
预训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分析等任务,性能良好
2022-10-12 14:57:35 547KB 语言模型
1
bert文本分类 代码+数据bert文本分类 代码+数据bert文本分类 代码+数据
2022-10-06 19:07:27 103KB bert 文本分类 自然语言处理
1
使用keras-bert实现 谭松波 酒店评论 文本分类(情感分析)-附件资源
2022-09-29 00:17:13 23B
1
1 介绍 BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型,该模
2022-09-19 09:00:15 474KB 技术
1