本项目是自然语言处理NLP在中文文本上的一些简单应用,如文本分类、情感分析、命名实体识别等。 文本分类 数据集用的是头条的标题和对应文章分类数据。数据集来自这里: 文本分类的例子对应zh_article_classify_bilstm_attention.ipynb,这里构建的是BiLSTM+Attention的模型结构。 具体模型搭建如下: def create_classify_model(max_len, vocab_size, embedding_size, hidden_size, attention_size, class_nums): # 输入层 inputs = Input(shape=(max_len,), dtype='int32') # Embedding层 x = Embedding(vocab_size, embedding_size)(
2021-10-08 11:53:47 107.97MB 附件源码 文章源码
1
NLPS情感分析 关于情感分析的NLP项目
2021-10-08 08:58:35 131.76MB JupyterNotebook
1
目前最全的中文情感词典,包括以下内容: 褒贬词及其近义词 ,汉语情感词极值表, 清华大学李军中文褒贬义词典, 情感词典及其分类, 情感词汇本体, 台湾大学NTUSD简体中文情感词典, 知网Hownet情感词典。
2021-10-04 21:31:54 1.53MB 情感词库 语义词库 情感分析 中文
1
EasyBert 基于Pytorch的Bert应用,包括命名实体识别、情感分析、文本分类以及文本相似度等(后续更新其他方向相关模块),并有相关数据与深度训练优化方式api。各个子项目大都为开源工作,本项目仅做相应处理以及提供一个已训练的预测接口,方便需求者进行快速的使用。本项目仅作为学习与研究使用,若存在侵权行为,请原作者务必联系我进行协商处理。 使用示例 使用前需下载相应的已训练模型,并导入相应位置 模型下载地址: 在此目录下各以需求名命名的文件中提供相应的使用演示,本阶段所训练的模型效果可以满足相应任务的基本需求。 现阶段通过各任务接口的时间相对慢,大都是在模型加载阶段。若想提升相应的速度,请使用者在接受相应精度损失的前提下更换AlBert进行相应任务的重新预训练。 依赖项 环境依赖 python >= 3.7 Pytorch >= 1.14 transformers >= 2.8.0
2021-10-02 19:01:24 720KB Python
1
中文情感分析python程序,基于python的情感分析案例,Python源码.zip
2021-10-01 09:04:15 1.2MB
带有逻辑回归的情感分析:使用逻辑回归的情感分析
2021-09-29 20:58:24 3.93MB JupyterNotebook
1
微博情感分析语料集,适用于做NLP情感分析
2021-09-28 17:08:43 2.46MB 微博情感分析语料集 情感分析
NLPCC2014 微博情感分析样例数据。数据集以xml格式储存,包含情感类别,keypression。sentiment classification
2021-09-28 17:08:10 13.6MB NLPCC2014 NLPCC2014 comparezs2 情感分析
使用MLP/RNN/LSTM模型进行IMDb情感分析,使用Jupyter Notebook 编写的 Python代码,含建模及测试,代码注释清晰,十分适合新手
2021-09-27 19:51:20 1.66MB Keras MLP RNN LSTM
1
基于SO-PMI算法的情感极性判别代码,有注释容易理解。针对2元词组共现频率为0的情况,参照论文设置了goodturing平滑和laplace平滑方法。论文可以自己去知网搜索。运行速度慢,建议训练数据不要超过80000条。
1