用python语言来做一些NLP(自然语言处理)的工作,笔记分为11章,层层梯进,包含开发环境介绍、功能代码实现步骤、案例实战等。
2022-02-11 21:06:15 53.58MB python 自然语言处理 后端 人工智能
1
中文自然语言处理文本分类语料,共15个分类,类别包括财经、电竞、房产、国际、教育、军事、科技、旅游、民生、农业、汽车、体育、文化、娱乐、证券
2021-12-19 16:01:45 64.98MB nlp 机器学习 自然语言处理
1
MacBERT:重新审视中文自然语言处理的预训练模型(EMNLP的发现)
2021-08-23 22:55:02 128KB nlp tensorflow language-model bert
1
搜集、整理、发布 中文 自然语言处理 语料/数据集,与 有志之士 共同 促进 中文 自然语言处理 的 发展。
2021-07-22 13:45:10 9.18MB Python开发-自然语言处理
1
中文分句也是自然语言处理的基础之一,一般来说,中文中每个句子都表达了一个完整的意思。GATE的ANNIE提供了一个ANNIE Sentence Split资源,可以用于划分英文句子,但对中文的划分效果很不好(整篇文章分成了一个句子)。 GATE提供了两种句子划分的方法:基于JAPE规则和基于正则表达式,分别对应于类gate.creole.splitter. SentenceSplitter和gate.creole.splitter.RegexSentenceSplitter。本文先来讲述如何基于JAPE规则进行中文句子划分
2021-04-03 21:27:42 163KB gate
1
4000+古诗数据集下载链接.txt
2021-03-27 20:34:01 147B 中文自然语言处理 古诗
1
“哈工大停用词词库”、“四川大学机器学习智能实验室停用词库”、百度停用词表“及网上各种资源整理去重后得到,包括一些数字及字符
2019-12-21 21:32:44 21KB 停用词 分词 中文 自然语言处理
1
22万词条,供大家学习使用。中文分词词典 中文自然语言处理基础
2019-12-21 21:11:04 2.09MB 中文 分词 词典 自然语言处理
1
本次提供的中文汉语语料syj_trainCorpus_utf8.txt全网免费,转载需要注明出处,语料是作者通过爬取的短文本和网络上的预料处理、合并生成的。整个语料大小264M,包含1116903条数据,数据用空格隔开,可以用来训练分词模型。
2019-12-21 20:45:48 108.12MB NLP 语料 中文分词语料 中文语料
1
本工具为复旦大学计算机学院机器人研究实验室开发的基于深度学习的中文自然语言处理工具FudanDNN-NLP2.0,该工具可用于中文分词、自定义词汇、文本规范化、命名识别、词性标注、语义分析,用户可以根据需要重新训练或者精调模型。深度学习方法的优点在于不需要预先根据任务进行特征选择(特征工程),系统所需参数较少(节省内存开销),并且解码速度(实际使用)远远快于其它相似性能的系统。
2019-12-21 18:59:01 58.86MB 深度学习
1