VS2013使用盘古分词先对用户输入的句子进行分割,在进行词语的查询的使用软件
2019-12-21 20:58:30 3.88MB C# .net
1
主要是读取文本,然后进行分词、词干提取、去停用词、计算词频,有界面,很实用
2019-12-21 20:55:18 70KB 词频计算
1
jieba分词,连接数据库,分析数据库中的文本,并提取时间、地点、目标,整个完整流程/
1
分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
2019-12-21 20:50:47 8.71MB 分词
1
进行中文文本分词时,使用的是jieba分词工具。文档中演示了结巴分词器的.Net版本在VS2013中的使用流程。新人上货,请指正!
2019-12-21 20:49:25 320KB C# 中文分词 Jieba分词
1
java中文分词,协同过滤算法词频分析,javaGUI界面初步,生成java数据词云
2019-12-21 20:47:42 207KB java
1
JAVA中maven的使用,中文分词,以及了解协同过滤算法如何做词频分析
2019-12-21 20:47:41 44.81MB JAVA
1
自然语言处理课程的小作业,以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。
2019-12-21 20:46:15 2.25MB HMM
1
本次提供的中文汉语语料syj_trainCorpus_utf8.txt全网免费,转载需要注明出处,语料是作者通过爬取的短文本和网络上的预料处理、合并生成的。整个语料大小264M,包含1116903条数据,数据用空格隔开,可以用来训练分词模型。
2019-12-21 20:45:48 108.12MB NLP 语料 中文分词语料 中文语料
1
配置文件,hanlp-1.7.2-release.zip,其他安装问题https://blog.csdn.net/qq_34243930/article/details/88903499
2019-12-21 20:42:50 1.75MB hanlp NLP分词
1