IK中文分词器 里面含有配置文件和jar包等全面的文件。
2019-12-21 21:19:42 1.12MB IK分词器 中文分词器 ikanalyzer
1
最新版solr4.3的IK分词器,中文分词效果良好!对付一般的大众分词没有问题
2019-12-21 21:19:32 1.19MB IK分词器 jar
1
拼音加加中文词库以及各行业扩充词库(txt中文分词字典)
2019-12-21 21:17:37 1.78MB 中文词库
1
NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;这个是java版本
2019-12-21 21:15:10 3.8MB 中文分词 关键词提取
1
本资源收集了史上最全的停用词表 中文,英文全都包含其中 另附pycharm停用词表的构建 停用词过滤,是文本分析中一个预处理方法。它的功能是过滤分词结果中的噪声(例如:的、是、啊等)
2019-12-21 21:14:40 45KB 停用词 中文停用词 英文停用词 分词
1
22万词条,供大家学习使用。中文分词词典 中文自然语言处理基础
2019-12-21 21:11:04 2.09MB 中文 分词 词典 自然语言处理
1
最近在用ECSHOP做一个商城,发现ECSHOP的模糊搜索要求太高,需要加入and、空格、加号等,客户搜索的时候不可能这样操作。所以想对搜索功能进行改进,可是在网上没有找到这样的插件,有收费的,结果要2000大元。考虑了一下申请经费的麻烦,自己费点儿力气做一个吧。考虑到工期的问题,采用了织梦的分词算法,搜索效果虽然不是特别理想,但是这么短的时间也只能这样了。在此分享给没钱又着急的朋友。
1
基于字的用感知机实现的中文分词系统。完全训练后对微软的测试集精度可以达到96%多。我上传的版本是完整的代码(训练和分词),大家自己用附带的微软训练数据训练就可以了,只有一个文件。 代码总的来说写的还是很清楚的,方便自己也方便别人阅读。欢迎大家共讨论,xiatian@ict.ac.cn。
2019-12-21 21:11:02 4.92MB python 分词 感知机
1
1:中文分词 2:词频统计 3:罗列出要自动提取的关键字 ---------------------------------------- 具有60 万字/秒的高速处理能力。
2019-12-21 21:10:56 2.6MB 中文分词 关键字提取
1
java 实现的基于FMM BMM算法的,中文分词算法(代码)
2019-12-21 21:10:30 3.96MB FMM BMM java 分词
1