实验2-中文分词实验.zip
2021-06-02 09:02:09 19.86MB 中文分词
1
中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45%,API不超过200KB,各种词典数据压缩后不到3M,是当前世界上最好的汉语词法分析器。
2021-05-27 16:30:48 72.56MB 自然语言处理 分词 人工智能
1
import jeasy.analysis.MMAnalyzer;支持英文、数字、中文(简体)混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new MMAnalyzer(2); //增加一个新词典,采用每行一个词的读取方式 MMAnalyzer.addDictionary(reader); //增加一个新词 MMAnalyzer.addWord(newWord);
2021-05-25 22:11:03 871KB JAR包 中文分词组件 TXT写入MYSQL
1
360万中文词库+词性+词频词典结构为:词语\t词性\t词频。 词频是用ansj分词对270G新闻语料进行分词统计词频获得。 本人感觉需要特别说明的是词典整理过程中存在部分词汇无法确定是什么词性,对词性进行特别标注:nw和comb 1、词性nw表示本身不知道是什么词性。 2、词性comb表示通过ansj的nlp分词之后又被拆成了两个词。
2021-05-25 21:56:54 28.02MB 中文分词
1
Friso高性能中文分词器框架源码,包含开发文档。 Friso 是使用 c 语言开发的高性能中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入其他程序中, 例如:MySQL,PHP,并且提供了php5, php7, ocaml, lua的插件实现。源码无需修改就能在各种平台下编译使用,加载完 20 万的词条,内存占用稳定为 14.5M. **Friso**核心功能: - [x] 中文分词:mmseg算法 + **Friso** 独创的优化算法,四种切分模式。 - [ ] 关键字提取:基于textRank算法。 - [ ] 关键短语提取:基于textRank算法。 - [ ] 关键句子提取:基于textRank算法。 # **Friso**中文分词: ### 四种切分模式: - [x] 简易模式:FMM 算法,适合速度要求场合。 - [x] 复杂模式- MMSEG 四种过滤算法,具有较高的岐义去除,分词准确率达到了98.41%。 - [x] 检测模式:只返回词库中已有的词条,很适合某些应用场合。(1.6.1版本开始)。 - [ ] 最多模式:细粒度切分,专为检索而生,除了中文处理外(不具备中文的人名,数字识别等智能功能)其他与复杂模式一致(英文,组合词等)。 ### 分词功能特性: - [x] 同时支持对 UTF-8/GBK 编码的切分,支持 php5 和 php7 扩展和 sphinx token 插件。 - [x] 支持自定义词库。
elasticsearch-analysis-ik-6.0.0.tar.gz
2021-05-21 11:01:05 4.09MB elasticsearch analysis ik分词器 中文分词器
中文分词原理及源码剖析
2021-05-20 12:06:06 2.8MB 中文分词
1
python中中文分词的模块jieba,在python项目中对中文的词组进行自动划分,可以通过jieba模块进行划分
2021-05-19 10:39:04 35.42MB python jieba 中文分词模块
1
IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包. IK Analyzer安装包包含: 1. 《IKAnalyzer中文分词器V3.X使用手册》 2. IKAnalyzer3.X.jar(主jar包) 3. IKAnalyzer.cfg.xml(分词器扩展配置文件) 4. ext_stopword.dic(扩展的stopword词典,3.2以上版本提供) 它的安装部署十分简单,将IKAnalyzer3.X.jar部署于项目的lib目录中;IKAnalyzer.cfg.xml 与 ext_stopword.dic 文件放置在代码根目录(对于 web 项目,通常是 WEB-INF/classes 目录,同hibernate、log4j等配置文件相同)下即可。
2021-05-19 02:02:14 1.97MB IKAnalyzer JAVA sorl
1
西方语言在语句(或从句)内词汇之间存在分割符(空格),而汉语的词汇在语句中是连续排列的。因此,汉语词汇的切分(分词)在中文信息处理的许多应用领域,如机器翻译、文献检索、文献分类、文献过滤、以及词频统计等,是非常重要的第一步。 自动分词是基于字符串匹配的原理进行的。迄今为止,已经有许多文献对各种分词方法进行探讨,其着重点或为分词的速度方面,或为分词的精度方面以及分词的规范。本文主要探讨分词的速度问题,通过实验对比和理论分析,说明我们所提出的算法是有效的。 目前人们所提出的分词方法,在考虑效率问题时,通常在词典的组织方面进行某种调整,以适应相应的算法,如最大匹配法、最小匹配法、逐词遍历法、以及最佳匹配法等。这些方法中,或将词典按词条长度排序或按词频排序,其目的在于协调算法与数据结构,使之效率最高。客观地说,它们都在一定程度上提高了分词的效率。 本文所介绍的是基于词典的最大向前匹配方法。而在数据结构方面,我们则是将词典组织成自动机形式。
2021-05-15 17:24:19 327KB C++分词源码,中文分词
1