机器学习sklearn中文分词学习记录
2021-03-02 17:01:03 800B 学习记录
1
分词数据集,用于训练一个用来分词的模型。详细看压缩包里的内容。
2021-02-28 22:02:39 91.02MB 中文分词 分词模型 训练数据
1
在使用jiba分词的情况下,使用这个词典有助于提高你的分词准确度,因为这个分词词典包含了众多领域词汇,这些词汇出自某dog的几十个细胞词库。已使用转换器转换成txt,欢迎下载。
2021-02-28 22:02:34 7.29MB 分词词典 中文分词 jieba gensim
1
中文信息计算机自动处理的研究已有几十年的 历史 , 但至今仍有许多技术难题没有得到很好解 决 , 中文姓名自动识别问题就是其中的一个。由于 它与中文文本的自动分词一样 , 属于中文信息处理 的基础研究领域 , 因而它的研究成果直接影响到中 文信息的深层次研究。汉语的自身特点使得中文信 息自动处理大多是先对要处理的文本进行自动分词 (加入显式分割符) , 然后再在分词的基础上进行词 法、语法、语义等方面的深入分析。而在分词阶 段 , 文本中的人名、地名以及其它专有名词和生词 大多被切分成单字词 , 在这种情形下如不能很好地 解决汉语文本中专有名词生词的识别问题 , 将给其 后的汉语文本的深入分析带来难以逾越的障碍。中 文姓名的自动识别问题就是在这种背景下提出来 的。对这一问题的研究目前采用的技术中主要利用 以下几方面的信息: 姓名用字的频率信息、上下文 信息[1 ,2 ] 、语料库统计信息[2 ] 、词性信息等[3 ] 。本 文的方法是 , 首先对中文人名的构成、姓名用字的 规律及上下文文本信息特征进行充分分析 , 在此基 础上建立起两组规则集 , 将其作用于测试文本 , 获 得初步识别结果 , 再利用大规模语料库的统计信息 对初步识别结果进行概率筛选 , 设定合适的阈值 , 输出最终识别结果。经对 50 多万字的开放语料测 试 , 系统自动识别出 1781 个中文人名 , 在不同的 筛选阈值下获得 90 %以上的识别准确率 , 而召回 率高于 91 %。
2021-02-23 23:09:01 83KB 中文分词 搜索引擎 人名 自动
1
官网最新版Elasticsearch 7.6 logstash ik中文分词器下载
2021-02-23 16:02:11 449.45MB elasticsearch analysis-ik 7.6.2 logstash
1
分词处理工具/中文分词/词性标注/实体识别
2021-02-22 18:05:21 58.01MB 分词 中文分词 java 工具
1
中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时,具备较高的正确率。而且不少中文分词软件支持Lucene扩展。但不管实现如何,目前而言的分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。
1
通用中文分词包,jieba分词可以对语句进行分词
2021-02-13 11:03:42 17.69MB nlp分词
1
结巴分词用到的资源文件,使用方式见博客 结巴分词用到的资源文件,使用方式见博客 结巴分词用到的资源文件,使用方式见博客 结巴分词用到的资源文件,使用方式见博客
2021-02-09 13:04:08 1.88MB jieba分词
1
根据公司某部门项目合同数据处理的需求,我自己写的一个以Excel表为输入数据的界面化软件。主要功能为包括:批量输入N个Excel表的数据并进行数据规范化汇总,然后根据分词结果,用余弦定理进行字段的模糊匹配,相似度阈值可以手动调整,分词库也可以自己优化调整,全过程界面化显示,是个成熟度比较高的小软件。使用模块化开发,fuction.cs 中包含很多对Excel操作的函数,可以给大家借鉴到其他场景使用。
2021-02-06 10:07:07 1.71MB Excel 模糊匹配 相似度比对 分词算法
1