人文科学相关自定义词典,共152万词,每行一个词,不重复,可以用作用户自定义词典,提高分词准确率
1
dict.txt(自定义词典
2022-08-09 09:04:34 328B 自定义词典
1
中文分词 最短路分词 N-最短路分词 CRF分词 索引分词 极速词典分词 用户自定义词典 词性标注 命名实体识别 中国人名识别 音译人名识别 日本人名识别 地名识别 实体机构名识别 关键词提取 TextRank关键词提取 自动摘要 TextRank自动摘要 短语提取 基于互信息和左右信息熵的短语提取 拼音转换 多音字 声母 韵母 声调 简繁转换 繁体中文分词 简繁分歧词(简体、繁体、臺灣正體、香港繁體) 文本推荐 语义推荐 拼音推荐 字词推荐 依存句法分析 基于神经网络的高性能依存句法分析器 MaxEnt依存句法分析 CRF依存句法分析 语料库工具
2022-04-23 09:31:17 21.31MB 词海分析
1
今天小编就为大家分享一篇python加载自定义词典实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2022-04-14 19:43:33 26KB python 加载 自定义 词典
1
生活百科相关自定义词典,共67万词,每行一个词,不重复,可以用作用户自定义词典,提高分词准确率
2022-01-20 08:48:51 8.81MB 生活百科 自定义词典 食物 家居
1
工程应用相关自定义词典,共46万词,每行一个词,不重复,工程方面相关的词典
2021-12-01 12:33:16 7.07MB 工程应用 自定义词典 用户词典
1
mynlp:一个生产级,高性能,预定,可扩展的中文NLP工具包。(中文分词,平均感知机,fastText,拼音,新词发现,分词纠错,BM25,人名识别,命名实体,自定义词典
2021-10-26 17:08:50 1.16MB nlp segment pinyin fasttext
1
Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg 5.1.1 调用演示 如果你第一次下载只想测试测试效果可以调用这个简易接口 String str = "欢迎使用ansj_seg,(ansj中文分词)在这里如果你遇到什么问题都可以联系我.我一定尽我所能.帮助大家.ansj_seg更快,更准,更自由!" ; System.
2021-10-22 13:55:16 24.13MB java nlp chinese ansj
1
jieba分词的自定义词典:使用jieba分词对语料进行分词之前,需要先载入,载入代码为jieba.load_userdict("userdict.txt")。
31万个不同的词的自定义词典,不同词,包含城市,乡镇机关,学校,单位等等
1