中文分词及词性标注语料,包含微软亚研院、搜狗、北京大学等的语料库
2021-03-16 21:33:48 40.61MB 中文分词 词性标注 语料
1
带词性和tf-idf词频统计小巧中文分词词库.rar
2021-03-16 17:00:20 772KB 带词性
1
Java 实现的自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 关键词提取 自动摘要 短语提取 拼音 简繁转换。.zip,自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁
2021-03-12 20:28:13 21.45MB 开源项目
1
SCWS的自述文件 $ Id $ SCWS简介 是Simple Chinese Word Segmentation的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分开的词。词是中文的最小语素单位,但在书写时并不像英语会在词之间用间隔分开,所以如何准确并快速分词一直是中文分词的攻关难点。 SCWS采用纯C语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序,支持的中文编码包括GBK , UTF-8等。几乎还提供了扩展模块,可在PHP中快速而方便地使用分词功能。 分词算法上没有太多创新,采用的是自己采集的词频词典,并辅以一定的专有名称,人名,地名,数字年代等规则识别来达到基本分词,经小范围测试准确率在90 %〜95%之间,基本上能满足一些小型搜索引擎,关键字提取等场合用法。首次原型形版本发布于2005年底。 SC
2021-03-11 19:07:04 7.71MB 系统开源
1
SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。 这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。 SCWS 采用纯 C 语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序, 支持的中文编码包括 GBK、UTF-8 等。此外还提供了 PHP 扩展模块, 可在 PHP 中快速而方便地使用分词功能。
1
solr7.3.1种需要的中文IK分词器,其中包括IK分词的jar和配置文件还有mmseg4j
2021-03-10 11:48:34 2.43MB solr分词器
1
七种中文分词工具的实验尝试与对比,具体使用时需结合场景选择。
2021-03-09 17:02:33 1.96MB 中文分词 分词工具 python
1
postgresql路由插件pgrouting和中文分词插件zhparser安装包
2021-03-08 22:00:31 98.07MB pgrouting zhparser 中文分词插件
1
机器学习sklearn中文分词学习记录
2021-03-02 17:01:03 800B 学习记录
1
分词数据集,用于训练一个用来分词的模型。详细看压缩包里的内容。
2021-02-28 22:02:39 91.02MB 中文分词 分词模型 训练数据
1