中⽂分词技术有三种组成:基于规则的、基于统计的、混合分词 基于规则的分词在已经建⽴好词库的前提下,通过扫描⽂本内容匹配到词库中,若词库中存在⽂本中某词,则把该词单独提取出来。 基于统计的分词需要建⽴语料库并设计分词模型,将中⽂⽂本通过训练好的模型进⾏⾃动分词。 混合分词先进⾏基于规则的分词、再进⾏基于统计的分词,这样分词效果最好,但是也最⿇烦。
1
NLTK Natural Language Processing with Python中文版
2022-04-19 11:39:45 3.14MB NLTK Python 自然语言处理 中文版
1
iZOzone4臭氧中文汉化iZOzone4是一款强大的母带处理效果器!
2022-04-14 15:13:36 16.15MB 音频插件 母带处理 中文 汉化
1
北大数字图像处理中文课件 就是著名的教材: Rafael C. Gonzalez, Richard E. Woods 著,阮秋琦、阮宇智等译,数字图像处理(第 二版),电子工业出版社
2022-04-09 04:42:24 17.18MB 数字图像处理
1
编译好的python3可以使用的pdfminer,可以处理中文,直接setup安装
2022-04-06 20:44:21 21.75MB pdfmin
1
计算机视觉从业者必看的一本书籍之一, 和工作非常相关.
2022-03-20 15:17:34 42.85MB 计算机视觉 特征提取 图像处理
1
自然语言处理-中文分词程序实验报告(含源代码)
2022-03-18 16:12:47 816KB 分词
1
该文档为ccks2019(全国语义计算与知识图谱大会)自动问答评测任务的语料集,包含训练集开发集和测试集,该问答评测基于PKUbase知识库。 该数据集由北京大学团队发布,github有官方下载地址https://github.com/pkumod/CKBQA,由于github经常速度很慢,因此发布在此便于感兴趣的同学下载
2022-02-16 15:20:09 255KB KBQA 自然语言处理 中文数据集
1
资源来自 https://github.com/Embedding/Chinese-Word-Vectors
2022-01-31 16:08:27 531.43MB 自然语言处理 人工智能 nlp
1
资源来源 https://github.com/Embedding/Chinese-Word-Vectors
2022-01-31 16:08:26 707.81MB 自然语言处理 人工智能 nlp 中文词向量
1