1.注释非常详尽,几乎每个函数都有注释,在CUDA11与VS2019下实现,并行加速效果十分显著! 2.同时实现了CPU多线程并行计算和CUDA并行计算两个版本,可以通过宏来选择
2022-11-15 17:27:07 1.42MB 中文分词 C++ cuda 多线程
1
使用隐马尔科夫模型(Hidden Markov Model,HMM) 进行分词,并与基于词典的正向最大匹配算法和工业界使用的jieba分词进行对比。 采用最大似然估计的方法从带标记样本学习模型参数,并通过维特比算法进行解码。
2022-11-13 18:43:25 6.68MB 隐马尔可夫 HMM 分词
1
西电 Python大作业 中文分词 生成词云
2022-11-09 15:21:06 2.06MB 西电 python 中文分词 词云
1
2018最新最全中文停用词标,标点-已分词。包含哈工大,百度等在用的停用词
2022-11-07 16:03:59 21KB 停用词 中文停用词
1
本资源属于代码类,是一些nlp工具的使用 nlp 工具 word2vec nltk textblob crf++ (1)机器人 (2)中文翻译,及繁体转简体 (3)关键词提取,主题提取,摘要提取 (4)命名体识别 (5)分词 (6)情感分析,正负类分析 (7)近义词,同义词,句子相似性 (8)聚类,监督,无监督 (9)词性标注 (10)词向量提取
2022-11-05 14:56:59 1.49MB nlp 机器学习
1
对输入的汉字进行拆分,可实现类似百度分词搜索
2022-11-03 17:38:28 1013KB 中文分词 ChineseTokenizer.dll C# Winform
1
复旦大学分词语料库
2022-11-02 15:12:21 50.38MB 分词 语料
1
适用于上万关键词自动分词,设置好词根,可以快速分词。表格工具,第一次打开时候需要启用宏,不然无法使用。seo及竞价运营人员的好帮手。
2022-10-28 13:05:53 2.76MB 分词工具
1
中文情感分析数据 哈工大分词模型
2022-10-20 10:42:51 93.5MB 数据集分词模型
1
资源包含文件:课程报告word+源码+截图 对汉语自动分词技术有一个全面的了解,包括从词典的建立、分词算法的实现、性能评价和优化等环节。详细介绍参考:https://blog.csdn.net/sheziqiong/article/details/126794356
2022-10-18 14:05:00 913KB Python 汉语分词 汉语分词系统 源码