中文情感分析数据 哈工大分词模型
2022-10-20 10:42:51 93.5MB 数据集分词模型
1
使用哈工大的ltp,少不了分词模型,由于ltp_data全量模型包太大,经常遇到下载不下来的问题,可以通过下载cws.model直接解决。该文件需要放置到全英文名的路径下才能用: import pyltp from pyltp import Segmentor #导入Segmentor库 math_path = "D:\ltp340\cws.model" #LTP分词模型库 segmentor = Segmentor() #实例化分词模块 segmentor.load(math_path) #加载分词库 words = segmentor.segment("中国是一个自由、和平的国家") print(' '.join(words).split()) #分割分词后的结果
2022-03-15 14:05:59 174.21MB ltp 分词模型库 V3.40
1
pkuseg 中文分词模型
2021-07-13 18:04:56 398.92MB 模型文件 pkuseg
1
中文分词模型
2021-04-15 19:07:09 98KB 中文分词模型
1
主要是一些分词后的向量数据,一般不可用
2021-03-18 09:16:38 23.82MB 数据
1
分词数据集,用于训练一个用来分词的模型。详细看压缩包里的内容。
2021-02-28 22:02:39 91.02MB 中文分词 分词模型 训练数据
1