中文分词工具jieba 。相比其他分词工具而言,jieba不仅只有分词这一功能,它还提供了许多分词以外的算法,支持Python、R、C++等多种编程语言的实现,使用简单,对于新手而言是一个较好的入门分词工具
2021-09-20 14:45:20 37.24MB 自然语言处理
1
实现公司名及公司地址的模糊匹配,也可以迁移到房产信息、电话号码之类的字段上。本来的应用场景是反团伙欺诈以及失联客户的修复,大概的意思就是说多个相同公司的同事都在我公司借贷的欺诈可能性要高于其他客户,以及造假的房产信息和电话号码可能不完全相同,但有一定的相似性,我们需要把这些客户找出来,但是又不能用精确匹配。
2021-09-07 10:02:35 3.14MB jieba
1
python分析taptap游戏评价,生成词云
2021-09-05 18:09:45 824KB 资源达人分享 requests jieba 源码类
最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieba包的中文分词中详细使用。四、 Hanlp第一步:下载Hanlp 。第二步:在eclipse里导入项
2021-08-08 21:12:59 781KB hanlp ie jieba
1
使用python的jieba库实现《哈姆雷特》常用词频、《三国演义》前十出场人物
2021-08-06 22:24:38 1.86MB python
1
python使用jieba对txt文本进行分词统计,并将结果输出到控制台。 程序包含示例+注释说明。
2021-08-04 22:02:18 46KB jieaba 分词统计
1
jieba分词支持关键词带空格和特殊字符
2021-08-02 20:46:40 19KB jieba分词 空格
1
jieba snownlp bs4 等包的使用,包括tf-idf算法等,具体方法见代码注释部分。练习数据也在文件夹中 11111111111
2021-08-01 10:42:07 5.34MB 分词 jieba python
1
主要介绍了python同义词替换的实现(jieba分词),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
1
jieba-0.42版集合包.rar,本人亲试,保证能用。
2021-07-24 20:11:00 36.65MB jieba 包能用
1