因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份同音异形词库
1
资源是.sql文件压缩后上传(文件太大,解压后470多M)。用navicat导入实测用时5分钟,数据量300W条。快速获取百万级真实测试数据。
2019-12-21 20:24:12 60.33MB mysql数据 百万测试数据 测试数据下载
1
搜集整理的大量密码数据,经整理分割以后成密码字典100万数据,文件1
2019-12-21 20:23:13 10.16MB 密码字典
1
搜集整理的大量密码数据,经整理分割以后成密码字典100万数据,文件一
2019-12-21 20:23:13 10.28MB 密码字典
1
下载来的资源,自己改了一下,共享出来,供小白使用,本想免费的,无奈最少是2分,再次吐槽一下csdn的下载规则变更,越来越商业化了。
2019-12-21 20:19:20 472KB sqlite c# 批量插入
1
百万级数据库优化方案
2019-12-21 20:10:53 82KB 优化方案
1
百万级数据在Excel和SqlServer之间相互导入导出。
2019-12-21 20:01:34 7.88MB Excel Sqlserver 百万级数据 导入
1
据说:原创经典实例spring+mybatis+分页+百万数据,需要10分,才可以下载,我贡献宝贵十分,下载下来,然后分享,让没有积分的人也可以学习研究一下。
2019-12-21 20:00:34 8.51MB mybatis分页 百万数据
1
2019年条形码数据库,总共1084868条数据,亲测导入数据库无乱码,搜索“五粮液”有321个条码数据,搜索“海飞丝”有225个条码数据。数据包含:条码编号,商品名称,容量,单位,产地等。
2019-12-21 19:45:57 102.8MB 条码 2019 mysql utf8
1
100万条数据导入SQL数据库仅用4秒,100万条数据导入SQL数据库仅用4秒
2019-12-21 19:31:58 2.24MB c# 数据 导入 SQL
1