共有700多万条记录的数据表,可以用来测试慢查询、索引优化、联合索引等,源大小350M,可以直接导入到mysql中使用,稀有资源哦!
2019-12-21 21:18:05 19.46MB 大数据 百万数据源
1
2019年最新alexa排名前100w的域名,文件格式是csv,第一列是域名的id,第二列是域名名称; 更改分数为3,不允许动态调分
2019-12-21 21:11:53 21.84MB alexa alexa前100万
1
C# datatable直接导出数据到Excel,(数据量百万级只需3秒)
2019-12-21 21:00:33 1KB C# Excel 百万级
1
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份是经过验证的
2019-12-21 20:28:50 12.09MB 分词词库 自然语言处理
1
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份分类词库,包括财经、汽车、IT、数学、农业、动物、植物、成语、诗词、机构、地址、食物等
2019-12-21 20:28:50 12.21MB 分词词库 自然语言处理
1
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份同音异形词库
1
资源是.sql文件压缩后上传(文件太大,解压后470多M)。用navicat导入实测用时5分钟,数据量300W条。快速获取百万级真实测试数据。
2019-12-21 20:24:12 60.33MB mysql数据 百万测试数据 测试数据下载
1
搜集整理的大量密码数据,经整理分割以后成密码字典100万数据,文件1
2019-12-21 20:23:13 10.16MB 密码字典
1
搜集整理的大量密码数据,经整理分割以后成密码字典100万数据,文件一
2019-12-21 20:23:13 10.28MB 密码字典
1
下载来的资源,自己改了一下,共享出来,供小白使用,本想免费的,无奈最少是2分,再次吐槽一下csdn的下载规则变更,越来越商业化了。
2019-12-21 20:19:20 472KB sqlite c# 批量插入
1