Mysql百万级数据优化方案
2021-01-28 00:36:21 11KB Mysql 优化
1
文件里包含可以运行起来的项目,下载下来解压后,引入项目就可以运行看结果了。该代码可以处理100万数据量的excel文件,xlsx文件数据量太大,用普通的读法会报内存溢出错误,所以用官网提供的方法,一条一条的读取大excel文件,本例子从这点出发,组装excel里读取的单条数据为list,在根据需求操作list,即单条读取,单条操作,下载下来 后找到endRow(int rowNum)函数,在函数末尾有个注销的list数组打印,这个list即从excel里读取的当前行,列顺序同excel里的列顺序,直接操作list即可。
2019-12-21 21:21:45 13.11MB 可一行一行读 excel 大文件 xlsx
1
C# datatable直接导出数据到Excel,(数据量百万级只需3秒)
2019-12-21 21:00:33 1KB C# Excel 百万级
1
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份是经过验证的
2019-12-21 20:28:50 12.09MB 分词词库 自然语言处理
1
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份分类词库,包括财经、汽车、IT、数学、农业、动物、植物、成语、诗词、机构、地址、食物等
2019-12-21 20:28:50 12.21MB 分词词库 自然语言处理
1
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份同音异形词库
1
资源是.sql文件压缩后上传(文件太大,解压后470多M)。用navicat导入实测用时5分钟,数据量300W条。快速获取百万级真实测试数据。
2019-12-21 20:24:12 60.33MB mysql数据 百万测试数据 测试数据下载
1
下载来的资源,自己改了一下,共享出来,供小白使用,本想免费的,无奈最少是2分,再次吐槽一下csdn的下载规则变更,越来越商业化了。
2019-12-21 20:19:20 472KB sqlite c# 批量插入
1
百万级数据库优化方案
2019-12-21 20:10:53 82KB 优化方案
1
百万级数据在Excel和SqlServer之间相互导入导出。
2019-12-21 20:01:34 7.88MB Excel Sqlserver 百万级数据 导入
1