服务器结构探讨 -- 最简单的结构 本文从最简单的游戏服务器架构开始讲起,结合主流的WOW等大型游戏服务器设计思路和mangos的一些理念,一步一步揭开网络游戏服务器的架构设计方法,对初学者尤其有帮助
2021-09-28 18:28:42 583KB 软件开发
1
国家基本比例尺地图图式 第4部分:1:250 000 1:500 000 1:1 000 000地形图图式Cartographic symbols for national fundamental scale maps—Part4:Specifications for cartographic symbols 1︰250 000 1︰500 000﹠ 1︰1 000 000 topographic maps 标准状态:现行发布日期2017-10-14实施日期2018-05-01发布单位国家质量监督检验检疫总局、中国国家标准化管理委员会
1
The Million Song Dataset is a joint effort between the Computer Audition Lab at UC San Diego and LabROSA at Columbia University. The user data for the challenge, like much of the data in the Million Song Dataset, was generously donated by The Echo Nest, with additional data contributed by SecondHandSongs, musiXmatch, and Last.fm. The Million Song Dataset aims at being the best possible offline evaluation of a music recommendation system. “百万歌曲数据集”是加州大学圣地亚哥分校计算机视听实验室和哥伦比亚大学拉布罗萨实验室共同努力的成果。该挑战的用户数据,就像Million Song数据集中的大部分数据一样,都是由Echo Nest慷慨捐赠的,另外还有SecondHandSongs、musiXmatch和Last.fm提供的数据。百万歌曲数据集的目标是成为最好的离线音乐推荐系统评估。 MSDChallengeGettingstarted.pdf kaggle_users.txt kaggle_songs.txt taste_profile_song_to_tracks.txt kaggle_visible_evaluation_triplets.txt
2021-09-27 19:50:59 29.62MB 数据集
1
里面有七百多万条测试数据,可以用来测试慢查询、索引优化、联合索引,可以用来练习索引,存储过程,或者用来练习优化mysql等操作。
2021-09-27 13:49:18 19.35MB 百万测试数据 mysql测试数据表
1
100W圆周率小数点后面100万位小数.txt
2021-09-26 19:03:05 1.12MB python java
1
1.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。 2.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:   select id from t where num is null
2021-09-24 17:05:33 38KB 数据库优化 大数据 百万级
1
Easy-ERA5-Trck Easy-ERA5-Trck是一种超轻量级的拉格朗日模型,可使用ERA5数据集同时高效地计算数千(甚至数百万)条轨迹。 它实现了3-D运动的超级简化方程式以加速集成,并实现python多处理以并行化集成任务。 由于其简化和并行化,易于ERA5-TRCK进行追查大规模的航空包裹,这使得areawide追查可能的大提速。 在可以找到使用WRF输出驱动模型的另一个版本。 注意:轨迹计算基于最近邻插值和第一猜测速度,以实现超高效率。 可以在上找到准确的计算算法,或者使用专业而复杂的模型(例如 。 如有任何疑问,请联系李振宁( ) 画廊 青藏高原气源示踪剂 青藏高原气源示踪剂(3D) 输入文件 input.csv ./input/input.csv :此文件规定了用于轨迹模拟的空域。 该文件的格式: airp_id, init_lat, init_lon,
2021-09-22 16:24:05 16.05MB python multiprocessing trajectory lagrangian
1
下载概念字幕数据 将来自以下位置的数据放在以下文件夹中: : Train_GCC-training.tsv训练分组(3,318,333) Validation_GCC-1.1.0-Validation.tsv验证拆分(15,840) 测试分割(〜12,500)个人认可的图像标题对不公开。 运行download_data.py 图像将位于training和validation文件夹中。 您可以停止然后继续,将下载分为多个块/线程的设置不是最佳的,但是它使我的连接最大,因此我将它们保持原样。 注意:此脚本的先前版本使用了不同的文件命名方案,但此更改已更改,如果您要恢复先前开始的下载,则会得到重复的文件。 其中许多将无法下载,而是返回网页。 这些将需要稍后清理。 downloaded_validation_report.tsv后,请查看downloaded_validation
2021-09-17 18:07:27 2.18MB JupyterNotebook
1
mysql快速导入百万级千万级数据,亲测有效,经过自己测试是有效的。没使用之前,导入200万条数据需要数十分钟,利用这个办法只需要不到2分钟。快了数百倍。
2021-09-15 13:36:45 700KB mysql快速导入百万级千万级数
1
百万级超市商品条码库 商品数据包括:商品条形码和名称,用于测试开发数据库、还是零售数据库、用于商品市场调查基础数据、学习用的参考数据。
2021-09-14 11:03:47 49.21MB 条形码 商品 超市
1