国家统计局最新统计用区划和城乡划分代码(2020) 数据抓取的源码详见: https://blog.csdn.net/kinghuangsheng/article/details/116939439
1
校园网设计方案,为同学们研究课题或者初高中对校园网的设计都有很大帮助
2021-05-17 16:17:59 215KB IP划分
1
matlab对naca0012翼型的网格划分文件,其中interfunction是翼型形状函数
2021-05-16 22:54:16 907B matlab 网格划分
1
新一代视频编码标准HEVC块结构划分快速算法研究.pdf
2021-05-16 09:06:07 3.24MB 视频编码
1
matlab中用K-means进行社区划分,通过度最大的点,边的介数和点的介数求影响力最大化
2021-05-15 19:43:49 4KB matlab k-means
1
简易python爬虫的开发,对国家统计局区划、城乡规划代码进行抓取。 所谓简易,一方面是因为是单线程爬虫,不涉及python的多进程、多线程编程,另一方面是因为不包括“URL管理器”的模块(负责存储已爬取、未爬取的url序列,控制爬虫不多爬、不漏爬),而是用了循环体的结构,依次爬取省、市、区、街道的页面。 爬虫主要分为4个模块: 1. 主控制器(spider_main.py),负责对其他模块进行调用,控制整个爬取过程 2. 下载器(html_downloader.py),负责请求指定的url,将响应结果返回主控制器 3. 解析器(html_parser.py),负责调用beautifulsoup4对请求到的html代码进行解析,拼装需要的数据集合 4. 数据库控制器(mysql_handler.py),负责执行数据库操作
2021-05-14 17:18:44 468KB python爬虫 区划 统计局 城乡规划
1
2020年统计用区划代码和城乡划分代码(2020年 国家统计局),手工整理的,三级分类。。有需要的可以下载,导入电商系统就可以用
2021-05-14 15:58:37 155KB 行政区划分
1
新浪新闻文本分类 语料库重建 本项目的语料来源新浪新闻网,通过spider.py爬虫模块获得全部语料,总计获得10类新闻文本,每一类新闻文本有10条。 采纳新浪新闻网的一个api获取新闻文本,api的url为 使用进度池并发执行爬虫,加快抓取速度。 数据预处理 本项目的数据预处理包括:分词处理,去噪,向量化,由stopwords.py模块,text2term.py模块,vectorizer.py模块实现。 本项目借助第三方库解霸完成文本的分词处理。 通过停用词表移除中文停用词,通过正则表达式消除数字(中文数字&阿拉伯数字)。 filter_pattern = re . compile ( ur'[-+]?[\w\d]+|零|一|二|三|四|五|六|七|八|九|十|百|千|万|亿' ) 使用进程池并发执行数据的分词和去噪,加快数据预处理的过程。 把数据集1:1划分为训练集和测试集,各50w篇文档。 通过scikit-learn提供的CountVectorizer类完成矢量化,得到训练集和测试集两个文本的特征矩阵,矩阵类型为稀疏矩阵。 移除文档中文档频率小于0.1%的特征,这些特征我们认
2021-05-14 10:13:12 98KB data-mining text-classification svm scikit-learn
1
近年来,自动驾驶成为汽车行业热点,但是事故频发,商业化落地困难阻碍了自动驾驶技术快速发展。文章以驾驶安全为核心,提出了新的自动驾驶等级划分方法并对不同等级内容进行详细阐述。基于此方法,指出当前自动驾驶技术发展路线弊端并规划了一种在量产车上逐级释放自动驾驶功能的技术路线,供行业参考。
2021-05-13 13:01:56 851KB 自动驾驶 等级划分 技术路线
1
Echarts 地图 中山地图 详细镇区的划分
2021-05-12 18:51:19 207KB echarts
1