(含源码及报告)本程序分析了自2016年到2021年(外加)每年我国原油加工的产量,并且分析了2020年全国各地区原油加工量等,含饼状图,柱状图,折线图,数据在地图上显示。运行本程序需要requests、bs4、csv、pandas、matplotlib、pyecharts库的支持,如果缺少某库请自行安装后再运行。文件含6个excel表,若干个csv文件以及一个名字为render的html文件(需要用浏览器打开),直观的数据处理部分是图片以及html文件,可在地图中显示,数据处理的是excel文件。不懂可以扫文件中二维码在QQ里面问。
2022-07-13 21:35:39 29.75MB 爬虫 python 源码软件 开发语言
利用 python操作爬虫数据存入mysql数据库。 内容全面,运行一切正常。 内有注释。 用面向对象编程的方法写的。 通过本例的学习,能解开对数据库存取的困惑。 学会了本例,你将逐类旁通。 再也不怕不会用mysql了。
2022-07-11 21:40:53 1KB 爬虫 python 数据库 mysql
1
使用Python工具,采用scripy框架爬取新浪网滚动新闻并存入mongoDB
2022-07-01 16:39:31 16KB 爬虫 Python scripy
1
百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件。 项目内容: 用Python写的百度贴吧的网络爬虫。 使用方法: 新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行。 程序功能: 将贴吧中楼主发布的内容打包txt存储到本地。 http://blog.csdn.net/wxg694175346/article/details/8934726
2022-05-26 23:10:27 5KB 百度贴吧 爬虫 python
1
简书爬虫 功能: 1、爬取简书分类下的文章内容,作者,评论,喜欢等数据 2、对简书用户进行数据分析 环境:python3+mysql数据库 使用到的技术: GUI(wxpython)+ socket网络编程 + 文件读写 + 爬虫(beautifulsoup) + 数据库 + 数据分析绘图(matplotlib)
2022-05-26 21:20:50 30KB python爬虫
1
可以获取新闻url,标题,新闻发布时间,每日可以根据windows任务定时启动爬取当日新闻。原创简单易懂好用。
2022-05-24 09:06:17 1KB 爬虫 python 新闻 xpath
1
疫情数据可视化分析系统,使用python编写的,用爬虫去爬取数据,然后使用pymysql存入MySQL数据库,然后使用flask搭建web框架,最后使用pyecharts进行可视化。
2022-05-23 14:48:59 34.67MB 爬虫 python mysql 数据库
1
随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性,如: (1)不同领域、不同背景的用户往往具有不同的检索目的和需求,通过搜索引擎所返回的结果包含大量用户不关心的网页。 (2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。 (3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。 网络爬虫 网络爬虫 (4)通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。 为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的
2022-05-23 09:05:17 4.11MB 爬虫 python 综合资源 开发语言
万能爬虫python编写,可以爬取任何想要的图片,来源是百度、谷歌等,亲测好用! URL就是网页的网址,种子URL就是爬虫要首先爬取的网页网址,确定你的爬虫程序首先从哪些网页开始爬取。一组种子URL是指一个或多个的网页地址。 爬虫程序开始工作后,种子URL会先加入到待爬取网页的队列中,爬虫程序从队列按照先进先出的原则获取网页URL,爬虫程序开始爬取网页,爬虫会下载整个网页内容,然后提取网页内容,分析出网页内容包含的URL,并把新的URL加入到队列。 当队列为空时,爬虫停止工作,否则爬虫会继续从队列获取网页URL,爬取下一个网页。 Python爬虫基础代码如下: # 导入队列模块 import queue as q # 定义种子URL seed_url = ["url1","url2"] # 定义URL队列 url_queue = q.Queue() # 定义添加种子到队列的函数 def put_seed(): for s in seed_url: url_queue.put(s) # 定义网址添加到队列的函数 def put_url(url): url_
2022-05-22 21:04:29 6KB 爬虫 python 综合资源 开发语言