很不幸的是,由于疫情的关系,原本线下的AWD改成线上CTF了。这就很难受了,毕竟AWD还是要比CTF难一些的,与人斗现在变成了与主办方斗。 虽然无奈归无奈,但是现在还是得打起精神去面对下一场比赛。这个开始也是线下的,决赛地点在南京,后来是由于疫情的关系也成了线上。 当然,比赛内容还是一如既往的得现学,内容是关于大数据的。 由于我们学校之前并没有开设过相关培训,所以也只能自己琢磨了。 好了,废话先不多说了,正文开始。 一.比赛介绍 大数据总体来说分为三个过程。 第一个过程是搭建hadoop环境。 这个开始我也挺懵的,不过后来看了个教程大概懂了。总的来说,hadoop就是一个集成环境,这个环境里
2024-06-21 00:01:17 917KB python 数据分析
1
本资源中的源码都是经过本地编译过可运行的,下载后按照文档配置好环境就可以运行。资源项目源码系统完整,内容都是经过专业老师审定过的,基本能够满足学习、使用参考需求,如果有需要的话可以放心下载使用。
2024-06-17 20:38:36 108KB python 爬虫 网站爬虫
1
项目功能:使用Python爬取Top100电影榜单数据并保存csv文件,需要的小伙伴们下载源码做参考即可。 开发工具 Python版本: 3.6 相关模块: requests模块、time模块、parsel模块、csv模块。 操作: 浏览器中打开我们要爬取的页面,然后按F12进入开发者工具,查看我们想要的Top100电影榜单数据(参考附件中截图),这里我们需要页面数据就可以了。 对于新手,关于网址的介绍如下: 首先我们先来认识所谓的网址,网址的高端叫法叫做‘统一资源定位符’,在互联网里面如果获取到数据都是通过网址来定位到的(就跟你找辣条借钱首先需要知道辣条目前所在的地址)那么每天都在用的网址到底是有什么特殊的含义呢? 网址有包含:协议部分、域名部分、文件名部分、参数部分 1、协议比较常见的就是http以及hettps 2、域名部分也就是我们说的服务器地址 3、文件名部分就是我们所需要的数据所在的地方 4、参数部分根据我们所查询的条件筛选数据
2024-06-10 19:14:20 711KB python 爬虫 python爬取数据 python爬虫
1
python爬取飞猪网站旅游景点数据并保存excel 使用模块: import time # 时间相关 import requests # 请求网页数据 import pandas as pd # 存储数据 from bs4 import BeautifulSoup ¥ 提取网页内容
2024-02-14 19:26:21 3KB python 爬虫
1
环境如下: 语言:python3.7 IDE: Pycharm-2020.1.1 包环境管理:anaconda 4.8.2 库文件:request, pandas, matplotlib, bs4, pandas_datareader 要连接互联网~~~~ 问题:很多小伙伴想用机器学习方法对股票进行量化分析,我们面临的第一个问题是如何获得其历史数据? 如何解决上述问题?使用python爬虫爬取历史数据,或者更确切的说,先爬取股票代码,然后使用pandas_datareader从yahoo上获取该股票的历史数据。该网站可以获取到所有上证股票的股票代码。借鉴蒹葭杰克兄弟的代码,对其代码稍作改进,以
2024-01-09 23:27:29 78KB python
1
今天小编就为大家分享一篇Python爬取数据并写入MySQL数据库的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2023-04-23 21:21:25 109KB Python 爬取数据 MySQL
1
基于Spark的电影推荐系统,python爬取数据并采用Django搭建系统(源码)内附详细说明文档,期末作业,毕业设计都可用。 系统架构的实现 系统的架构分为数据获取层,数据处理层,数据存储层,业务层,展示层。展示层包括了Web的前后台两部分,前台是为了用户来查看电影数据和推荐系统向用户展示推荐数据页面,后台是管理员管理用户和电影数据的页面。业务层是对前后台业务功能进行实现的代码逻辑层。 数据计算层是用来对数据做统计分析,和运行推荐算法的。通过对数据存储层里的基础数据和用户行为数据做计算推荐,得到的结果重新存入数据存储层中。 数据获取层用以获取本推荐系统所需要的大量基础数据,并进行数据预处理,使之规整以后便存入数据存储层中。
2023-04-02 16:46:08 10.52MB spark django java python
使用Python爬虫爬取京东商铺信息,利用selenium和re库
2023-03-30 15:04:08 2KB Python爬虫
1
for img_link in img_link_list: filename = '{}{}_{}.jpg'.format(directory, word, self.i) self.save_image(img_link,filename) self.i += 1 # 每页只能下载60张图片,这里可以直接跳出,或者按需要的数量更改 if self.i == 180: print(self.i) return # 也可以改成翻页下载的形式: # self.url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word={}{}' # 格式化地址:url = self.url.format(word_parse,'&pn=40') #这里的pn=20
2023-03-15 13:39:42 3KB
1
环境准备 Python 3.7 Mysql requests PyMySQL BeautifulSoup 获取数据 分析数据请求过程 首先我们打开boss直聘网查看正常的请求过程 打开万能的 F12,刷新,查看下当前网络发生了什么 通过上图能够看到请求参数中包含了职位,页数等信息。 构造模拟请求 import requests url = "https://www.zhipin.com/c101120100/?query=" + kw+"&page="+str(page)+"&ka=page-"+str(page) headers = { 'Host': 'www.zhipin.co
2023-03-06 11:23:25 682KB info oss python
1