这段时间宅在家里,被疫情弄得都要发霉了。 为了打发无聊时光,跟着CSDN上的速成班学了一下Python以及爬虫。突然发现这玩意也太厉害了,以前只以为是个获得数据的工具,现在才发现,这玩意最强悍的是应用在数据筛选和清理。真不愧是现在最火的语言,论代码的简介性和面向对象的友好性上绝不是之前学的那一票面向过程的语言可以比的。要是早知道这玩意,该能省下多少事,唉……我的大好青春…… 不说废话,学完了这几天的课程,我跃跃欲试,决定活学活用一把,做一个可以爬贴吧的爬虫: import urllib.parse as up import urllib.request as ur import lxml.e
2021-07-09 21:07:42 805KB num python xpath
1
压缩包里面包含两个文件,一个是py文件,实现从中国天气网爬取近7天的天气情况,另外一个是php文件。实现调用python爬虫,并且解决爬取数据编码问题。注意事项:1.电脑要配置好python环境变量。2.用pip下载好爬虫需要的python包
2021-07-09 15:48:45 2KB python 爬虫 爬取 编码
1
今天小编就为大家分享一篇python 爬虫 实现增量去重和定时爬取实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2021-07-08 21:48:36 42KB python 爬虫 增量去重 定时爬取
1
读取excel中存入的url进行对应图片地址的爬取
2021-07-08 20:10:20 1.97MB Python开发-Web爬虫
1
第三方库:snownlp、tushare、pandas、numpy、matplotlib getData:从东方财富网旗下的股吧论坛爬取数据 SQL:用到的数据库操作函数 quantilizeSentiment:量化情绪指数,生成excel文件便于后面进行情绪指数和股票价格涨幅相关度的量化分析(股票价格历史数据来自tusharepro网站,可以免费获取) result:传入某只股票代码,返回情绪指数结果(主要关注此文件即可,其他爬虫分析之类的我后面放到云上,爬取的数据都放入云数据库中) analyze:进行情绪指数和股票价格涨幅相关度分析、数据可视化 爬取后的数据存储在云端数据库中: db = pymysql.connect(host="116.62.46.214",user="dfcf",password="iJHPFZnRjXacNi6p",db="dfcf",port=3306) 接口说明(重点!!!): 函数: def data(share_code):#计算情绪指数 传参:share_code 股票代码(例如:zssh000001)上证指数 返回参数:result 情绪指数 例如: if __name__ == '__main__': result=data('zssh000001') #传入股票代码参数 print(result) #打印情绪指数结果 实现功能:根据传入的股票代码到东方财富网旗下的股吧对应的某股票分论坛爬取当天的用户评论信息,并将爬取的数据存储到MySQL中,之后再将数据进行统计并计算出该股票当天的市场情感趋势。 执行流程 1、输入股票代码 2、清空数据库上一天的评论信息 3、使用爬虫爬取当天东方财富网股吧论坛中该股票的股民评论信息并进行数据清洗过滤,筛选出有效信息,存入MySQL数据库 4、使用金融情感计算模型进行文本数据分析 5、得出该股票当日的情绪指数 6、返回情绪指数值 计算情绪指数具体算法实现 借助自然语言处理中的情感分类技术。按照正常的处理流程,需要搭建模型、准备语料库、训练模型、测试模型然后得到一个情感分类的模型。但这里,时间有限,所以直接使用现有的模型。snownlp是一个中文的开源的自然语言处理的Python库,可以进行分词、情感分类等。在本项目中可以直接使用它来量化出某一日市场投资者的整体情绪。量化的方法有许多种,可以将某一日所有的评论情绪得分得分相加再求评价,也可以求某一日情绪得分大于0.5的评论所占的比例。 项目所采用的方法: 将情绪得分>0.6的评论当作积极评论,小于0.4的评论当作消极评论。 设置变量neg和pos,存储某一日市场的积极情绪因子和消极情绪因子。关于neg和pos的计算方法,以neg为例: 初始化为0,若某一日的某一评论comment的情绪得分<0.4 neg=neg+1+log(该条评论的点赞数+该条评论作者的粉丝数+1,2),其中log(x,2)表示以2为低的x的对数。考虑该条评论的点赞数和该条评论作者的粉丝数是因为考虑到不同的评论的质量不同。取对数是为了让数据更加平滑,防止极值过大。+1是为了防止该条评论的点赞数和该条评论作者的粉丝数都为0。 计算某一日市场的总体情绪得分score。设计的模型是: score=log((pos/(pos+neg+0.0001)-0.5)*(该日评论总数+1)) (pos/(pos+neg+0.0001)-0.5)的意思是计算市场的情绪倾向,**大于0表明市场积极情绪情绪较强,越接近0.5越强。小于0反之。**后面的(该日评论总数+1),是因为某一日投资者的评论越多,代表市场投资者情绪的波动越大。
实现根据给定目标用户的微博UID,得到目标用户微博个人资料,保存到本地 依据目标用户微博UID抓取一定时期内目标用户所发(原创和转发)微博(包含图片、视频),保存到本地 依据所抓取目标用户微博内容、目标用户头像制作目标用户微博关键词词云 依据目标用户微博个人资料,制作目标用户个人电子名片 可视化目标用户日、月、年度微博点赞数、转发数 依据目标用户原创微博所@用户,可视化用户好友关系图 设置评论数阈值,爬取目标用户热门微博下热评 统计目标用户热门微博下热评次数较多用户,挖掘目标用户狂热粉丝
2021-07-08 15:02:41 8.25MB 爬虫 微博文本 可视化、 文本分析
京东众筹爬虫 可以改变categoryId参数改变爬取数据分类 每次爬取需要移除文件夹中的Excel文件,或更改源代码中的Excel表中
2021-07-08 15:02:39 261KB 京东众筹爬虫
爬取 脚本执行下面的命令,项目目录下会创建产品目录,所有的爬取到的商品图片和信息总体出现在里面。 python crawl.py supreme https://www.supremecommunity.com/season/spring-summer2020/droplist/2020-02-27/ 其他依赖 为了使用正确使用nike爬虫,你还需要: Chrome浏览器(chrome 85版) ChromeDriver 85.0.4183.87 缺失它们不会影响其他爬虫的使用。 配置问题 通过修改IMAGES_STORE可以自定义文件的存储位置。 默认开启了AUTOTHROTTLE,可以通过设置AUTOTHROTTLE_ENABLED为False关闭。 基本使用 项目下执行命令: python crawl.py brand start_url... 把brand替换为品牌名。 把start_url替换为要开始爬取的网页。 爬虫 最高 爬取某一季所有周的商品 python crawl.py supreme https://www.supremecommunity.com/season/spring-summer2020/droplists/ 浏览某一周所有的商品 python crawl.py supreme https://www.supremecommunity.com/season/spring-summer2020/droplist/2020-02-27/ 游走取一些周的商品 python crawl.py supreme https://www.supremecommunity.com/season/spring-summer2020/droplist/2020-02-27/ https://www.supremecommunity.com/season/spring-summer2020/droplist/2020-05-21/ 资本 去取某一特定下的所有商品 python crawl.py kapital https://www.kapital-webshop.jp/category/W_COAT/ 耐克 爬取当前搜索的商品(包括所有颜色) python crawl.py nike https://www.nike.com/cn/w?q=CU6525&vst=CU6525 熊砖 去取当前分类的所有商品 python crawl.py bearbrick http://www.bearbrick.com/product/12_0 已知问题:BearBrickLoader 的category_in无法达到预期的行为。 United Arrows 网上商店 取当前商品 python crawl.py uastore https://store.united-arrows.co.jp/shop/mt/goods.html?gid=52711245 特拉维斯·斯科特 爬取所有商品 python crawl.py ts https://shop.travisscott.com/
2021-07-08 15:02:39 22KB 电商 爬虫
环境 1、确保json库、requests库可以正常导入 craw_fund_code.py 该文件会将爬取到的基金代码以及名称输出到当前目录中,文件名为all_fund_code_name_type.txt fund_data_crawler.py 1、该文件会读取all_fund_code_name_type.txt,然后依次对每个基金进行爬取。基金路径为本目录下的fund_data文件夹中。 2、由于爬取的基金数量众多,由于网络连接的原因,往往中间会报错超时错误,这里笔者也没有很好的解决,需要手动retrigger一下脚本。
2021-07-07 19:58:18 109KB Python
1
主要介绍了Python爬取并下载《电影天堂》3千多部电影,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
1