使用Selenium对QQ邮箱登录页面进行自动化测试 1.测试需求 Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。这个工具的主要功能包括:测试与浏览器的兼容性——测试你的应用程序看是否能够很好得工作在不同浏览器和操作系统之上。测试系统功能——创建回归测试检验软件功能和用户需求。 这里采用的浏览器是Chrome,版本是80.0.3987.149,首先下载了版本的浏览器驱动,解压后放在
2021-12-09 22:06:26 377KB le ni niu
1
前言 硬要说这篇文章怎么来的,那得先从那几个吃野味的人开始说起…… 前天睡醒:假期还有几天;昨天睡醒:假期还有十几天;今天睡醒:假期还有一个月…… 每天过着几乎和每个假期一样的宅男生活,唯一不同的是玩手机已不再是看剧、看电影、打游戏了,而是每天都在关注着这次新冠肺炎疫情的新闻消息,真得希望这场战“疫”快点结束,让我们过上像以前一样的生活。武汉加油!中国加油!! 本次爬取的网站是丁香园点击跳转,相信大家平时都是看这个的吧。 一、准备 python3.7 selenium:自动化测试框架,直接pip install selenium安装即可 pyecharts:以一切皆可配置而闻名的pyt
2021-12-05 15:44:34 279KB le ni niu
1
Selenium 是一个可以让浏览器自动化地执行一系列任务的工具,常用于自动化测试。不过,也可以用来给网页截图。目前,它支持 Java、C#、Ruby 以及 Python 四种客户端语言。如果你使用 Python,则只需要在命令行里输入“sudo easy_install selenium”并回车,即可安装 selenium 的 Python 版本的客户端支持。 以 Python 为例,我们可以使用下面的脚本来给指定页面(比如软件开发网首页)截图: # -*- coding: utf-8 -*- # # author: oldj # from sele
2021-12-03 23:37:07 52KB le ni niu
1
前言 这两天原本想在淘宝上爬点东西进行分析的,但没想到淘宝的反爬机制对我这个爬虫菜鸡充满了恶意。先是被数据的格式搞得焦头烂额,好不容易写好了测试一页的代码,准备美滋滋开始大显身手,爬取多页时,发现竟然被封IP了!呜呜┭┮﹏┭┮。于是,开始研究各种反反爬的机制,IP代理,多线程、模拟登陆… …发现自己的盲区越来越大。眼瞅着与自己的博客更新计划越行越远,只好先换个目标,对某东下手。但并不代表我会放过它,等自己在修炼一段时间,再来会会它。下面,我们开始进入正题吧。 这次想做一个关于糖果的分析,于是爬取了京东共2700左右条的数据,这个数据应该是够自己分析了。京东比较坑的一点是,他的每一页是先加载一部
2021-12-03 10:01:05 530KB le ni niu
1
Selenium简介与安装 Selenium是什么? Selenium也是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE、Mozilla Firefox、Mozilla Suite等。 安装 直接使用pip命令安装即可! pip install selenium Python抓取微博有两种方式,一是通过selenium自动登录后从页面直接爬取,二是通过api。 这里采用selenium的方式。 程序: from selenium import webdriver import time import
2021-12-02 21:54:03 281KB le ni niu
1
问题现象 元素的属性中没有id、name;虽然有class,但比较大众化,且位置也不固定;例如:页码中的下一页;那该如何找到该元素? 上一页 1 2 下一页 解决办法 text() text() 函数文本定位 page_next = driver.find_element(By.XPATH, '//a[text()=下一页)]') contain() contains 匹配一个属性值中
2021-11-20 21:54:45 30KB le ni niu
1
前言 莫名其妙博客不给通过,搞了好久避开各种词。谜一样的操作··· 前面已经写了两篇,都是用requests爬取页面,之前腾讯提供的接口用的json解析内容,丁香园则是直接用BeautifulSoup。 requests+json爬取腾讯新闻feiyan实时数据并实现持续更新 requests+bs4爬取丁香园feiyan实时数据 但是之前用腾讯的接口,一方面腾讯老是换接口,另一方面提供的接口经常不更新数据。而丁香园的数据吧,老是不大准确(比如有两天阿根廷的数据都错了,但可能刚好只是那几天不准确吧)。 由于出现以上种种问题,我决定还是折腾腾讯新闻实时界面,直接爬取那上面的数据。这篇博客就说一下
2021-11-13 18:06:08 891KB le ni niu
1
Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。 (本文结尾有完整代码) 0.安装selenium库 pip install selenium 1.下载对应浏览器的浏览器驱动 这里我用谷歌浏览器 Chrome 浏览器驱动下载地址 下载好直接解压到python的目录即可 2.导入库并设置无头浏览器(可选) 无头浏览器,也就是无界面化浏览器。 from time import sleep from selenium import webdriver # 无头浏览器设置 co = webdriver.ChromeOptions(
2021-11-12 15:42:19 690KB le ni niu
1
前言 这篇文章针对正在学习python selenium自动化的伙伴写的,有很多小伙伴在问怎么自动上传文件、文件夹,网上大多数的资料只是上传单个文件。对于同时上传多个以及文件夹的讲解不是很多。 1. 三方工具安装 autoit-v3-setup下载地址 如果打不开可以直接通过云盘下载:百度云盘链接地址 提取码:fdnz 安装过程直接下一步就行(注意下选择32位还是64位) 2. autoit-v3的使用 话不多说先直接上代码: ControlFocus("打开","","Edit1") WinWait("[CLASS:#32770]","","10") ControlSetText(
2021-11-12 11:15:25 1.08MB le ni niu
1
背景 实现需求:批量下载联想某型号的全部驱动程序。 一般在做网络爬虫的时候,都是保存网页信息为主,或者下载单个文件。当涉及到多文件批量下载的时候,由于下载所需时间不定,下载的文件名不定,所以有一定的困难。 思路 参数配置 在涉及下载的时候,需要先对chromedriver进行参数配置,设定默认下载目录: global base_path profile = { 'download.default_directory': base_path } chrome_options = webdriver.ChromeOptions() chrome_options.add_experimenta
2021-10-28 22:10:58 170KB le ni niu
1