前言 配置火狐浏览器对应的selenium驱动 一、火狐浏览器驱动下载 下载地址 根据对应的系统环境下载相应的压缩包(这里下载的是Windows系统64位安装包) 安装包下载成功后将压缩包解压 二、配置环境变量 将geckodriver.exe放置到环境变量中(个人推荐放置到python环境变量中) 选中此电脑图标点击鼠标右键打开属性进入,选择高级系统设置 系统属性界面选择环境变量 环境变量选择Path,点击编辑 复制Python环境变量地址(注意不要进行改动) 我的电脑中粘贴地址前往(注意:scripts需要删除) 将解压好的geckodriver.exe文件复制
2021-10-11 23:24:02 447KB le ni niu
1
python selenium 获取接口数据。 selenium没有直接提供查询的函数,但是可以通过webdriver提供的API查询,使用的函数是Network.getResponseBody webdriver提供的API文档:https://chromedevtools.github.io/devtools-protocol/tot/Network/ Network.getResponseBody文档说明: Network.getResponseBody的参数是requestid,requestid是webdriver每个请求自动生成的惟一ID,拿到requestid就能拿到请求返回的
2021-10-11 22:09:30 58KB le ni niu
1
最近疫情期间,学习了web自动化测试模块,在学习期间,经常忘记学校的打卡任务,有次没打卡,居然通知了导师,被导师电话‘沟通’了一会儿,哎真是。。。。于是就想用py写个脚本自动健康打卡脚本,只需要一台装python的电脑,好像可以设置定时任务。 需要安装环境,浏览器的驱动器装了python,采用pip包管理工具安装selenium包以下是链接: 链接:https://pan.baidu.com/s/1RmBI1B8VJOoTDL4EkRTYmA 提取码:hjln 直接上源代码 定义学生类,需要就需要该下默认的身份,城市和区 需要改动select_by_value中的值就可以修改省份,同理可以
2021-10-09 11:10:53 138KB le ni niu
1
准备工作 安装好selenium和浏览器驱动chromedriver。 淘宝爬虫过程分析加代码 1.页面请求分析 首先请求淘宝页面,然后输入要爬取的数据的关键词,没有登陆,此时会弹出登陆的窗口,采取模拟浏览器登陆形式进行登陆,之后获取页面的文本信息。 安装好浏览器驱动chromedriver,可以先配置其地址信息,实现代码如下: chrome_driver = r"F:\python\python_environment\chromedriver.exe" browser = webdriver.Chrome(executable_path=chrome_driver) wait=WebDri
2021-10-02 15:17:10 203KB le ni niu
1
前面的文章中我向大家介绍了单个脚本中执行用例生成HTML报告的方法。但在实际测试工作中我们往往需要同时批量的执行测试脚本并将所有测试用例执行结果显示在同一HTML报告中。这样改如何实现呢?下面请看博主一一讲解。 这里呢博主就偷一下懒啊,还是继续沿用以前写的登录QQ脚本,这里将原本的QQ邮箱的脚本重新复制一份,方便看效果。目录结构如下。run_all_case文件为执行用例的入口,批量执行脚本的地方。也是本次讲解的核心所在。 TestLoader类中的discover()方法: 该类负责根据各种标准加载测试用例,并将它返回给测试套件,正常情况下,不需要创建这个类的实例,unittest提供了可
2021-09-19 19:52:09 116KB le ni niu
1
1.在浏览器下载与浏览器相对于的驱动并放到python的安装根目录下 驱动的两个下载地址: http://chromedriver.storage.googleapis.com/index.html http://npm.taobao.org/mirrors/chromedriver/ a.先找到浏览器的版本 b.找到与浏览器对应的驱动 c.把下载好的驱动放到python安装目录的根目录下 2.点击设置 3.添加selenium 4.搜索selenium并添加 5.输入以下代码并运行,如果能打开浏览器则安装成功(我的是谷歌),如下图 6.已成功打
2021-09-14 17:13:42 1.09MB le ni niu
1
在使用selenium这个压箱底的反爬技能爬取boss时,踢到了铁板。 selenium也能被反爬系统识别出来,无法打开链接。 原因在于slenium打开网页时,Chrome会显示这个标签条,使得服务器识别为爬虫。 解决办法就是设置options,隐藏标签: 代码如下: from selenium import webdriver from selenium.webdriver import Chrome from selenium.webdriver import ChromeOptions options = webdriver.ChromeOptions() options.add_e
2021-09-09 22:10:27 43KB le ni niu
1
在处理问题的之前,给大家个第一个锦囊! 你需要将chorme更新到最新版版本84,下载对应的chorme驱动 链接:http://chromedriver.storage.googleapis.com/index.html 注意 划重点!!一定要做这一步,因为我用的83的chorme他是不行滴,~~~~~~~ 问题 1.一周前我的滑块验证代码还是可以OK的,完全没问题!附代码 low一眼 url = "https://login.taobao.com/member/login.jhtml" browser.get(url) browser.maximize_window() # 最大化 #
2021-08-15 16:22:11 229KB le ni niu
1
说起爬虫一般想到的情况是,使用 python 中都通过 requests 库获取网页内容,然后通过 beautifulSoup 进行筛选文档中的标签和内容。但是这样有个问题就是,容易被反扒机制所拦住。 反扒机制有很多种,例如知乎:刚开始只加载几个问题,当你往下滚动时才会继续往下面加载,而且在往下滚动一段距离时就会出来一个登陆的弹框。 这样的机制对于通过获取服务器返回内容的爬虫方式进行了限制,我们只能获得前几个回答,而没办法或许后面的回答。 所以需要使用 selenium 模拟真实浏览器进行操作。 最终实现效果如下: 前提是需要自行搜索教程安装: chromeDriver selen
2021-05-31 20:39:24 72KB le ni niu
1
概述 Selenium是一款免费的分布式的自动化测试工具,支持多种开发语言,无论是C、 java、ruby、python、或是C# ,你都可以通过selenium完成自动化测试。本文以一个简单的小例子,简述C# 利用Selenium进行浏览器的模拟操作,仅供学习分享使用,如有不足之处,还请指正。 涉及知识点 要实现本例的功能,除了要掌握Html ,JavaScript,CSS等基础知识,还涉及以下知识点: log4net:主要用于日志的记录和存储,本例采用log4net进行日志记录,便于过程跟踪和问题排查,关于log4net的配置和介绍,之前已有说明,本文不做赘述。 Queue:队列
2021-04-29 10:13:29 212KB le ni niu
1