利用scapy等模块进行流量包的抓取并保存为pcap文件,过滤语法为BPF
2021-08-20 01:02:21 3KB python 服务器流量
最近在学习scapy,在网上找了很多资料,最好发现还是官方原版教程最好,要学好scapy就得好好研究这个文档才行
2021-08-08 21:55:53 3.6MB scapy
1
今天小编就为大家分享一篇Python项目 基于Scapy实现SYN泛洪攻击的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2021-07-28 11:26:54 174KB Python Scapy SYN 泛洪攻击
1
二、开始第一个脚本 2.1 为什么选 python 之前的菜鸟系列是基于 java 的,一年没学其实也忘的差不多了,目前所测的产品 部分也是 python 写的,而且团队也在推广 python ,其实就测试人员来说,python 也 相当受欢迎。易学,易用。翻翻各测试招聘,python 出现的概率也颇高。(个人原因) 最重要的还是 python 简单易学,应用也相对广泛;是测试人员学习编程的不二之选。 下面看看 python 穿上 selenium webdriver 是多么的性感: 2.2 第一个脚本 # coding = utf-8 from selenium import webdriver browser = webdriver.Firefox() browser.get("http://www.baidu.com") browser.find_element_by_id("kw").send_keys("selenium") browser.find_element_by_id("su").click()
2021-07-22 11:46:47 1.47MB selenium虫师
1
ip数据包的监控,嗅探网络的数据包,解析IP数据包的头部并输出,并保存log文件
2021-07-15 20:17:58 2KB python scapy ip数据包监控
1
Python的Scapy库,老手都知道的,玩的时候悠着点,小心被警察叔叔请去喝茶(内附另外3种库+Python)
2021-07-13 16:24:09 22.92MB 网络,Python
1
程序只会抓取DNS数据包。不会去抓取其他类型的数据包!
2021-07-11 13:30:21 1KB 抓取网络数据 DN 网络数据
1
基于Python Scrapy实现的拉勾网全站职位数据采集 爬虫系统 含数据库处理 # -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # http://doc.scrapy.org/en/latest/topics/items.html import scrapy,re from scrapy.loader import ItemLoader from scrapy.loader.processors import MapCompose, TakeFirst from w3lib.html import remove_tags def extract_num(text): #从字符串中提取出数字 match_re = re.match(".*?(\d+).*", text) if match_re: nums = int(match_re.group(1)) else: nums = 0 return nums def replace_splash(value): '''去除/''' return value.replace("/", "") def handle_strip(value): '''空格''' return value.strip() def handle_jobaddr(value): '''去查看地图''' addr_list = value.split("\n") addr_list = [item.strip() for item in addr_list if item.strip() != "查看地图"] return "".join(addr_list) class LagouJobItemLoader(ItemLoader): #自定义itemloader default_output_processor = TakeFirst() class LagouJobItem(scrapy.Item): #拉勾网职位 title = scrapy.Field() url = scrapy.Field() salary = scrapy.Field() job_city = scrapy.Field( input_processor=MapCompose(replace_splash), ) work_years = scrapy.Field( input_processor=MapCompose(replace_splash), ) degree_need = scrapy.Field( input_processor=MapCompose(replace_splash), ) job_type = scrapy.Field() publish_time = scrapy.Field() job_advantage = scrapy.Field() job_desc = scrapy.Field( input_processor=MapCompose(handle_strip), ) job_addr = scrapy.Field( input_processor=MapCompose(remove_tags, handle_jobaddr), ) company_name = scrapy.Field( input_processor=MapCompose(handle_strip), ) company_url = scrapy.Field() crawl_time = scrapy.Field() crawl_update_time = scrapy.Field() def get_insert_sql(self): insert_sql = """ insert into lagou_job(title, url, salary, job_city, work_years, degree_need, job_type, publish_time
2021-07-10 17:02:48 7KB python scapy 爬虫 拉勾
scapy常用命令汇总
2021-07-08 11:01:44 18KB tools
1
ip数据包的解析,分为服务端与客户端,客户端发送消息,服务端解析,并打印输出
2021-07-03 21:45:17 1KB python scapy ip数据包 解析
1