动态数据爬取的方法,你都知道吗!
off999 2025-03-14 19:46 16 浏览 0 评论
网络爬虫,是当前一个灰产项目,俗话说爬虫用的好,捞饭吃的饱!
个人爬一些公开数据用来自己研究分析,不用于商业用途,倒是没有什么风险!
部门项目定制版本众多,又经常重叠发布,导致在测试过程中出现了低级错误,就是页面404的错误!
不要问为啥不接口测试,其实之前也有做,包括通过流量跑接口比较、还有浏览器获取HAR文件解析自动生成自动化用例等;但是项目大多是定制版本,然后每个版本都有差别,而且工期紧任务急,导致这些系统都没怎么用上,最近大版本要进行发布,领导说之前版本有404的低级bug,我就再想能不能通过爬取页面的URL然后请求进行实现!
想到就做,于是乎被狠狠打脸了!
首先我想到的是使用scrapy进行爬取系统的所有URL,然后进行请求解析,把异常的页面通过管道写入到CSV文件中,当我完成登录第一步进入到首页时,发现了些问题,就是访问的页面获取到的数据都是一样的:
看到We're sorry but safe-cactus-v2 doesn't work properly without JavaScript enabled. Please enable it to continue.提示时,以为是javascript没有开启,于是乎就折腾了好长时间。
先是查询前端vue的路由模式,在确定是hash模式后,又查询nginx配置;确认一切无误后开始启用首选方案:
通过 Splash 集成 Scrapy 和 JavaScript
- github: https://github.com/scrapy-plugins/scrapy-splash
- 安装:pip install scrapy-splash
- 运行:docker run -p 8050:8050 scrapinghub/splash
- scrapy项目settings.py文件配置
- settings.py像这样将 Splash 服务器地址添加到您的 Scrapy 项目;
- 将 Splash 中间件添加到DOWNLOADER_MIDDLEWARES ,并更改HttpCompressionMiddleware 优先级来启用它;
- 添加中间件SplashDeduplicateArgsMiddleware到 SPIDER_MIDDLEWARES;
- 设置自定义DUPEFILTER_CLASS;
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'
SPLASH_URL = 'http://10.16.53.17:8050'
HTTPCACHE_ENABLED = True
HTTPCACHE_EXPIRATION_SECS = 0
HTTPCACHE_DIR = 'httpcache'
DOWNLOADER_MIDDLEWARES = {
'scrapy_splash.SplashCookiesMiddleware': 723,
'scrapy_splash.SplashMiddleware': 725,
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}
SPIDER_MIDDLEWARES = {
'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}
- 项目应用
在业务请求时,只需要更换SplashRequest类进行请求就可以了,是不是很简单!
from scrapy_splash import SplashRequest
def parse_login(self, response):
result = response.body.decode('utf-8')
result = json.loads(result) if isinstance(result, str) else result
if result.get("errno") != 0:
logger.info("登录失败,用户名或密码错误")
exit(0)
else:
logger.info(f"用户:{self.data['username']}, 登录成功!")
_cookie = response.headers['Set-Cookie']
self.headers["Cookie"] = _cookie
for url in self.start_urls:
yield SplashRequest(url, self.parse_page, headers=self.headers,
cookies=_cookie, dont_filter=True)
# dont_filter=True 忽略allowed_domains的过滤
- splash启动页面
- 爬虫获取的数据
通过调用splash返回的数据竟然是乱码,乱码,由于时间关系,碰到这个问题,就只能放弃这个方案了。
使用scrapy_Playwright和scrapy_selenium进行获取动态数据
playwright、selenium都是模拟浏览器行为渲染数据,然后把获取的页面元素通过scrapy进行解析;但是配置完也不得行。
- 首先配置playwright
安装:pip install
scrapy-playwright/scrapy-selenium
settings.py配置
DOWNLOADER_MIDDLEWARES = {
'spider_projects.downloadermiddlewares.PlaywrightMiddleware': 543,
}
GERAPY_PLAYWRIGHT_HEADLESS = True #无头、浏览器不弹窗
GERAPY_PLAYWRIGHT_PRETEND = True
GERAPY_PLAYWRIGHT_PROXY = 'http://vpn:3333' # 代理设置
GERAPY_PLAYWRIGHT_PROXY_CREDENTIAL = { 'username': 'xxx', 'password': 'xxxx'}
- 运行结果
执行爬虫时才发现,playwright竟然不支持windows环境,这是一个悲剧哇,然后配置服务器环境测试,发现获取到的数据依然是vue配置的全局的index页面;于是改成scrapy_selenium配置。本质上playwright和selenium是相同的,所以结果也是相同的。
最后的绝招:selenium
既然scrapy搭配Splash、playwright和selenium不得行,那就单独使用selenium,这个一定是可行的。于是开始写selenium;
def main():
driver = webdriver.Chrome(executable_path=CHROME_DRIVER_PATH)
driver.get("http://10.20.21.185:8081/dist/#/login")
driver.maximize_window()
driver.implicitly_wait(3)
driver.find_element_by_xpath("*//input[@class='el-input__inner'][1]").send_keys('admin')
driver.find_element_by_xpath("*//input[@type='password']").send_keys("Admin@123456")
driver.find_element_by_xpath("*//button[contains(@class,'el-button btn-login')]").click()
driver.implicitly_wait(3)
elem = driver.find_element_by_xpath("*//div[text()=' 数据总览 ']")
all_href = driver.find_elements_by_xpath("(//div[@class='overflow-hidden']//ul)[1]/li/a")
urls = [i.get_attribute('href') for i in all_href[1:]]
print(urls)
titles = driver.find_elements_by_xpath("//p[@class='title']")
for i in titles:
spans = i.find_elements_by_xpath("span")
if len(spans) == 3:
print(f'菜单:{spans[1].text}')
spans[2].click()
for t in spans[2].find_elements_by_xpath():
pass
else:
print(f'按钮:{spans[1].text}')
spans[1].click()
driver.forward()
虽然selenium可以行,但是工作量却很大,每一个元素都需要识别验证,工作量大,成果小,感觉得不偿失,尤其是在时间紧急的情况下。
但是工作还需要做,答应了的事情,哭着也得完成,于是通过浏览器操作生成har文件,然后通过系统解析生成接口测试用例,总算把这个工作搞定;
HAR解析生成接口用例
- 上传har文件
- 解析文件
- 生成代码
- 上传执行
然后上传到服务器进行执行结果,然后把报告发送出去!
工作需要调研,不经过调研就承诺,到时候还是要被打脸,赤果果的例子,多么生动,幸好有备选方案可以使用!
相关推荐
- 使用 python-fire 快速构建 CLI_如何搭建python项目架构
-
命令行应用程序是开发人员最好的朋友。想快速完成某事?只需敲击几下键盘,您就已经拥有了想要的东西。Python是许多开发人员在需要快速组合某些东西时选择的第一语言。但是我们拼凑起来的东西在大多数时候并...
- Python 闭包:从底层逻辑到实战避坑,附安全防护指南
-
一、闭包到底是什么?你可以把闭包理解成一个"带记忆的函数"。它诞生时会悄悄记下自己周围的变量,哪怕跑到别的地方执行,这些"记忆"也不会丢失。就像有人出门时总会带上...
- 使用Python实现九九乘法表的打印_用python打印一个九九乘法表
-
任务要求九九乘法表的结构如下:1×1=11×2=22×2=41×3=32×3=63×3=9...1×9=92×9=18...9×9=81使用Python编写程序,按照上述格式打印出完整的九...
- 吊打面试官(四)--Java语法基础运算符一文全掌握
-
简介本文介绍了Java运算符相关知识,包含运算规则,运算符使用经验,特殊运算符注意事项等,全文5400字。熟悉了这些内容,在运算符这块就可以吊打面试官了。Java运算符的规则与特性1.贪心规则(Ma...
- Python三目运算基础与进阶_python三目运算符判断三个变量
-
#头条创作挑战赛#Python中你学会了三步运算,你将会省去很多无用的代码,我接下来由基础到进阶的方式讲解Python三目运算基础在Python中,三目运算符也称为条件表达式。它可以通过一行代码实现条...
- Python 中 必须掌握的 20 个核心函数——set()详解
-
set()是Python中用于创建集合的核心函数,集合是一种无序、不重复元素的容器,非常适合用于成员检测、去重和数学集合运算。一、set()的基本用法1.1创建空集合#创建空集合empty_se...
- 15个让Python编码效率翻倍的实用技巧
-
在软件开发领域,代码质量往往比代码数量更重要。本文整理的15个Python编码技巧,源自开发者在真实项目中验证过的工作方法,能够帮助您用更简洁的代码实现更清晰的逻辑。这些技巧覆盖基础语法优化到高级特性...
- 《Python从小白到入门》自学课程目录汇总(和猫妹学Python)
-
小朋友们好,大朋友们好!不知不觉,这套猫妹自学Python基础课程已经结束了,猫妹体会到了水滴石穿的力量。水一直向下滴,时间长了能把石头滴穿。只要坚持不懈,细微之力也能做出很难办的事。就比如咱们的学习...
- 8÷2(2+2) 等于1还是16?国外网友为这道小学数学题吵疯了……
-
近日,国外网友因为一道小学数学题在推特上争得热火朝天。事情的起因是一个推特网友@pjmdoll发布了一条推文,让他的关注者解答一道数学题:Viralmathequationshavebeen...
- Python学不会来打我(21)python表达式知识点汇总
-
在Python中,表达式是由变量、运算符、函数调用等组合而成的语句,用于产生值或执行特定操作。以下是对Python中常见表达式的详细讲解:1.1算术表达式涉及数学运算的表达式。例如:a=5b...
- Python运算符:数学助手,轻松拿咧
-
Python中的运算符就像是生活中的数学助手,帮助我们快速准确地完成这些计算。比如购物时计算总价、做家务时分配任务等。这篇文章就来详细聊聊Python中的各种运算符,并通过实际代码示例帮助你更好地理解...
- Python学不会来打我(17)逻辑运算符的使用方法与使用场景
-
在Python编程中,逻辑运算符(LogicalOperators)是用于组合多个条件表达式的关键工具。它们可以将多个布尔表达式连接起来,形成更复杂的判断逻辑,并返回一个布尔值(True或Fa...
- Python编程基础:运算符的优先级_python中的运算符优先级问题
-
多个运算符同时出现在一个表达式中时,先执行哪个,后执行哪个,这就涉及运算符的优先级。如数学表达式,有+、-、×、÷、()等,优先级顺序是()、×、÷、+、-,如5+(5-3)×4÷2,先计算(5-3)...
- Python运算符与表达式_python中运算符&的功能
-
一、运算符分类总览1.Python运算符全景图2.运算符优先级表表1.3.1Python运算符优先级(从高到低)优先级运算符描述结合性1**指数右→左2~+-位非/一元加减右→左3*//...
- Python操作Excel:从基础到高级的深度实践
-
Python凭借其丰富的库生态系统,已成为自动化处理Excel数据的强大工具。本文将深入探讨五个关键领域,通过实际代码示例展示如何利用Python进行高效的Excel操作,涵盖数据处理、格式控制、可视...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- 使用 python-fire 快速构建 CLI_如何搭建python项目架构
- Python 闭包:从底层逻辑到实战避坑,附安全防护指南
- 使用Python实现九九乘法表的打印_用python打印一个九九乘法表
- 吊打面试官(四)--Java语法基础运算符一文全掌握
- Python三目运算基础与进阶_python三目运算符判断三个变量
- Python 中 必须掌握的 20 个核心函数——set()详解
- 15个让Python编码效率翻倍的实用技巧
- 《Python从小白到入门》自学课程目录汇总(和猫妹学Python)
- 8÷2(2+2) 等于1还是16?国外网友为这道小学数学题吵疯了……
- Python学不会来打我(21)python表达式知识点汇总
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)