百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

动态数据爬取的方法,你都知道吗!

off999 2025-03-14 19:46 13 浏览 0 评论

网络爬虫,是当前一个灰产项目,俗话说爬虫用的好,捞饭吃的饱!

个人爬一些公开数据用来自己研究分析,不用于商业用途,倒是没有什么风险!

部门项目定制版本众多,又经常重叠发布,导致在测试过程中出现了低级错误,就是页面404的错误!

不要问为啥不接口测试,其实之前也有做,包括通过流量跑接口比较、还有浏览器获取HAR文件解析自动生成自动化用例等;但是项目大多是定制版本,然后每个版本都有差别,而且工期紧任务急,导致这些系统都没怎么用上,最近大版本要进行发布,领导说之前版本有404的低级bug,我就再想能不能通过爬取页面的URL然后请求进行实现!

想到就做,于是乎被狠狠打脸了!

首先我想到的是使用scrapy进行爬取系统的所有URL,然后进行请求解析,把异常的页面通过管道写入到CSV文件中,当我完成登录第一步进入到首页时,发现了些问题,就是访问的页面获取到的数据都是一样的:

看到We're sorry but safe-cactus-v2 doesn't work properly without JavaScript enabled. Please enable it to continue.提示时,以为是javascript没有开启,于是乎就折腾了好长时间。

先是查询前端vue的路由模式,在确定是hash模式后,又查询nginx配置;确认一切无误后开始启用首选方案:

通过 Splash 集成 Scrapy 和 JavaScript

  • github: https://github.com/scrapy-plugins/scrapy-splash
  • 安装:pip install scrapy-splash
  • 运行:docker run -p 8050:8050 scrapinghub/splash
  • scrapy项目settings.py文件配置
  1. settings.py像这样将 Splash 服务器地址添加到您的 Scrapy 项目;
  2. 将 Splash 中间件添加到DOWNLOADER_MIDDLEWARES ,并更改HttpCompressionMiddleware 优先级来启用它;
  3. 添加中间件SplashDeduplicateArgsMiddleware到 SPIDER_MIDDLEWARES;
  4. 设置自定义DUPEFILTER_CLASS;
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'
SPLASH_URL = 'http://10.16.53.17:8050'
HTTPCACHE_ENABLED = True
HTTPCACHE_EXPIRATION_SECS = 0
HTTPCACHE_DIR = 'httpcache'

DOWNLOADER_MIDDLEWARES = {
    'scrapy_splash.SplashCookiesMiddleware': 723,
    'scrapy_splash.SplashMiddleware': 725,
    'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
    }

SPIDER_MIDDLEWARES = {
    'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
    }
  • 项目应用

在业务请求时,只需要更换SplashRequest类进行请求就可以了,是不是很简单!

from scrapy_splash import SplashRequest
def parse_login(self, response):
    result = response.body.decode('utf-8')
    result = json.loads(result) if isinstance(result, str) else result
    if result.get("errno") != 0:
        logger.info("登录失败,用户名或密码错误")
        exit(0)
    else:
        logger.info(f"用户:{self.data['username']}, 登录成功!")
    _cookie = response.headers['Set-Cookie']
    self.headers["Cookie"] = _cookie
  
    for url in self.start_urls:
        yield SplashRequest(url, self.parse_page, headers=self.headers, 
                            cookies=_cookie, dont_filter=True)  
# dont_filter=True 忽略allowed_domains的过滤
  • splash启动页面
  • 爬虫获取的数据

通过调用splash返回的数据竟然是乱码,乱码,由于时间关系,碰到这个问题,就只能放弃这个方案了。

使用scrapy_Playwright和scrapy_selenium进行获取动态数据

playwright、selenium都是模拟浏览器行为渲染数据,然后把获取的页面元素通过scrapy进行解析;但是配置完也不得行。

  • 首先配置playwright

安装:pip install
scrapy-playwright/scrapy-selenium

settings.py配置

DOWNLOADER_MIDDLEWARES = {
    'spider_projects.downloadermiddlewares.PlaywrightMiddleware': 543,
}
GERAPY_PLAYWRIGHT_HEADLESS = True #无头、浏览器不弹窗
GERAPY_PLAYWRIGHT_PRETEND = True
GERAPY_PLAYWRIGHT_PROXY = 'http://vpn:3333' # 代理设置
GERAPY_PLAYWRIGHT_PROXY_CREDENTIAL = {  'username': 'xxx',  'password': 'xxxx'}
  • 运行结果

执行爬虫时才发现,playwright竟然不支持windows环境,这是一个悲剧哇,然后配置服务器环境测试,发现获取到的数据依然是vue配置的全局的index页面;于是改成scrapy_selenium配置。本质上playwright和selenium是相同的,所以结果也是相同的。

最后的绝招:selenium

既然scrapy搭配Splash、playwright和selenium不得行,那就单独使用selenium,这个一定是可行的。于是开始写selenium;

def main():
    driver = webdriver.Chrome(executable_path=CHROME_DRIVER_PATH)
    driver.get("http://10.20.21.185:8081/dist/#/login")
    driver.maximize_window()
    driver.implicitly_wait(3)

    driver.find_element_by_xpath("*//input[@class='el-input__inner'][1]").send_keys('admin')
    driver.find_element_by_xpath("*//input[@type='password']").send_keys("Admin@123456")
    driver.find_element_by_xpath("*//button[contains(@class,'el-button btn-login')]").click()
    driver.implicitly_wait(3)

    elem = driver.find_element_by_xpath("*//div[text()=' 数据总览 ']")
    all_href = driver.find_elements_by_xpath("(//div[@class='overflow-hidden']//ul)[1]/li/a")

    urls = [i.get_attribute('href') for i in all_href[1:]]
    print(urls)
    titles = driver.find_elements_by_xpath("//p[@class='title']")
    for i in titles:
        spans = i.find_elements_by_xpath("span")
        if len(spans) == 3:
            print(f'菜单:{spans[1].text}')
            spans[2].click()
            for t in spans[2].find_elements_by_xpath():
                pass
        else:
            print(f'按钮:{spans[1].text}')
            spans[1].click()
        driver.forward()

虽然selenium可以行,但是工作量却很大,每一个元素都需要识别验证,工作量大,成果小,感觉得不偿失,尤其是在时间紧急的情况下。

但是工作还需要做,答应了的事情,哭着也得完成,于是通过浏览器操作生成har文件,然后通过系统解析生成接口测试用例,总算把这个工作搞定;

HAR解析生成接口用例

  • 上传har文件
  • 解析文件
  • 生成代码
  • 上传执行

然后上传到服务器进行执行结果,然后把报告发送出去!

工作需要调研,不经过调研就承诺,到时候还是要被打脸,赤果果的例子,多么生动,幸好有备选方案可以使用!

#头条创作挑战赛##python#

相关推荐

Python钩子函数实现事件驱动系统(created钩子函数)

钩子函数(HookFunction)是现代软件开发中一个重要的设计模式,它允许开发者在特定事件发生时自动执行预定义的代码。在Python生态系统中,钩子函数广泛应用于框架开发、插件系统、事件处理和中...

Python函数(python函数题库及答案)

定义和基本内容def函数名(传入参数):函数体return返回值注意:参数、返回值如果不需要,可以省略。函数必须先定义后使用。参数之间使用逗号进行分割,传入的时候,按照顺序传入...

Python技能:Pathlib面向对象操作路径,比os.path更现代!

在Python编程中,文件和目录的操作是日常中不可或缺的一部分。虽然,这么久以来,钢铁老豆也还是习惯性地使用os、shutil模块的函数式API,这两个模块虽然功能强大,但在某些情况下还是显得笨重,不...

使用Python实现智能物流系统优化与路径规划

阅读文章前辛苦您点下“关注”,方便讨论和分享,为了回馈您的支持,我将每日更新优质内容。在现代物流系统中,优化运输路径和提高配送效率是至关重要的。本文将介绍如何使用Python实现智能物流系统的优化与路...

Python if 语句的系统化学习路径(python里的if语句案例)

以下是针对Pythonif语句的系统化学习路径,从零基础到灵活应用分为4个阶段,包含具体练习项目和避坑指南:一、基础认知阶段(1-2天)目标:理解条件判断的逻辑本质核心语法结构if条件:...

[Python] FastAPI基础:Path路径参数用法解析与实例

查询query参数(上一篇)路径path参数(本篇)请求体body参数(下一篇)请求头header参数本篇项目目录结构:1.路径参数路径参数是URL地址的一部分,是必填的。路径参...

Python小案例55- os模块执行文件路径

在Python中,我们可以使用os模块来执行文件路径操作。os模块提供了许多函数,用于处理文件和目录路径。获取当前工作目录(CurrentWorkingDirectory,CWD):使用os....

python:os.path - 常用路径操作模块

应该是所有程序都需要用到的路径操作,不废话,直接开始以下是常用总结,当你想做路径相关时,首先应该想到的是这个模块,并知道这个模块有哪些主要功能,获取、分割、拼接、判断、获取文件属性。1、路径获取2、路...

原来如此:Python居然有6种模块路径搜索方式

点赞、收藏、加关注,下次找我不迷路当我们使用import语句导入模块时,Python是怎么找到这些模块的呢?今天我就带大家深入了解Python的6种模块路径搜索方式。一、Python模块...

每天10分钟,python进阶(25)(python进阶视频)

首先明确学习目标,今天的目标是继续python中实例开发项目--飞机大战今天任务进行面向对象版的飞机大战开发--游戏代码整编目标:完善整串代码,提供完整游戏代码历时25天,首先要看成品,坚持才有收获i...

python 打地鼠小游戏(打地鼠python程序设计说明)

给大家分享一段AI自动生成的代码(在这个游戏中,玩家需要在有限时间内打中尽可能多的出现在地图上的地鼠),由于我现在用的这个电脑没有安装sublime或pycharm等工具,所以还没有测试,有兴趣的朋友...

python线程之十:线程 threading 最终总结

小伙伴们,到今天threading模块彻底讲完。现在全面总结threading模块1、threading模块有自己的方法详细点击【threading模块的方法】threading模块:较低级...

Python信号处理实战:使用signal模块响应系统事件

信号是操作系统用来通知进程发生了某个事件的一种异步通信方式。在Python中,标准库的signal模块提供了处理这些系统信号的机制。信号通常由外部事件触发,例如用户按下Ctrl+C、子进程终止或系统资...

Python多线程:让程序 “多线作战” 的秘密武器

一、什么是多线程?在日常生活中,我们可以一边听音乐一边浏览新闻,这就是“多任务处理”。在Python编程里,多线程同样允许程序同时执行多个任务,从而提升程序的执行效率和响应速度。不过,Python...

用python写游戏之200行代码写个数字华容道

今天来分析一个益智游戏,数字华容道。当初对这个游戏颇有印象还是在最强大脑节目上面,何猷君以几十秒就完成了这个游戏。前几天写2048的时候,又想起了这个游戏,想着来研究一下。游戏玩法用尽量少的步数,尽量...

取消回复欢迎 发表评论: