百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

怎样使用scrapy爬取多页?Python爬虫:scrapy的手动请求发送

off999 2024-11-12 12:01 31 浏览 0 评论

我们之前用scrapy爬取过某网的段子,还记得怎么爬取吗?

爬虫网站代码(spiders/duanzi.py):

import scrapy
# 这里需要导入items.py文件包
from duanziPro.items import DuanziproItem


class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://duanzixing.com/段子/']
    
    def parse(self, response):
        # 数据解析名称和内容
        article_list = response.xpath('/html/body/section/div/div/article')
        for article in article_list:
            title = article.xpath('./header/h2/a/@title').extract_first()
            note = article.xpath('./p[2]/text()').extract_first()

            # 实例化一个item类型对象,将解析到的数据存储到该对象中
            item = DuanziproItem()
            item['title'] = title
            item['note'] = note

            # 将item对象提交给管道
            yield item

item.py

import scrapy

class DuanziproItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field()
    note = scrapy.Field()

管道文件代码(pipelines.py):

class DuanziproPipeline:
  	def process_item(self, item, spider):
      print(item)

执行工程,打印数据如下:

数据看到了,但这只是一页,那怎么爬取多页呢?

有的同学就说了,这还不简单,直接加fro循环。

但有没有想过,管道的对象传递是yield,fro循环肯定行不通。

所以,这里我们引入了一个新的方式:手动请求发送。


手动请求发送

scrapy手动发送请求代码:

  • GET

yield scrapy.Request(url,callback)

callback:制定解析函数,用于解析数据。

  • POST

yield scrapy.FormRequest(url,callback,formdata)

formdata:字典,请求参数

代码实现

我们先来创建一个新的工程:

  1. scrapy start hanReqPro
  2. cd hanReqPro
  3. scrapy genspider www.xx.com

然后修改配置文件等等

好了后我们先分析下网站。

我们看到翻页后的网址是/段子/2/等,那么就可以定义一个url模板

# 通用的url模板
url = 'https://duanzixing.com/段子/%d/'

上面说了,需要一个callback函数,用于解析数据的实现。其实就是我们爬取一页时的数据解析函数parse:

def parse(self, response):
    # 数据解析名称和内容
    article_list = response.xpath('/html/body/section/div/div/article')
    for article in article_list:
        title = article.xpath('./header/h2/a/@title').extract_first()
        note = article.xpath('./p[2]/text()').extract_first()

        # 实例化一个item类型对象,将解析到的数据存储到该对象中
        item = HandreqproItem()
        item['title'] = title
        item['note'] = note

        # 将item对象提交给管道
        yield item

第一页的数据是直接传递给了管道,爬取5页的话,我们需要一个递归!

我们先在函数外定义一个page_num:

# 因为第一页有了,所以我们从第二页开始
page_num = 2

然后我们写递归代码,让yield scrapy.Request(url,callback)执行指定次数:

# 直接写在parse函数里面。放在yield item下面
				# 爬取剩下的4页
        while self.page_num <= 5:  # 结束递归的条件
            new_url = format(self.url % self.page_num)  # 其他页码对应的完整url
            self.page_num += 1
            # 对新的页码对应的url进行请求发送(手动请求GET发送)
            yield scrapy.Request(url=new_url, callback=self.parse)

管道中(pipelines.py)我们直接打印item就可以了,主要是看效果

class HandreqproPipeline:
    # 定义一个数值,记录接收item的次数。也就是记录打印了多少条数据
    count = 0

    def process_item(self, item, spider):
        print(item)
        self.count += 1
        print(self.count)

完整代码:

import scrapy
from handReqPro.items import HandreqproItem


class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    # allowed_domains = ['www.xx.com']
    start_urls = ['https://duanzixing.com/段子/']

    # 通用url模板
    url = 'https://duanzixing.com/段子/%d/'
    page_num = 2
		
    # 将段子网中所有页码对应的数据进行爬取(前五页)
    def parse(self, response):
        # 数据解析名称和内容
        article_list = response.xpath('/html/body/section/div/div/article')
        for article in article_list:
            title = article.xpath('./header/h2/a/@title').extract_first()
            note = article.xpath('./p[2]/text()').extract_first()

            # 实例化一个item类型对象,将解析到的数据存储到该对象中
            item = HandreqproItem()
            item['title'] = title
            item['note'] = note

            # 将item对象提交给管道
            yield item

            while self.page_num <= 5:
                new_url = format(self.url % self.page_num)
                self.page_num += 1
                yield scrapy.Request(url=new_url, callback=self.parse)

执行工程~我们就发现打印了60条数据,每页是12条,总共5页!


其他问题

  • 为什么start_urls列表中的url会被自行进行get请求的发送?
    因为列表中的url其实是被start_requests这个父类方法实现的get请求发送
# 父类方法:这个是该方法的原始实现
    def start_requests(self):
        for u in self.start_urls:
            yield scrapy.Request(url=u, callback=self.parse)
  • 如何将start_urls中的url默认进行post请求的发送?

重写start_requests(self)父类方法即可

def start_requests(self):
            for u in self.start_urls:
                yield scrapy.FormRequest(url,callback,formdata)

关注Python涛哥!学习更多Python知识!


相关推荐

Python函数参数和返回值类型:让你的代码更清晰、更健壮

在Python开发中,你是否遇到过这些抓狂时刻?同事写的函数参数类型全靠猜调试两小时发现传了字符串给数值计算函数重构代码时不知道函数返回的是列表还是字典今天教你两招,彻底解决类型混乱问题!让你的...

有公司内部竟然禁用了python开发,软件开发何去何从?

今天有网友在某社交平台发文:有公司内部竟然禁止了python开发!帖子没几行,评论却炸锅了。有的说“太正常,Python本就不适合做大项目”,还有的反驳“飞书全员用Python”。暂且不说这家公司...

写 Python 七年才发现的七件事:真正提高生产力的脚本思路

如果你已经用Python写了不少脚本,却总觉得代码只是“能跑”,这篇文章或许会刷新你对这门语言的认知。以下七个思路全部来自一线实战,没有花哨的概念,只有可落地的工具与习惯。它们曾帮我省下大量无意义...

用Python写一个A*搜索算法含注释说明

大家好!我是幻化意识流。今天我们用Python写一个A*搜索算法的代码,我做了注释说明,欢迎大家一起学习:importheapq#定义搜索节点类,包括当前状态、从初始状态到该状态的代价g、从该状态...

使用python制作一个贪吃蛇游戏,并为每一句添加注释方便学习

今天来设计一个贪吃蛇的经典小游戏。先介绍下核心代码功能(源代码请往最后面拉):游戏功能:-四个难度等级:简单(8FPS)、中等(12FPS)、困难(18FPS)、专家(25FPS)-美...

Python 之父 Guido van Rossum 宣布退休

Python之父GuidovanRossum在推特公布了自己从Dropbox公司离职的消息,并表示已经退休。他还提到自己在Dropbox担任工程师期间学到了很多东西——Python的类型注解(T...

4 个早该掌握的 Python 类型注解技巧

在Python的开发过程中,类型注解常常被忽视。但当面对一段缺乏类型提示、逻辑复杂的代码时,理解和维护成本会迅速上升,极易陷入“阅读地狱”。本文整理了4个关于Python类型注解的重要技巧...

让你的Python代码更易读:7个提升函数可读性的实用技巧

如果你正在阅读这篇文章,很可能你已经用Python编程有一段时间了。今天,让我们聊聊可以提升你编程水平的一件事:编写易读的函数。请想一想:我们花在阅读代码上的时间大约是写代码的10倍。所以,每当你创建...

Python异常模块和包

异常当检测到一个错误时,Python解释器就无法继续执行了,反而出现了一些错误的提示,这就是所谓的“异常”,也就是我们常说的BUG例如:以`r`方式打开一个不存在的文件。f=open('...

别再被 return 坑了!一文吃透 Python return 语句常见错误与调试方法

Pythonreturn语句常见错误与调试方法(结构化详解)一.语法错误:遗漏return或返回值类型错误错误场景pythondefadd(a,b):print(a+b)...

Python数据校验不再难:Pydantic库的工程化实践指南

在FastAPI框架横扫Python后端开发领域的今天,其默认集成的Pydantic库正成为处理数据验证的黄金标准。这个看似简单的库究竟隐藏着哪些让开发者爱不释手的能力?本文将通过真实项目案例,带您解...

python防诈骗的脚本带注释信息

以下是一个简单但功能完整的防诈骗脚本,包含URL检测、文本分析和风险评估功能。代码结构清晰,带有详细注释,适合作为个人或家庭防诈骗工具使用。这个脚本具有以下功能:文本诈骗风险分析:检测常见诈骗关键...

Python判断语句

布尔类型和比较运算符布尔类型的定义:布尔类型只有两个值:True和False可以通过定义变量存储布尔类型数据:变量名称=布尔类型值(True/False)布尔类型不仅可以自行定义,同时也可通过...

使用python编写俄罗斯方块小游戏并为每一句添加注释,方便学习

先看下学习指导#俄罗斯方块游戏开发-Python学习指导##项目概述这个俄罗斯方块游戏是一个完整的Python项目,涵盖了以下重要的编程概念:-面向对象编程(OOP)-游戏开发基础-数据...

Python十大技巧:不掌握这些,你可能一直在做无用功!

在编程的世界里,掌握一门语言只是起点,如何写出优雅、高效的代码才是真功夫。Python作为最受欢迎的编程语言之一,拥有简洁明了的语法,但要想真正精通这门语言,还需要掌握一些实用的高级技巧。一、列表推导...

取消回复欢迎 发表评论: