百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

怎样使用scrapy爬取多页?Python爬虫:scrapy的手动请求发送

off999 2024-11-12 12:01 83 浏览 0 评论

我们之前用scrapy爬取过某网的段子,还记得怎么爬取吗?

爬虫网站代码(spiders/duanzi.py):

import scrapy
# 这里需要导入items.py文件包
from duanziPro.items import DuanziproItem


class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://duanzixing.com/段子/']
    
    def parse(self, response):
        # 数据解析名称和内容
        article_list = response.xpath('/html/body/section/div/div/article')
        for article in article_list:
            title = article.xpath('./header/h2/a/@title').extract_first()
            note = article.xpath('./p[2]/text()').extract_first()

            # 实例化一个item类型对象,将解析到的数据存储到该对象中
            item = DuanziproItem()
            item['title'] = title
            item['note'] = note

            # 将item对象提交给管道
            yield item

item.py

import scrapy

class DuanziproItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field()
    note = scrapy.Field()

管道文件代码(pipelines.py):

class DuanziproPipeline:
  	def process_item(self, item, spider):
      print(item)

执行工程,打印数据如下:

数据看到了,但这只是一页,那怎么爬取多页呢?

有的同学就说了,这还不简单,直接加fro循环。

但有没有想过,管道的对象传递是yield,fro循环肯定行不通。

所以,这里我们引入了一个新的方式:手动请求发送。


手动请求发送

scrapy手动发送请求代码:

  • GET

yield scrapy.Request(url,callback)

callback:制定解析函数,用于解析数据。

  • POST

yield scrapy.FormRequest(url,callback,formdata)

formdata:字典,请求参数

代码实现

我们先来创建一个新的工程:

  1. scrapy start hanReqPro
  2. cd hanReqPro
  3. scrapy genspider www.xx.com

然后修改配置文件等等

好了后我们先分析下网站。

我们看到翻页后的网址是/段子/2/等,那么就可以定义一个url模板

# 通用的url模板
url = 'https://duanzixing.com/段子/%d/'

上面说了,需要一个callback函数,用于解析数据的实现。其实就是我们爬取一页时的数据解析函数parse:

def parse(self, response):
    # 数据解析名称和内容
    article_list = response.xpath('/html/body/section/div/div/article')
    for article in article_list:
        title = article.xpath('./header/h2/a/@title').extract_first()
        note = article.xpath('./p[2]/text()').extract_first()

        # 实例化一个item类型对象,将解析到的数据存储到该对象中
        item = HandreqproItem()
        item['title'] = title
        item['note'] = note

        # 将item对象提交给管道
        yield item

第一页的数据是直接传递给了管道,爬取5页的话,我们需要一个递归!

我们先在函数外定义一个page_num:

# 因为第一页有了,所以我们从第二页开始
page_num = 2

然后我们写递归代码,让yield scrapy.Request(url,callback)执行指定次数:

# 直接写在parse函数里面。放在yield item下面
				# 爬取剩下的4页
        while self.page_num <= 5:  # 结束递归的条件
            new_url = format(self.url % self.page_num)  # 其他页码对应的完整url
            self.page_num += 1
            # 对新的页码对应的url进行请求发送(手动请求GET发送)
            yield scrapy.Request(url=new_url, callback=self.parse)

管道中(pipelines.py)我们直接打印item就可以了,主要是看效果

class HandreqproPipeline:
    # 定义一个数值,记录接收item的次数。也就是记录打印了多少条数据
    count = 0

    def process_item(self, item, spider):
        print(item)
        self.count += 1
        print(self.count)

完整代码:

import scrapy
from handReqPro.items import HandreqproItem


class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    # allowed_domains = ['www.xx.com']
    start_urls = ['https://duanzixing.com/段子/']

    # 通用url模板
    url = 'https://duanzixing.com/段子/%d/'
    page_num = 2
		
    # 将段子网中所有页码对应的数据进行爬取(前五页)
    def parse(self, response):
        # 数据解析名称和内容
        article_list = response.xpath('/html/body/section/div/div/article')
        for article in article_list:
            title = article.xpath('./header/h2/a/@title').extract_first()
            note = article.xpath('./p[2]/text()').extract_first()

            # 实例化一个item类型对象,将解析到的数据存储到该对象中
            item = HandreqproItem()
            item['title'] = title
            item['note'] = note

            # 将item对象提交给管道
            yield item

            while self.page_num <= 5:
                new_url = format(self.url % self.page_num)
                self.page_num += 1
                yield scrapy.Request(url=new_url, callback=self.parse)

执行工程~我们就发现打印了60条数据,每页是12条,总共5页!


其他问题

  • 为什么start_urls列表中的url会被自行进行get请求的发送?
    因为列表中的url其实是被start_requests这个父类方法实现的get请求发送
# 父类方法:这个是该方法的原始实现
    def start_requests(self):
        for u in self.start_urls:
            yield scrapy.Request(url=u, callback=self.parse)
  • 如何将start_urls中的url默认进行post请求的发送?

重写start_requests(self)父类方法即可

def start_requests(self):
            for u in self.start_urls:
                yield scrapy.FormRequest(url,callback,formdata)

关注Python涛哥!学习更多Python知识!


相关推荐

怎样打开cdr文件(.cdr用什么打开)

cdr是什么文件?cdr文件用什么打开?cdr文件是CorelDraw图像制作软件标准的输出格式,与photoshop(PS)图片设计软件类似都属于图片设计软件,需要打开cdr文件我们就需要先了解C...

微软拼音输入法好用吗(微软拼音输入法好用吗知乎)

  CTRL(Control)组合键;Ctrl+Alt+A(截屏);Ctrl+A(All)全选;Ctrl+C(Copy)复制;Ctrl+V粘贴Ctrl+S保存,窗口...

怎么设置屏保密码(怎么设置屏保密码和锁定时间)

屏保密码设置的方法步骤1、鼠标左键单击桌面下的【开始】菜单键;点击【控制面板】;2、点击【外观和个性化】;然后点击【个性化】选项卡中的【更改屏幕保护程序】;3、选择一个自己喜欢的程序,勾选,然后再点击...

无法下载ie浏览器怎么办(ie浏览器显示无法下载)

如果您在使用IE浏览器时遇到无法下载的问题,以下是一些常见的解决办法:1.清除浏览器缓存:打开IE浏览器,依次点击工具(齿轮图标)->Internet选项->常规选项->...

笔记本w7可以升级w10吗(笔记本w7可以升级w10吗)

要将wln7升级到win10,需要先确保计算机配置符合win10的最低要求,包括处理器、内存、硬盘空间等。然后,可以下载win10的升级助手或镜像文件,在升级前备份重要数据,选择需要保留的文件和设置,...

如何卸载电脑浏览器软件(怎样卸载电脑浏览器)
如何卸载电脑浏览器软件(怎样卸载电脑浏览器)

如果我们发现我们从浏览器里面下载的东西删不了,这个时候,我们就可能是由于下载到了了一些病毒软件或者是病毒程序而导致的,如果说想要解决这个问题,方法的话也很简单,我们可以通过杀毒软件对其进行杀毒,然后再进行卸载,基本上就可以删除了。app卸载...

2025-11-18 09:51 off999

联想怎么看电脑配置和型号(联想怎么看电脑配置和型号笔记本)

笔记本看型号有推荐三种方法:第一种,点击你笔记本上的(开始),然后找到(运行)打开,在里面的输入框里输入(dxdiag)点击确定,你就可以看见笔记本型号,系统型号等笔记本信息。第二种,就是在你的电脑上...

怎么ghost电脑系统(怎样ghost)

使用GHOST软件备份系统即可。1、网上下载一键GOST安装好,重启电脑运行一键gost-选择手动进入GOST。2、进入GHOST的操作界面,点OK。3、选择菜单到Local(本机)--Partiti...

u盘读取软件下载(u盘读取器下载)

手机播放U盘里的视频不用刻意的去安装什么播放器,一般手机里自带的播放器就能够直接播放U盘里的一般常见的视频。只要你要播放的视频,都是平时在电脑上或者电视上能够正常播放的视频,一般在手机里面它的系统自带...

office2020安装包百度云下载

Office2020和Office2019是微软的办公套件产品,两个版本之间有以下区别:1.发布时间:Office2020于2021年10月发布,而Office2019于2018年9月发布。...

硬盘恢复分区(硬盘恢复分区怎么删除)

1、在电脑上下载DiskGenius软件。2、双击运行该软件,软件会自动识别硬盘。当软件自动识别硬盘之后,右键单击硬盘的盘符,出现下拉菜单栏,选择搜索已丢失分区(重建分区表)选项。3、右键单击硬盘盘符...

edge 浏览器(edge浏览器官网下载)
edge 浏览器(edge浏览器官网下载)

目前没有,如果是平板安装了WIN10是会内置MicrosoftEdge浏览器的。edge是由微软开发的基于Chromium开源项目及其他开源软件的网页浏览器。Edge浏览器主要特点是能够支持目前主流的Web技术,作为Windows10自带...

2025-11-18 06:51 off999

网易163邮箱免费注册(163网易免费邮件注册)
网易163邮箱免费注册(163网易免费邮件注册)

163邮箱登录入口页面官方地址:https://mail.163.com/163邮箱登录注册方法1、进入邮箱登入首页,我们点击右下角“去注册”按钮,进入注册界面;2、这里直接填写账号和密码内容,点一下同意那里呈蓝色圆点;再点下一步。3、再填...

2025-11-18 06:03 off999

苹果商城app下载安装(苹果商店app免费下载)

一、苹果手机下载软件显示APP内购买的意思是APP可以免费下载使用,但是该APP内有付费内容,也就是通常所说的收费道具。二、不是所有应用都会提供App内购买项目。如果某个应用提供App内购买...

惠普电脑中国官网(惠普手提电脑官网)

https://support.hp.com/cn是惠普笔记本售后服务官网。惠普维修服务中心通过整合线上线下相关资源,向国内用户提供方便快捷、安全可靠的优质电子产品维修服务。目前拥有北京6家、全国30...

取消回复欢迎 发表评论: