Python 爬虫框架Scrapy 简单介绍(python爬虫程序框架)
off999 2025-06-28 15:50 36 浏览 0 评论
Scrapy 简介
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。
Scrapy 使用了 Twisted 异步网络框架来处理网络通讯,结构清晰明了,并且包含了各种中间件接口,可以灵活的完成各种需求。
安装
Scrapy 是使用Python开发,属于Python的第三方包。它的安装和其他三方包没什么区别。当前Scrapy 最新版本为1.5,支持python2.7 和python3.4+版本的python。
Linux/Mac
在linux 和 Mac 系统下,可使用 pip安装。
pip install scrapy
windows
在windows上安装的话,需要按照的依赖包比较多。官方建议直接使用 Anaconda 或 Miniconda ,通过conda-forge包来安装,这样可以解决各种因为window缺少包而引起的问题。
conda install -c conda-forge scrapy
架构介绍
Scrapy中的数据流由执行引擎控制,其过程如下:
- 引擎打开一个网站(open a domain),找到处理该网站的Spider并向该spider请求第一个要爬取的URL(s)。
- 引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度。
- 引擎向调度器请求下一个要爬取的URL。
- 调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(请求(request)方向)转发给下载器(Downloader)。
- 一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过下载中间件(返回(response)方向)发送给引擎。
- 引擎从下载器中接收到Response并通过Spider中间件(输入方向)发送给Spider处理。
- Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎。
- 引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器。
- (从第二步)重复直到调度器中没有更多地request,引擎关闭该网站。
Scrapy 架构中各组件大致功能如下:
Scrapy 引擎 引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。 详细内容查看下面的数据流(Data Flow)部分。
调度器(Scheduler) 调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。
下载器(Downloader) 下载器负责获取页面数据并提供给引擎,而后提供给spider。
Spiders Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站。 更多内容请看 Spiders 。
Item Pipeline Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、 验证及持久化(例如存取到数据库中)。 更多内容查看 Item Pipeline 。
下载器中间件(Downloader middlewares) 下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。
Spider中间件(Spider middlewares) Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。
各组件功能简单可总结如下,大多数情况下我们只需要定义其中的Spider和ItemPipline模块即可需求。
Scrapy 基本使用
我们已经把scrapy安装好了,并了解了它的基本架构和数据流程。接下来,我们使用scrapy来改写之前的爬虫项目,来熟悉它的各组件的使用方法。
第一步,创建项目
scrapy 提供了一些命令行工具,可直接生成项目代码。我们可直接使用如下命令来生成项目代码。
scrapy startproject v6_scrapy
会生成如下代码:
scrapy.cfg 项目部署文件
v6_scrapy/spiders 爬虫Spiders模块存放目录
v6_scrapy/items.py 项目中的item文件
v6_scrapy/pipelines.py 项目中的Pipelines文件
v6_scrapy/settings.py 项目中的配置文件
第二步,编写Spider
在sipders目录中,添加我们的爬虫文件toutiao_spider.py,内容如下:
# -*- coding:utf-8 -*-
import scrapy
class ToutiaoSpider(scrapy.Spider):
name = 'toutiao'
start_urls = [
'https://toutiao.io/c/ai?page=1',
]
def parse(self, response):
"""
实现html解析
:param response:
:return:
"""
papers = response.xpath('//a[@rel="external"]')
for paper in papers:
title = paper.xpath('./@title').extract()[0]
href = 'https://toutiao.io%s' % paper.xpath('./@href').extract()[0]
print(title, href)
爬虫模块包含一个爬虫类,该类负责爬取网页的内容,并解析返回的html内容,从中提取我们需要的数据。爬虫类继承scrapy.Spider类,有以下截个属性和方法:
- name spider 的名字,用于区分爬虫类。
- start_urls spider 启动时,进行爬取的入口url列表。当没有制定特定的URL时,spider将从该列表中开始进行爬取。 因此,第一个被获取到的页面的URL将是该列表之一。 后续的URL将会从获取到的数据中提取。
- parse 当response没有指定回调函数时,该方法是Scrapy处理下载的response的默认方法。parse 负责处理response并返回处理的数据以及跟进的URL。 Spider 对其他的Request的回调函数也有相同的要求。
在完成之后,执行如下代码启动爬虫:
scrapy crawl toutiao
会看到我们需要抓取的东西被打印出来。
大家注意到代码中有个xpath()的用法,这是scrapy自己的一套数据提取机制,称为selector,他们通过特定的XPath和CSS 表达式来查询和提取html中的数据。
Selector 对象主要有4种方法:
- xpath(query) 传入XPath表达式,返回该表达式所对应的多有节点的selector list 列表。
- css(query)传入CSS表达式,返回该表达式所对应的多有节点的selector list 列表。
- extrac() 序列化该节点为Unicode字符串并返回list列表。
- re(regex) 根据传入的正则表达式提取数据,返回Unicode字符串列表。
使用如下:
scrapy.Selector(response).re('<a rel="next" href="(\S*)">下一页 ></a>')
scrapy.Selector(response).xpath('//title/text()')
scrapy.Selector(response).css('title::text').extract()[0]
# xpath和css 可简写为:
reponse.xpath()
reponse.css()
第三步,定义item
scrapy 使用Item类来结构化数据,以方便对数据的操作。Item 类是一个简单的容器,用来暂存被抓取到的数据,它提供了类似字典的API操作,很多操作类似字典。它需要继承自scrapy.Item, 代码如下:
class ToutiaoItem(scrapy.Item):
title = scrapy.Field()
href = scrapy.Field()
它的操作如下:
- 新建
item = ToutiaoItem(title='深度学习在推荐系统上的应用', href='https://toutiao.io/k/pmd2v1')
- 获取字段
print(item['title'])
- 获取键值
print(item.keys())
print(item.values())
- Item 复制
item1 = ToutiaoItem(item)
item2 = item.copy()
- dict 与item转化
dict_item = dict(item)
item = ToutiaoItem({'title':'深度学习在推荐系统上的应用', 'href':'https://toutiao.io/k/pmd2v1'})
spider 的parse方法可改写为:
def parse(self, response):
"""
实现html解析
:param response:
:return:
"""
papers = response.xpath('//a[@rel="external"]')
for paper in papers:
title = paper.xpath('./@title').extract()[0]
href = 'https://toutiao.io%s' % paper.xpath('./@href').extract()[0]
item = ToutiaoItem({'title': title, 'href': href})
yield item
我们使用yield关键字,将parse方法变为一个生成器,优化了代码,减少了数据资源占用。
说明,yield关键字和生成器,后面会讲到。大家可暂理解为一个高性能的列表对象即可。
第四步,构建 Item pipeline 持久化到文件
Item pipeline 是scrapy数据流的最后一步,它的主要功能有以下几点:
- 清理HTML数据
- 验证爬取数据的合法性
- 查重并丢弃
- 将爬取到的数据做持久化处理
我们今天使用到的便是持久化处理。
每个Item pipeline 是一个独立的类,它必须实现process_item(self, item, spider)方法,pipeline的每个组件会调用该方法,它必须返回一个item对象,或者抛出DropItem异常,被丢弃的Item将不会被之后的pipeline组件处理。代码如下:
我们看下如何将爬取到的数据保存到文件,代码如下:
class V6ScrapyFilePipeline(object):
def __init__(self):
self.file = open('toutiao.json', 'wb')
def process_item(self, item, spider):
if item['title']:
line = json.dumps(dict(item))+"\n"
self.file.write(line.encode())
return item
else:
raise DropItem('在[%s]item中,没有title关键字'%item)
我们定义完Item pipeline后,还需要激活它,到settings.py配置中,添加如下配置:
ITEM_PIPELINES = {
'v6_scrapy.pipelines.V6ScrapyFilePipeline': 1,
}
ITEM_PIPELINES是一个字典,key为pipeline的路径,value为整数值,pipeline会安装这个整数值由低到高顺序执行。该整整数值一般在0到1000之间。
settings.py中配置的pipelines会应用于所有的spider类,我们也可以单独为某个spider类配置自己的pipeline。如下:
class MysqlSpider(scrapy.Spider):
custom_settings = {
'ITEM_PIPELINES':{
'v6_scrapy.pipelines.V6ScrapyFilePipeline': 1,
}
此时,我们再去启动爬虫:
scrapy crawl toutiao
我们会看到,生成了一个数据文件toutiao.json,我们的数据成功保存下来。
其实,scrapy 内建了一些存储的pipeline,我们可以直接通过命令行工具来时用,例如可直接将数据保存为csv文件,可执行如下命令:
scrapy crawl toutiao -o toutiao.csv
更多内建pipeline,可参考这里
第五步,使用Item pipeline 持久化到数据库
在settings.py 配置文件中添加mysql的链接信息。
# db configrations
MYSQL_HOST = 'localhost'
MYSQL_PORT = 3306
MYSQL_DB = 'spider'
MYSQL_USER = 'root'
MYSQL_PWD = 'root'
代码如下:
class V6ScrapyDBPipeline(object):
def __init__(self, host, port, db, user, pwd):
self.host = host
self.port = port
self.db = db
self.user = user
self.pwd = pwd
@classmethod
def from_crawler(cls, crawler):
"""
钩子函数,会调用它来初始化Pipeline
:param crawler:
:return:
"""
return cls(
host=crawler.settings.get('MYSQL_HOST'),
port=crawler.settings.get('MYSQL_PORT'),
db=crawler.settings.get('MYSQL_DB'),
user=crawler.settings.get('MYSQL_USER'),
pwd=crawler.settings.get('MYSQL_PWD')
)
def open_spider(self, spider):
"""
钩子函数,spider创建时调用
:param spider:
:return:
"""
spider.logger.info('[%s]:create db connection.' % spider.name)
self.conn = pymysql.connect(host=self.host, user=self.user, password=self.pwd,
database=self.db, port=self.port)
self.cursor = self.conn.cursor()
def close_item(self, spider):
"""
钩子函数,spider关闭时调用
:param spider:
:return:
"""
spider.logger.info('[%s]:close db connection.' % spider.name)
self.conn.close()
def process_item(self, item, spider):
"""
处理函数
:param spider:
:return:
"""
try:
sql = "insert into result (post_title, post_url)" \
"values('%s', '%s');" % (item['title'], item['href'])
self.cursor.execute(sql)
self.conn.commit()
spider.logger.info('[%s]:insert db: %s' % (spider.name, sql))
except Exception as err:
self.conn.rollback()
spider.logger.info('[%s]:insert db error: %s' % (spider.name, err))
此处我们为了更好的创建和释放资源使用了3个钩子函数。
好了,到此为止,我们的爬虫项目便完成了。这里只是简单的描述了下基本的使用方法,方便大家来理解和掌握Python的基本语法,至于更多scrapy模块的使用及后期的部署方法,大家可考考其官方文档和源码
相关推荐
- 安全教育登录入口平台(安全教育登录入口平台官网)
-
122交通安全教育怎么登录:122交通网的注册方法是首先登录网址http://www.122.cn/,接着打开网页后,点击右上角的“个人登录”;其次进入邮箱注册,然后进入到注册页面,输入相关信息即可完...
- 大鱼吃小鱼经典版(大鱼吃小鱼经典版(经典版)官方版)
-
大鱼吃小鱼小鱼吃虾是于谦跟郭麒麟的《我的棒儿呢?》郭德纲说于思洋郭麒麟作诗的相声,最后郭麒麟做了一首,师傅躺在师母身上大鱼吃小鱼小鱼吃虾虾吃水水落石出师傅压师娘师娘压床床压地地动山摇。...
-
- 哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)
-
要想将ppt免费转换为pdf的话,我们建议大家可以下一个那个wps,如果你是会员的话,可以注册为会员,这样的话,在wps里面的话,就可以免费将ppt呢转换为pdfpdf之后呢,我们就可以直接使用,不需要去直接不需要去另外保存,为什么格式转...
-
2026-02-04 09:03 off999
- 电信宽带测速官网入口(电信宽带测速官网入口app)
-
这个网站看看http://www.swok.cn/pcindex.jsp1.登录中国电信网上营业厅,宽带光纤,贴心服务,宽带测速2.下载第三方软件,如360等。进行在线测速进行宽带测速时,尽...
- 植物大战僵尸95版手机下载(植物大战僵尸95 版下载)
-
1可以在应用商店或者游戏平台上下载植物大战僵尸95版手机游戏。2下载教程:打开应用商店或者游戏平台,搜索“植物大战僵尸95版”,找到游戏后点击下载按钮,等待下载完成即可安装并开始游戏。3注意:确...
- 免费下载ppt成品的网站(ppt成品免费下载的网站有哪些)
-
1、Chuangkit(chuangkit.com)直达地址:chuangkit.com2、Woodo幻灯片(woodo.cn)直达链接:woodo.cn3、OfficePlus(officeplu...
- 2025世界杯赛程表(2025世界杯在哪个国家)
-
2022年卡塔尔世界杯赛程公布,全部比赛在卡塔尔境内8座球场举行,2022年,决赛阶段球队全部确定。揭幕战于当地时间11月20日19时进行,由东道主卡塔尔对阵厄瓜多尔,决赛于当地时间12月18日...
- 下载搜狐视频电视剧(搜狐电视剧下载安装)
-
搜狐视频APP下载好的视频想要导出到手机相册里方法如下1、打开手机搜狐视频软件,进入搜狐视频后我们点击右上角的“查找”,找到自已喜欢的视频。2、在“浏览器页面搜索”窗口中,输入要下载的视频的名称,然后...
- 永久免费听歌网站(丫丫音乐网)
-
可以到《我爱音乐网》《好听音乐网》《一听音乐网》《YYMP3音乐网》还可以到《九天音乐网》永久免费听歌软件有酷狗音乐和天猫精灵,以前要跳舞经常要下载舞曲,我从QQ上找不到舞曲下载就从酷狗音乐上找,大多...
- 音乐格式转换mp3软件(音乐格式转换器免费版)
-
有两种方法:方法一在手机上操作:1、进入手机中的文件管理。2、在其中选择“音乐”,将显示出手机中的全部音乐。3、点击“全选”,选中所有音乐文件。4、点击屏幕右下方的省略号图标,在弹出菜单中选择“...
- 电子书txt下载(免费的最全的小说阅读器)
-
1.Z-library里面收录了近千万本电子书籍,需求量大。2.苦瓜书盘没有广告,不需要账号注册,使用起来非常简单,直接搜索预览下载即可。3.鸠摩搜书整体风格简洁清晰,书籍资源丰富。4.亚马逊图书书籍...
- 最好免费观看高清电影(播放免费的最好看的电影)
-
在目前的网上选择中,IMDb(互联网电影数据库)被认为是最全的电影网站之一。这个网站提供了各种类型的电影和电视节目的海量信息,包括剧情介绍、演员表、评价、评论等。其还提供了有关电影制作背后的详细信息,...
- 孤单枪手2简体中文版(孤单枪手2简体中文版官方下载)
-
要将《孤胆枪手2》游戏的征兵秘籍切换为中文,您可以按照以下步骤进行操作:首先,打开游戏设置选项,通常可以在游戏主菜单或游戏内部找到。然后,寻找语言选项或界面选项,点击进入。在语言选项中,选择中文作为游...
欢迎 你 发表评论:
- 一周热门
-
-
抖音上好看的小姐姐,Python给你都下载了
-
全网最简单易懂!495页Python漫画教程,高清PDF版免费下载
-
飞牛NAS部署TVGate Docker项目,实现内网一键转发、代理、jx
-
win7系统还原步骤图解(win7还原电脑系统的步骤)
-
Python 3.14 的 UUIDv6/v7/v8 上新,别再用 uuid4 () 啦!
-
python入门到脱坑 输入与输出—str()函数
-
16949认证费用是多少(16949审核员太难考了)
-
linux软件(linux软件图标)
-
Python三目运算基础与进阶_python三目运算符判断三个变量
-
windows7旗舰版多少钱(win7旗舰版要多少钱)
-
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)
