python:最简单爬虫之使用Scrapy框架爬取小说
off999 2025-05-11 00:13 43 浏览 0 评论
python爬虫框架中,最简单的就是Scrapy框架。执行几个命令就能生成爬虫所需的项目文件,我们只需要在对应文件中调整代码,就能实现整套的爬虫功能。
以下在开发工具PyCharm中用简单的Demo项目来演示爬取小说网站的流程。我们打开小说网首页,将要演示的是如何爬取首页小说推荐列表的小说名称、小说简介、小说作者,这三项元素内容并输出到txt文件中。
一、安装Scrapy
在PyCharm的终端Terminal中执行pip命令,安装scrapy
pip install scrapy二、创建Scrapy项目
在项目文件夹执行指令,创建项目名称readNovel
scrapy startproject readNovel通过cd目录命令进入readNovel/spiders目录下执行scrapy genspider指令,创建一个以基础模板的爬虫脚本文件testNovelSpider,该爬虫搜索的域名为readnovel.com
cd readNovel/readNovel/spiders
scrapy genspider testNovelSpider readnovel.com执行完文件目录结构如下图
三、Scrapy 文件介绍
上述通过两条简单的命令,就已经创建了Scrapy项目所需的所有文件。现在简单介绍下项目的各文件作用。
1.顶层readNovel:通过startproject 指令创建的项目名称。
2.scrapy.cfg:整个项目的配置文件,定义了项目名称和默认设置文件的位置。
3.次级readNovel:项目代码模块(也可以叫包),包含了所有执行代码内容。
四、代码文件编辑
1.定义字段文件items.py
我们在该文件中定义爬虫将要爬取的三个字段:小说名称、简介、作者。
# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html
import scrapy
class ReadnovelItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
bookTitle = scrapy.Field() #小说名称
bookRemark = scrapy.Field() #小说简介
director = scrapy.Field() #小说作者2.定义爬虫文件TestNovelspiderSpider.py
需要注意的一点,引入items前,需要使用sys先将items所在目录添加到运行环境,否则在控制台执行爬虫程序时会出现“ ModuleNotFoundError: No module named 'items' ”的报错提示。
import scrapy
from scrapy.selector import Selector
import sys
# print(sys.path) #查看当前python解释器搜索目录
import os
prPath = os.path.dirname(os.path.dirname(__file__))
# print(prPath) #上一级目录 即items所在目录
sys.path.append(prPath) # 将items所在目录添加到运行环境
from items import ReadnovelItem
import re
class TestNovelspiderSpider(scrapy.Spider):
name = "testNovelSpider"
# 爬取域名
allowed_domains = ["readnovel.com"]
# 爬取页面
start_urls = ["https://readnovel.com"]
def parse(self, response):
print("开始爬取....")
# 获取要元素的上一级集合
selector = response.xpath('//div[@class="type-new-list cf"]/ul/li').extract()
items = []
# 遍历所有对象
for book in selector:
# print(book)
# 用正则表达式匹配从当前book对象中获取到小说名称字符串
bookTitle = re.findall('<a href="/book/.*?" data-eid=".*?" data-bid=".*?" target="_blank" title=".*?</a>', book)[0]
# 从获取的小说名称字符串中截取出中文
bookTitle = bookTitle.split("title=")[1].split("\"")[1]
print("小说名:" + bookTitle)
# 用正则表达式匹配从当前book对象中获取到小说名简介
bookRemark = re.findall('<p>.*?</p>', book)[0]
bookRemark = bookRemark.split("<p>")[1].split("</p>")[0]
print("小说备注:"+bookRemark)
# 使用Selector选择器,定位到指定<a>并获取text的文本为小说作者
director = Selector(text=book).xpath('//a[@class="author default"]/text()').extract()[0];
print("小说作者:"+director+"\r\n")
item = ReadnovelItem()
item['bookTitle'] = bookTitle
item['bookRemark'] = bookRemark
item['director'] = director
items.append(item)
# print(items)
return items以下对上述代码进行说明。
打开并右击页面查看源代码,查找其中一个小说名称可以看到代码段。
使用xpath获取到上一级的集合成员,然后遍历取出每个成员做处理。
response.xpath('//div[@class="type-new-list cf"]/ul/li').extract()使用re.findall 结合正则表达式抓取模板,“.*?”代表可以匹配所有字符,用于代替名称可变的部分,获取到小说名称。
re.findall('<a href="/book/.*?" data-eid=".*?" data-bid=".*?" target="_blank" title=".*?</a>', book)[0]同理下列取出小说备注、小说作者。
3.定义结果处理文件pipelines.py
将爬取到的各成员内容输出到文本txt中
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
# useful for handling different item types with a single interface
from itemadapter import ItemAdapter
import codecs
import time
class ReadnovelPipeline(object):
def process_item(self, item, spider):
today = time.strftime('%Y-%m-%d', time.localtime())
fileName = '小说阅读网' + today + '.txt'
print('准备写入内容:')
print(item)
with codecs.open(fileName, 'ab+', 'utf-8') as fp:
fp.write('小说名称:'+item['bookTitle']+'\r\n')
fp.write('小说内容:' + item['bookRemark']+'\r\n')
fp.write('小说作者:' + item['director']+'\r\n\r\n')
# return item4.调整配置文件settings.py
打开settings.py,添加以下内容,将pipelines的处理文件与爬虫目录下的文件进行关联
BOT_NAME = "readNovel"
SPIDER_MODULES = ["readNovel.spiders"]
NEWSPIDER_MODULE = "readNovel.spiders"
ITEM_PIPELINES = {'readNovel.pipelines.ReadnovelPipeline': 300}5.运行程序
在终端控制台执行命令
scrapy crawl testNovelSpider当前目录会生成txt文件,打开查看内容如下。
以上演示程序爬取小说推荐列表并输出到文件成功。
如果文章解决了你的问题,欢迎点赞、收藏或评论。
相关推荐
- 安全教育登录入口平台(安全教育登录入口平台官网)
-
122交通安全教育怎么登录:122交通网的注册方法是首先登录网址http://www.122.cn/,接着打开网页后,点击右上角的“个人登录”;其次进入邮箱注册,然后进入到注册页面,输入相关信息即可完...
- 大鱼吃小鱼经典版(大鱼吃小鱼经典版(经典版)官方版)
-
大鱼吃小鱼小鱼吃虾是于谦跟郭麒麟的《我的棒儿呢?》郭德纲说于思洋郭麒麟作诗的相声,最后郭麒麟做了一首,师傅躺在师母身上大鱼吃小鱼小鱼吃虾虾吃水水落石出师傅压师娘师娘压床床压地地动山摇。...
-
- 哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)
-
要想将ppt免费转换为pdf的话,我们建议大家可以下一个那个wps,如果你是会员的话,可以注册为会员,这样的话,在wps里面的话,就可以免费将ppt呢转换为pdfpdf之后呢,我们就可以直接使用,不需要去直接不需要去另外保存,为什么格式转...
-
2026-02-04 09:03 off999
- 电信宽带测速官网入口(电信宽带测速官网入口app)
-
这个网站看看http://www.swok.cn/pcindex.jsp1.登录中国电信网上营业厅,宽带光纤,贴心服务,宽带测速2.下载第三方软件,如360等。进行在线测速进行宽带测速时,尽...
- 植物大战僵尸95版手机下载(植物大战僵尸95 版下载)
-
1可以在应用商店或者游戏平台上下载植物大战僵尸95版手机游戏。2下载教程:打开应用商店或者游戏平台,搜索“植物大战僵尸95版”,找到游戏后点击下载按钮,等待下载完成即可安装并开始游戏。3注意:确...
- 免费下载ppt成品的网站(ppt成品免费下载的网站有哪些)
-
1、Chuangkit(chuangkit.com)直达地址:chuangkit.com2、Woodo幻灯片(woodo.cn)直达链接:woodo.cn3、OfficePlus(officeplu...
- 2025世界杯赛程表(2025世界杯在哪个国家)
-
2022年卡塔尔世界杯赛程公布,全部比赛在卡塔尔境内8座球场举行,2022年,决赛阶段球队全部确定。揭幕战于当地时间11月20日19时进行,由东道主卡塔尔对阵厄瓜多尔,决赛于当地时间12月18日...
- 下载搜狐视频电视剧(搜狐电视剧下载安装)
-
搜狐视频APP下载好的视频想要导出到手机相册里方法如下1、打开手机搜狐视频软件,进入搜狐视频后我们点击右上角的“查找”,找到自已喜欢的视频。2、在“浏览器页面搜索”窗口中,输入要下载的视频的名称,然后...
- 永久免费听歌网站(丫丫音乐网)
-
可以到《我爱音乐网》《好听音乐网》《一听音乐网》《YYMP3音乐网》还可以到《九天音乐网》永久免费听歌软件有酷狗音乐和天猫精灵,以前要跳舞经常要下载舞曲,我从QQ上找不到舞曲下载就从酷狗音乐上找,大多...
- 音乐格式转换mp3软件(音乐格式转换器免费版)
-
有两种方法:方法一在手机上操作:1、进入手机中的文件管理。2、在其中选择“音乐”,将显示出手机中的全部音乐。3、点击“全选”,选中所有音乐文件。4、点击屏幕右下方的省略号图标,在弹出菜单中选择“...
- 电子书txt下载(免费的最全的小说阅读器)
-
1.Z-library里面收录了近千万本电子书籍,需求量大。2.苦瓜书盘没有广告,不需要账号注册,使用起来非常简单,直接搜索预览下载即可。3.鸠摩搜书整体风格简洁清晰,书籍资源丰富。4.亚马逊图书书籍...
- 最好免费观看高清电影(播放免费的最好看的电影)
-
在目前的网上选择中,IMDb(互联网电影数据库)被认为是最全的电影网站之一。这个网站提供了各种类型的电影和电视节目的海量信息,包括剧情介绍、演员表、评价、评论等。其还提供了有关电影制作背后的详细信息,...
- 孤单枪手2简体中文版(孤单枪手2简体中文版官方下载)
-
要将《孤胆枪手2》游戏的征兵秘籍切换为中文,您可以按照以下步骤进行操作:首先,打开游戏设置选项,通常可以在游戏主菜单或游戏内部找到。然后,寻找语言选项或界面选项,点击进入。在语言选项中,选择中文作为游...
欢迎 你 发表评论:
- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)
