python:最简单爬虫之使用Scrapy框架爬取小说
off999 2025-05-11 00:13 34 浏览 0 评论
python爬虫框架中,最简单的就是Scrapy框架。执行几个命令就能生成爬虫所需的项目文件,我们只需要在对应文件中调整代码,就能实现整套的爬虫功能。
以下在开发工具PyCharm中用简单的Demo项目来演示爬取小说网站的流程。我们打开小说网首页,将要演示的是如何爬取首页小说推荐列表的小说名称、小说简介、小说作者,这三项元素内容并输出到txt文件中。
一、安装Scrapy
在PyCharm的终端Terminal中执行pip命令,安装scrapy
pip install scrapy二、创建Scrapy项目
在项目文件夹执行指令,创建项目名称readNovel
scrapy startproject readNovel通过cd目录命令进入readNovel/spiders目录下执行scrapy genspider指令,创建一个以基础模板的爬虫脚本文件testNovelSpider,该爬虫搜索的域名为readnovel.com
cd readNovel/readNovel/spiders
scrapy genspider testNovelSpider readnovel.com执行完文件目录结构如下图
三、Scrapy 文件介绍
上述通过两条简单的命令,就已经创建了Scrapy项目所需的所有文件。现在简单介绍下项目的各文件作用。
1.顶层readNovel:通过startproject 指令创建的项目名称。
2.scrapy.cfg:整个项目的配置文件,定义了项目名称和默认设置文件的位置。
3.次级readNovel:项目代码模块(也可以叫包),包含了所有执行代码内容。
四、代码文件编辑
1.定义字段文件items.py
我们在该文件中定义爬虫将要爬取的三个字段:小说名称、简介、作者。
# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html
import scrapy
class ReadnovelItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
bookTitle = scrapy.Field() #小说名称
bookRemark = scrapy.Field() #小说简介
director = scrapy.Field() #小说作者2.定义爬虫文件TestNovelspiderSpider.py
需要注意的一点,引入items前,需要使用sys先将items所在目录添加到运行环境,否则在控制台执行爬虫程序时会出现“ ModuleNotFoundError: No module named 'items' ”的报错提示。
import scrapy
from scrapy.selector import Selector
import sys
# print(sys.path) #查看当前python解释器搜索目录
import os
prPath = os.path.dirname(os.path.dirname(__file__))
# print(prPath) #上一级目录 即items所在目录
sys.path.append(prPath) # 将items所在目录添加到运行环境
from items import ReadnovelItem
import re
class TestNovelspiderSpider(scrapy.Spider):
name = "testNovelSpider"
# 爬取域名
allowed_domains = ["readnovel.com"]
# 爬取页面
start_urls = ["https://readnovel.com"]
def parse(self, response):
print("开始爬取....")
# 获取要元素的上一级集合
selector = response.xpath('//div[@class="type-new-list cf"]/ul/li').extract()
items = []
# 遍历所有对象
for book in selector:
# print(book)
# 用正则表达式匹配从当前book对象中获取到小说名称字符串
bookTitle = re.findall('<a href="/book/.*?" data-eid=".*?" data-bid=".*?" target="_blank" title=".*?</a>', book)[0]
# 从获取的小说名称字符串中截取出中文
bookTitle = bookTitle.split("title=")[1].split("\"")[1]
print("小说名:" + bookTitle)
# 用正则表达式匹配从当前book对象中获取到小说名简介
bookRemark = re.findall('<p>.*?</p>', book)[0]
bookRemark = bookRemark.split("<p>")[1].split("</p>")[0]
print("小说备注:"+bookRemark)
# 使用Selector选择器,定位到指定<a>并获取text的文本为小说作者
director = Selector(text=book).xpath('//a[@class="author default"]/text()').extract()[0];
print("小说作者:"+director+"\r\n")
item = ReadnovelItem()
item['bookTitle'] = bookTitle
item['bookRemark'] = bookRemark
item['director'] = director
items.append(item)
# print(items)
return items以下对上述代码进行说明。
打开并右击页面查看源代码,查找其中一个小说名称可以看到代码段。
使用xpath获取到上一级的集合成员,然后遍历取出每个成员做处理。
response.xpath('//div[@class="type-new-list cf"]/ul/li').extract()使用re.findall 结合正则表达式抓取模板,“.*?”代表可以匹配所有字符,用于代替名称可变的部分,获取到小说名称。
re.findall('<a href="/book/.*?" data-eid=".*?" data-bid=".*?" target="_blank" title=".*?</a>', book)[0]同理下列取出小说备注、小说作者。
3.定义结果处理文件pipelines.py
将爬取到的各成员内容输出到文本txt中
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
# useful for handling different item types with a single interface
from itemadapter import ItemAdapter
import codecs
import time
class ReadnovelPipeline(object):
def process_item(self, item, spider):
today = time.strftime('%Y-%m-%d', time.localtime())
fileName = '小说阅读网' + today + '.txt'
print('准备写入内容:')
print(item)
with codecs.open(fileName, 'ab+', 'utf-8') as fp:
fp.write('小说名称:'+item['bookTitle']+'\r\n')
fp.write('小说内容:' + item['bookRemark']+'\r\n')
fp.write('小说作者:' + item['director']+'\r\n\r\n')
# return item4.调整配置文件settings.py
打开settings.py,添加以下内容,将pipelines的处理文件与爬虫目录下的文件进行关联
BOT_NAME = "readNovel"
SPIDER_MODULES = ["readNovel.spiders"]
NEWSPIDER_MODULE = "readNovel.spiders"
ITEM_PIPELINES = {'readNovel.pipelines.ReadnovelPipeline': 300}5.运行程序
在终端控制台执行命令
scrapy crawl testNovelSpider当前目录会生成txt文件,打开查看内容如下。
以上演示程序爬取小说推荐列表并输出到文件成功。
如果文章解决了你的问题,欢迎点赞、收藏或评论。
相关推荐
- win10系统升级win11(win10系统升级win11后无声音输出设备)
-
如果你是正版的操作系统的话,可以到微软的官方网站直接下载一个windows11的安装包,直接按下up的文件,它就会根据提示一步一步的安装,然后它就会直接升级到windows11了。如果你不是正版的操作...
- thinkpad按f8进不了安全模式
-
可以通过系统预设进入安全模式,步骤如下:1、打开开始菜单栏,点击设置2、点击更新与恢复3、点击恢复-选择高级启动下的立即重启系统重启后就会提示选择启动的模式,这时选择安全模式即可。Bugch...
- window7旗舰版电脑密码忘记了怎么解开
-
如果忘记win7旗舰版电脑密码,可以尝试以下方法破解:1.使用系统管理员账户登录。2.在开始菜单中,找到“控制面板”并打开。3.在“用户账户和家庭安全”中找到“更改Windows密码”并打开。4...
- 163邮箱电脑版(163电子邮箱)
-
163邮箱在电脑端的登入网址是mail.163.com。163邮箱作为国内排名靠前的邮箱,为大家提供邮箱服务,除了免费个人邮箱个人vip邮箱外,还提供企业邮箱的服务。163邮箱可以在outlookf...
- 国内外十大免费crm软件推荐(免费版crm)
-
悟空CRM9.0完全开源免费,采用前后端分离模式,前端框架vue后端框架PHP/JAVA多框架语言。ZohoCRM有免费版,限3用户免费,它还配有免费的手机app,很方便。你可以到这个地址查看一...
- 电脑显示屏(电脑显示屏图片)
-
1、LCD显示器LCD显示器即液晶显示屏,优点是机身薄,占地小,辐射小,给人以一种健康产品的形象。我看不尽是,使用液晶显示屏不一定可以保护到眼睛,这需要看各人使用计算机的习惯。2、等离子显示器等离子显...
- 把文件删了怎么恢复(文件删除之后如何恢复)
-
首先我们需要通过浏览器搜索互盾数据恢复软件,将这款软件下载到我们的电脑上1、下载好后运行互盾数据恢复软件,软件界面有六大功能,因为我们需要对回收站清空的数据进行恢复,所以点击界面的“误清空回收站”即...
- 360路由器怎么设置密码(360路由器怎么设置密码192.168.0.1)
-
360路由器p1的具体步骤:1、首先按照说明书进行常规连接路由器,然后我们打开浏览器,地址栏输入luyou.360.cn或192.168.0.1回车。2、立即开启,就会看见下一个设置界面,路由器管理员...
- 电脑特别卡反应特别慢怎么办
-
网速能快多少?很多朋友发现家里的网速明明是百兆光纤,但网速总是提不上来,其实影响这的原因很多,但有一点或许是很多人都不知道的,那就是因为我们的系统为了适应不同配置的电脑,需要保留一定的宽带来减轻网络给...
- cpu使用率过高(cpu使用率过高怎么解决 换配置)
-
关闭不必要的程序和服务:找出并关闭后台运行的、不必要的程序,注意可能的开机自启动程序影响。结束后台进程:通过任务管理器或系统监视器来结束不必要的后台进程,特别注意那些占用大量CPU资源的进程。检查...
- 智能abc输入法电脑版(智能abc输入法免费下载)
-
要安装智能ABC输入法,首先需要在笔记本上打开浏览器,然后在搜索栏中输入“智能ABC输入法下载”,找到官方网站或者可信赖的第三方网站,点击下载并安装该输入法软件。安装完成后,在输入法设置中选择启用智能...
- 如何给电脑设置密码开机密码
-
1、点击左下角开始,选择控制面板!(有的可以右击我的电脑)2、然后在选择用户账户3、一般没有设置密码的需要设置administrative的管理员密码!也可以创建新的账户4、然后在选择创建密码5、然后...
- 系统盘制作u盘要多大(制作系统u盘要多少g)
-
u盘制作启动盘,8g空间足够了。随着WINDOWS系统的不断完善,操作系统本身文件也越来越大,因为操作系统集成了更多的设备驱动和补丁,但是就WINDOWS10系统来说,有8g的空间足够把U盘做成启动...
- 网吧电脑怎么关闭防火墙(网吧如何关掉防火墙)
-
1、首先,我们点击电脑桌面左下角的微软按钮,弹出的界面,我们找到windows系统,点击打开它,弹出的界面,我们点击控制面板;2、弹出的界面,我们点击WindowsDefender防火墙;3、之后我...
欢迎 你 发表评论:
- 一周热门
-
-
抖音上好看的小姐姐,Python给你都下载了
-
全网最简单易懂!495页Python漫画教程,高清PDF版免费下载
-
Python 3.14 的 UUIDv6/v7/v8 上新,别再用 uuid4 () 啦!
-
飞牛NAS部署TVGate Docker项目,实现内网一键转发、代理、jx
-
python入门到脱坑 输入与输出—str()函数
-
宝塔面板如何添加免费waf防火墙?(宝塔面板开启https)
-
Python三目运算基础与进阶_python三目运算符判断三个变量
-
(新版)Python 分布式爬虫与 JS 逆向进阶实战吾爱分享
-
失业程序员复习python笔记——条件与循环
-
系统u盘安装(win11系统u盘安装)
-
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)
