Python大佬精选教材,一步一步教你从零开始学会采集小说
off999 2024-12-16 15:20 32 浏览 0 评论
爬虫实战01--小说
- 01、运行环境
- 02、开始爬虫
- 02-1、分析要点
- 02-1-1、页面之间处理:
- 02-1-2、页面内内容提取
- 02-2、开始页面处理
- 02-2-1、文章目录链接地址:
- 02-2-2、第一个页面链接地址:
- 02-2-3、第2-5个页面链接地址:
- 02-2-4、最后一个页面链接地址:
- 02-2-5、分析结果
- 02-2-6、获取全部页面的code
- 02-3、页面内处理
- 02-3-1、页面分析1
- 02-3-2、文章标题分析:
- 02-3-3、获取标题代码实现:
- 02-3-4、获取内容分析:
- 02-3-5、内容获取代码描述
- 03、其他内容分析:
- 03-1、headers请求头
- 03-2、param代理池
- 使用原因:
- 解决方案
- 03-3、其他
- 04、完整代码
- 05、结语:
01、运行环境
私信小编01即可获取Python学习资料
# 操作系统:win10 专业版
pycharm professional 2019.1
python 3.8
beautifulsoup4 == 4.9.0
requests == 2.23.0
random # 内置的
123456702、开始爬虫
02-1、分析要点
对于其他就两个点,就是首先获取页面,进而获取页面内的内容
02-1-1、页面之间处理:
- 找到爬虫的第一个页面
- 找到前面一个页面和后面一个页面的规律是什么,或者,怎么从跳转到下一个页面
- 找到最后一个页面的
总的来说就是:确定开始条件和结束条件,找到跳转到下一个页面的规律!(有始有终有过程)
02-1-2、页面内内容提取
- 找到数据内容所在,(标题,内容。。。)(重点找到内容的共同之处,方便提取)
- 提取所在标签,进而提取文字
- 保存提取的数据
02-2、开始页面处理
02-2-1、文章目录链接地址:
http://www.quanben5.com/n/chuimianbuhanyangliufeng/xiaoshuo.html
12这一个地址是我们要去爬取的小说的目录页面地址,这一个页面有全部我们要爬取的页面的链接地址,方便我们难道第一个页面和最后一个页面,以及页面之间的地址规律。
02-2-2、第一个页面链接地址:
# 第一个页面链接地址
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17482.html
1202-2-3、第2-5个页面链接地址:
# 第二个页面链接地址:
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17483.html
# 第三个页面链接地址:
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17484.html
# 第四个页面链接地址:
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17485.html
# 第五个页面链接地址:
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17486.html
1234567802-2-4、最后一个页面链接地址:
# 最后一个页面链接地址:
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17649.html
1202-2-5、分析结果
从上面的链接地址,我们可以看出来,这一个小说的全部网页地址是从
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17482.html 到
http://www.quanben5.com/n/chuimianbuhanyangliufeng/17649.html结束的,我们可以对比一哈,就是前面的
http://www.quanben5.com/n/chuimianbuhanyangliufeng/*****.html都是一样的,只有最后的五个数值是不一样的,而且页面与页面之间是 +1 的变化规律,所以这样的话我们就知道了全部页面的规律和开始,结束的条件。
02-2-6、获取全部页面的code
urllist = ['http://www.quanben5.com/n/chuimianbuhanyangliufeng/{}.html'.format(page) for page in range(17644,17650)]
这一个列表推导式就把全部的页面保存在了urllist的列表里面了。
02-3、页面内处理
02-3-1、页面分析1
打开一篇文章,右键检查!
知道文章的内容所在标签,点击代码取余左上角的,那个小箭头,然后在网页内,选择自己想要看的内容所在区域,找到之后,进而分析
02-3-2、文章标题分析:
经过分析,标题是页面内唯一一个<h1></h1>标签,而且class='title'我们通过标题的这两个特点获取到标题,进而获取到标题的内容。(获取标题,是内容需要,也可以作为保存文件的文件名)
02-3-3、获取标题代码实现:
response = requests.get(url=pageurl,headers=headers,params=params)
reshtml = response.content.decode()
soup = BeautifulSoup(reshtml,'lxml')
# 获取页面的标题所在标签,用到了***层级选择器****
titlelist = soup.select('.content h1')
# 获取标签里面的标题内容,因为标签是保存的一个列表里面,要先取出来,
# 然后用`.get_text()`获取到其中的内容
title_text = titlelist[0].get_text()
# 替换到标题里面的一些特殊符号,后面保存为文件名的时候,不允许,
# 这一个是后面代码运行之中出的错误,后面加上的。
title_text =title_text.replace('*','')02-3-4、获取内容分析:
通过分析,(看图),发现了以下一些点:
1、小说的全部内容都在p标签 里面
2、这一个内容的p标签在id=''content'的div标签里面。
基于以上两点,我们就可以唯一确定的获取到全部的内容的p标签,进而获取里面的内容。
02-3-5、内容获取代码描述
response = requests.get(url=pageurl,headers=headers,params=params)
reshtml = response.content.decode()
soup = BeautifulSoup(reshtml,'lxml')
# 获取到全部存在内容的标签,返回的是一个列表
# 用到了***层级选择器***
restextlist = soup.select('#content p')
# 用for循环可以取出全部的标签,然后用.get_text()取出全部内容。
for article_text in restextlist:
article_text.get_text()03、其他内容分析:
03-1、headers请求头
在网页里面,
右键检查
-----> 点击上面的Network
-----> 勾选Preserve Log
-----> 然后刷新网页
-----> 找到Name里面刷新出来的一个信息(大概率是的)(就是这一个网页,找到就ok了),
-----> 点击右边的headers头信息
-----> 翻到最下面的Request Headers请求头信息
-----> 找到里面的User-Agent信息,然后复制粘贴到代码里面。这里存放着很多信息,不携带的话,大概率会请求不到网页。
03-2、param代理池
使用原因:
同一个ip地址,快速,频繁的请求一个网站,会被网站认为是恶意请求,爬虫等等异常情况,然后就会被ip封禁等等的限制。让你爬取不到信息。
解决方案
使用代理池,(这一个是正向代理。反向代理使用Nginx可以自己去了解一哈。前者是对浏览器的代理,后者是对服务器的代理。)然后从代理池里面随机选择一个ip去访问,每次的请求ip都不一样,这样的话,对方就不可检测异常。
快代理https://www.kuaidaili.com/free/
这一个网站包含大量免费的高秘代理,可以使用,对方无法察觉追踪到ip!
03-3、其他
如果以上还是无法请求到页面,那你就继续把Resquest Headers请求头里面的信息,尽量携带。让对方以为你是浏览器。
04、完整代码
import requests
from bs4 import BeautifulSoup
import random
# 全部网页列表,后面进行循环取出页面,然后处理
urllist = ['http://www.quanben5.com/n/chuimianbuhanyangliufeng/{}.html'.format(page) for page in range(17482,17650)]
# 请求头
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.125 Safari/537.36"
}
# 正向代理,代理池。
# 如果一个ip地址,快速,一直请求的话,会被网页认为是爬虫,然后把你的ip地址封禁了。。所以用正向代理。。然后在下面用random模块,随机取出一个ip地址进行请求!
paramslist = ['121.232.199.237:9000','125.108.67.254:9000','123.163.118.102:9999',
'125.108.67.254:9000','171.35.172.151:9999','123.101.231.234:9999',
'125.108.67.254:9000','123.163.118.102:9999','171.35.172.151:9999',
'123.101.231.234:9999','113.195.16.16:9999','175.44.109.145:9999',
'125.108.85.141:9000','175.43.32.21:9999','183.166.103.22:9999',
'125.110.96.80:9000','123.160.69.100:9999','112.111.217.69:9999',
'1.199.30.133:9999','123.55.102.150:9999','120.83.104.196:9999',
'180.118.128.138:9000','163.204.95.253:9999','113.195.18.89:9999',
'113.195.16.191:9999','175.42.129.76:9999','125.110.124.214:9000',
'125.110.102.54:9000','36.249.119.16:9999','125.110.89.240:9000',
'171.35.146.70:9999','124.93.201.59:42672','171.35.173.112:9999']
# 从代理池里面,随机取出一个ip地址,进行访问
httpindex = random.randint(0,len(paramslist)-1)
params = {
'HTTP': paramslist[httpindex]
}
# for循环每一个列表,进行处理
for pageurl in urllist:
# 下面的两行就是看一个下载进度提示,没有意义
index1 = urllist.index(pageurl)+1
print("第{}下载".format(index1))
# 发送请求,获取页面
response = requests.get(url=pageurl,headers=headers,params=params)
reshtml = response.content.decode()
# 用bs4解析页面
soup = BeautifulSoup(reshtml,'lxml')
# 获取小说全部内容的标签
restextlist = soup.select('#content p')
# 获取小说标题的标签
titlelist = soup.select('.content h1')
# 获取标题的文字,然后进行特殊符号的替换,以免很后面文章命名文件出错
title_text = titlelist[0].get_text()
title_text =title_text.replace('*','')
print("正在下载---{}---".format(title_text))
# 打开文件,进行写入文章的全部的小说,文件命名就是“标题.txt”,写的方式'w',编码方式是'utf-8'
with open("./08novel/{}.txt".format(title_text),'w',encoding='utf-8') as f:
f.write(title_text+"\n")
# for循环获取的article_text 是带有内容的p标签
for article_text in restextlist:
# article_text.get_text()这一个才是p标签,获取其中的内容。换行
f.write(article_text.get_text()+"\n")
print("下载完成---{}---".format(title_text))
print("全部下载完成!")
05、结语:
个人记录,新手入门,多多学习,欢迎大家交流探讨!
相关推荐
- 安全教育登录入口平台(安全教育登录入口平台官网)
-
122交通安全教育怎么登录:122交通网的注册方法是首先登录网址http://www.122.cn/,接着打开网页后,点击右上角的“个人登录”;其次进入邮箱注册,然后进入到注册页面,输入相关信息即可完...
- 大鱼吃小鱼经典版(大鱼吃小鱼经典版(经典版)官方版)
-
大鱼吃小鱼小鱼吃虾是于谦跟郭麒麟的《我的棒儿呢?》郭德纲说于思洋郭麒麟作诗的相声,最后郭麒麟做了一首,师傅躺在师母身上大鱼吃小鱼小鱼吃虾虾吃水水落石出师傅压师娘师娘压床床压地地动山摇。...
-
- 哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)
-
要想将ppt免费转换为pdf的话,我们建议大家可以下一个那个wps,如果你是会员的话,可以注册为会员,这样的话,在wps里面的话,就可以免费将ppt呢转换为pdfpdf之后呢,我们就可以直接使用,不需要去直接不需要去另外保存,为什么格式转...
-
2026-02-04 09:03 off999
- 电信宽带测速官网入口(电信宽带测速官网入口app)
-
这个网站看看http://www.swok.cn/pcindex.jsp1.登录中国电信网上营业厅,宽带光纤,贴心服务,宽带测速2.下载第三方软件,如360等。进行在线测速进行宽带测速时,尽...
- 植物大战僵尸95版手机下载(植物大战僵尸95 版下载)
-
1可以在应用商店或者游戏平台上下载植物大战僵尸95版手机游戏。2下载教程:打开应用商店或者游戏平台,搜索“植物大战僵尸95版”,找到游戏后点击下载按钮,等待下载完成即可安装并开始游戏。3注意:确...
- 免费下载ppt成品的网站(ppt成品免费下载的网站有哪些)
-
1、Chuangkit(chuangkit.com)直达地址:chuangkit.com2、Woodo幻灯片(woodo.cn)直达链接:woodo.cn3、OfficePlus(officeplu...
- 2025世界杯赛程表(2025世界杯在哪个国家)
-
2022年卡塔尔世界杯赛程公布,全部比赛在卡塔尔境内8座球场举行,2022年,决赛阶段球队全部确定。揭幕战于当地时间11月20日19时进行,由东道主卡塔尔对阵厄瓜多尔,决赛于当地时间12月18日...
- 下载搜狐视频电视剧(搜狐电视剧下载安装)
-
搜狐视频APP下载好的视频想要导出到手机相册里方法如下1、打开手机搜狐视频软件,进入搜狐视频后我们点击右上角的“查找”,找到自已喜欢的视频。2、在“浏览器页面搜索”窗口中,输入要下载的视频的名称,然后...
- 永久免费听歌网站(丫丫音乐网)
-
可以到《我爱音乐网》《好听音乐网》《一听音乐网》《YYMP3音乐网》还可以到《九天音乐网》永久免费听歌软件有酷狗音乐和天猫精灵,以前要跳舞经常要下载舞曲,我从QQ上找不到舞曲下载就从酷狗音乐上找,大多...
- 音乐格式转换mp3软件(音乐格式转换器免费版)
-
有两种方法:方法一在手机上操作:1、进入手机中的文件管理。2、在其中选择“音乐”,将显示出手机中的全部音乐。3、点击“全选”,选中所有音乐文件。4、点击屏幕右下方的省略号图标,在弹出菜单中选择“...
- 电子书txt下载(免费的最全的小说阅读器)
-
1.Z-library里面收录了近千万本电子书籍,需求量大。2.苦瓜书盘没有广告,不需要账号注册,使用起来非常简单,直接搜索预览下载即可。3.鸠摩搜书整体风格简洁清晰,书籍资源丰富。4.亚马逊图书书籍...
- 最好免费观看高清电影(播放免费的最好看的电影)
-
在目前的网上选择中,IMDb(互联网电影数据库)被认为是最全的电影网站之一。这个网站提供了各种类型的电影和电视节目的海量信息,包括剧情介绍、演员表、评价、评论等。其还提供了有关电影制作背后的详细信息,...
- 孤单枪手2简体中文版(孤单枪手2简体中文版官方下载)
-
要将《孤胆枪手2》游戏的征兵秘籍切换为中文,您可以按照以下步骤进行操作:首先,打开游戏设置选项,通常可以在游戏主菜单或游戏内部找到。然后,寻找语言选项或界面选项,点击进入。在语言选项中,选择中文作为游...
欢迎 你 发表评论:
- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)
