百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

python批量爬取图片并保存在本地文件夹下

off999 2024-11-22 19:03 20 浏览 0 评论

1.导入的包

我们一共需要使用到四个包

time包,用来设置间隔时间,防止把网页爬崩(要是真的爬崩了我估计要倒大霉喽)

requess包,当然是用来获取网页的源代码和处理相应的啦

BeautifulSoup包,用来对网页内容进行准确的抓取,具体的使用方法以后我会写道

os包,文件处理最重要最常用的包,用来创建文件名等

import time

import requests

from bs4 import BeautifulSoup

import os

2.抓取网页的源代

啥也不用说,直接上代码,增加了容错的机制,很好理解的,一看就懂

#封装方法用来爬取网页的源代码

def getHTML(url):

try:

r = requests.get(url,timeout = 30,headers = hd)

r.raise_for_status() #容错机制,若请求访问失败则返回的不是200,则返回字符串空

r.encoding = r.apparent_encoding #设置编码方式,用解析返回网页源码得出的编码方式代替 UTF-8

return r.text

except:

return ''

其中需要说明的就是更改requests请求的头部,虽然官网对爬虫没有任何限制,处于习惯,还是更改一下头部更好啦

hd = {'user-agent':'chorme/10'}

#更改requests请求的头信息,用来防止网页的反爬虫,也可来伪装自己访问网页的信息,这里用最简单的chorm(浏览器)版本10代替

3.对网页进行解析,从中获取自己想要的图片链接

查看网页的源码,来看爬取图片的所在的标签,上图说话

?

可以直观的看出,自己想要爬取的图片的相关信息都在img标签当中,所以接下来就把所有的img标签爬取,并对其进行分析即可,但是观察发现,不知道问什么,每一张图片的img标签竟然不同,不可以使用正则表达式,而且最气人的是,有的图片有直接在属性中给出相应的下载链接,但有的没有,只能自己拼接,哎,只能使用基本的方法喽,上代码!

url = 'http://soft.sxau.edu.cn/info/1013/2388.htm' #爬取网页的url

picture = 'http://211.82.8.2:8080/system/_owners/soft/_webprj/' #设置下载图片的头部,根据网页源码得出,并不是每一个img标签都有相对应的图片下载链接,但都有相应的src,这里为最后的保存图片做准备

text = getHTML(url)

soup = BeautifulSoup(text,'html.parser')

a = soup.find_all('img') #直接找出所有的img标签,观察发现每个图片的img标签并不一样,不能用正则表达式来统一查找

urlInfo = [] #用来保存每一个图片拼接好的下载链接

for tag in a:

new_url = tag.attrs['src'] #得到img属性当中的src

urlInfo.append(picture+new_url.split('/',2)[-1]) #通过spilt函数剪切src并于之前的图片头部进行拼接,得到每个图片的下载地址

每行代码后都有详细的注释哟,拼接这个下载链接真的让我废了功夫,体现出一个初学者的心酸。。。

4.保存下载的图片

先上代码再说话!

#保存图片,思路:将所有的图片保存在本地的一个文件夹下,用图片的url链接的后缀名来命名

dir_name = 'teacherImage' #设置文件夹的名字

if not os.path.exists(dir_name): #os模块判断并创建

os.mkdir(dir_name)

for img_url in urlInfo:

time.sleep(1) #设置间隔时间,防止把网页爬崩

picture_name = img_url.split('/')[-1] #提取图片url后缀

reponse = requests.get(img_url)

with open(dir_name+'/'+picture_name,'wb') as f:

f.write(reponse.content)

主要使用os模块,简单明了快捷,大体推荐,哈哈哈哈哈哈哈

5.出结果

一套武功耍下来,就会出现以下的结果,当然成功啦!

?

山东掌趣网络科技

相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: