百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

python批量爬取图片并保存在本地文件夹下

off999 2024-11-22 19:03 17 浏览 0 评论

1.导入的包

我们一共需要使用到四个包

time包,用来设置间隔时间,防止把网页爬崩(要是真的爬崩了我估计要倒大霉喽)

requess包,当然是用来获取网页的源代码和处理相应的啦

BeautifulSoup包,用来对网页内容进行准确的抓取,具体的使用方法以后我会写道

os包,文件处理最重要最常用的包,用来创建文件名等

import time

import requests

from bs4 import BeautifulSoup

import os

2.抓取网页的源代

啥也不用说,直接上代码,增加了容错的机制,很好理解的,一看就懂

#封装方法用来爬取网页的源代码

def getHTML(url):

try:

r = requests.get(url,timeout = 30,headers = hd)

r.raise_for_status() #容错机制,若请求访问失败则返回的不是200,则返回字符串空

r.encoding = r.apparent_encoding #设置编码方式,用解析返回网页源码得出的编码方式代替 UTF-8

return r.text

except:

return ''

其中需要说明的就是更改requests请求的头部,虽然官网对爬虫没有任何限制,处于习惯,还是更改一下头部更好啦

hd = {'user-agent':'chorme/10'}

#更改requests请求的头信息,用来防止网页的反爬虫,也可来伪装自己访问网页的信息,这里用最简单的chorm(浏览器)版本10代替

3.对网页进行解析,从中获取自己想要的图片链接

查看网页的源码,来看爬取图片的所在的标签,上图说话

?

可以直观的看出,自己想要爬取的图片的相关信息都在img标签当中,所以接下来就把所有的img标签爬取,并对其进行分析即可,但是观察发现,不知道问什么,每一张图片的img标签竟然不同,不可以使用正则表达式,而且最气人的是,有的图片有直接在属性中给出相应的下载链接,但有的没有,只能自己拼接,哎,只能使用基本的方法喽,上代码!

url = 'http://soft.sxau.edu.cn/info/1013/2388.htm' #爬取网页的url

picture = 'http://211.82.8.2:8080/system/_owners/soft/_webprj/' #设置下载图片的头部,根据网页源码得出,并不是每一个img标签都有相对应的图片下载链接,但都有相应的src,这里为最后的保存图片做准备

text = getHTML(url)

soup = BeautifulSoup(text,'html.parser')

a = soup.find_all('img') #直接找出所有的img标签,观察发现每个图片的img标签并不一样,不能用正则表达式来统一查找

urlInfo = [] #用来保存每一个图片拼接好的下载链接

for tag in a:

new_url = tag.attrs['src'] #得到img属性当中的src

urlInfo.append(picture+new_url.split('/',2)[-1]) #通过spilt函数剪切src并于之前的图片头部进行拼接,得到每个图片的下载地址

每行代码后都有详细的注释哟,拼接这个下载链接真的让我废了功夫,体现出一个初学者的心酸。。。

4.保存下载的图片

先上代码再说话!

#保存图片,思路:将所有的图片保存在本地的一个文件夹下,用图片的url链接的后缀名来命名

dir_name = 'teacherImage' #设置文件夹的名字

if not os.path.exists(dir_name): #os模块判断并创建

os.mkdir(dir_name)

for img_url in urlInfo:

time.sleep(1) #设置间隔时间,防止把网页爬崩

picture_name = img_url.split('/')[-1] #提取图片url后缀

reponse = requests.get(img_url)

with open(dir_name+'/'+picture_name,'wb') as f:

f.write(reponse.content)

主要使用os模块,简单明了快捷,大体推荐,哈哈哈哈哈哈哈

5.出结果

一套武功耍下来,就会出现以下的结果,当然成功啦!

?

山东掌趣网络科技

相关推荐

Python开发管理神器--UV 使用教程:从安装到项目管理

UV是一个用Rust编写的高效Python包和项目管理工具,提供了比传统工具更快的速度和更强的功能。本文将指导你如何使用UV从安装到运行一个Python项目。重点:它可以独立安装,可...

python入门-Day 26: 优化与调试(python优化方法)

优化与调试,内容包括处理模型运行中的常见问题(内存、依赖)、调整参数(如最大生成长度),以及练习改进Day25的文本生成结果。我会设计一个结构化的任务,帮助你掌握优化和调试技巧,同时提升模型性能...

Python安装(python安装发生严重错误)

Windows系统1.安装python1.1下载Python安装包打开官方网站:https://www.python.org/downloads/点击"DownloadPython3.1...

UV 上手指南:Python 项目环境/包管理新选择

如果你是一位Python开发者,曾因pipinstall的安装速度而感到沮丧,或者希望Python的依赖管理能够像Node.js那样高效顺滑,那么UV可能正是你所需要的工具。UV...

uv——Python开发栈中的高效全能小工具

每天写Python代码的同学,肯定都离不开pip、virtualenv、Poetry等基础工具,但是对这些工具可能是又恨又离不开。那么有什么好的替代呢,虫虫今天就给大家介绍一个替代他们的小工具uv,一...

使用Refurb让你的Python代码更加优秀

还在担心你写的Python代码是否专业,是否符合规范吗?这里介绍一个Python代码优化库Refurb,使用它可以给你的代码提出更加专业的建议,让你的代码更加的可读,规范和专业。下面简单介绍这个库的使...

【ai】dify+python开发AI八字排盘插件

Dify插件是什么?你可以将Dify插件想象成赋予AI应用增强感知和执行能力的模块化组件。它们使得将外部服务、自定义功能以及专用工具以”即插即用”的简洁方式集成到基于Dify构建的AI...

零基础AI开发系列教程:Dify升级指南

Dify近期发布很是频繁,基本两三天一个版本。值得肯定的是优化和改进了很多问题,但是官方的升级文档有点分散,也有点乱。我这里整理了一个升级文档供大家参考,如果还没有升级到新版本的小伙伴,可以按照我的文...

升级到PyTorch 2.0的技巧总结(如何更新pytorch版本)

来源:DeepHubIMBA本文约6400字,建议阅读12分钟在本文将演示PyTorch2.0新功能的使用,以及介绍在使用它时可能遇到的一些问题。PyTorch2.0发布也有一段时间了,大家...

dify 1.6.0版本发布解读:引入MCP支持与多项核心优化升级指南详解

2025年7月10日,dify发布了1.6.0版本。这是一次功能深度升级与性能优化的综合性更新,标志着dify在技术规范支持、操作体验以及系统稳定性方面迈出了重要的一步。本文将从核心新特性、功能增强、...

Python教程(十四):列表(List)(python列表方法总结)

昨天,我们学习了变量作用域,理解了局部和全局变量的概念。今天,我们将开始探索Python的数据结构,从最常用的**列表(List)**开始。列表是Python中最灵活、最常用的数据结构,它可以存储不同...

Python列表操作(python列表有哪些基本操作)

Python添加列表4分钟阅读在Python操作列表有各种方法。例如–简单地将一个列表的元素附加到for循环中另一个列表的尾部,或使用+/*运算符、列表推导、extend()和i...

Python字符串变形术:replace替换+join连接,10分钟掌握核心操作

字符串替换魔法:replace()实战手册核心价值:一键更新文本内容,精准控制替换范围#基础替换:Python变Javas="hellopython"print(s.re...

python集合set() 数据增册改查统计序循常用方法和数学计算

概念特点定义和创建常用操作集合间的关系集合数学操作集合生成式遍历概念:可变、无序、不重复的序列数据容器特点:无序,不支持下标唯一性,可以删除重复数据可修改定义和创建赋值法:语法:s={x,....

Python列表方法append和extend的区别

在Python编程中,列表是一种非常常用的数据结构。而列表有两个方法append()和extend(),它们看起来有点相似,但实际上有着明显的区别。今天咱们就来好好唠唠这俩方法到底有啥不同。基本区别a...

取消回复欢迎 发表评论: