百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python爬虫入门之爬取图片

off999 2024-12-03 00:10 19 浏览 0 评论

一、基本概念

  1. 通用爬虫和聚焦爬虫

通用网络爬虫 是 捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。

聚焦爬虫,是"面向特定主题需求"的一种网络爬虫程序,它与通用搜索引擎爬虫的区别在于: 聚焦爬虫在实施网页抓取时会对内容进行处理筛选,尽量保证只抓取与需求相关的网页信息。

  1. HTTP和HTTPS请求

(1)url : 浏览器地址栏的地址

(2)请求方法:一般就两种。get请求和post请求

(3)请求头:常用 User-Agent:是客户浏览器的名称

  1. 抓包工具

浏览器的检查,常用有两个模块ElementsNetwork

二、数据请求

主要用的是Python的第三方库requests库,pip install requests 可以安装。

1、最简单的发送get请求就是通过requests.get来调用:(模拟浏览器的get请求)

response = requests.get("http://www.baidu.com/")

2、添加headers和查询参数

 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

 response = requests.get("http://www.baidu.com/s", headers = headers)

3、对响应进行处理

# 查看响应内容,response.content返回的字节流数据
response.content
# 对字节流数据解码
response.content.decode("utf-8")  # 等价于response.text
response.content.decode("gbk")

 # 查看响应内容,response.text 返回的是Unicode格式的数据
response.text


三、数据提取

1、常用提取方式

常用的有三种提取方式。css选择器、xpath语法、正则表达式。

学习难度前两者相似,最后一个较高;但效率从低到高。

2、xpath和lxml库

(1)lxml库, C 语言实现的,是一款高性能的 Python HTML/XML 解析器,之后可以XPath语法,来快速的定位特定元素以及节点信息

(2)xpath常用语法:

 // 从当前标签下任意位置匹配
../ 从当前标签的父级开始匹配
./ 从当前标签开始匹配
/text() 表示从当前标签下匹配所有文本内容
/@name 表示匹配当前标签下的属性的value
[] 中括号中可以写过滤的条件(支持and、or语法),也可以写数组下标(从1开始)
/div[@class="classname"] 表示匹配当前标签下所有class为classname的div对象
/div[contains(@class,"classname")] 表示匹配当前标签下所有class包含classname的div对象

四、保存数据

# 保存图片数据
from urllib import request
request.urlretrieve('http://img.netbian.com/file/2020/1008/9c76cd345cd49c9675dc65f696871a66.jpg','xxx.jpg')

五、爬取彼岸桌面网所有美女图片(1080P高清图)

1、网站截图(177页,每页十几张图片)



2、成果截图



3、最终代码

# 爬取多页
import requests  # 用于模拟浏览器发送请求的库
from lxml import etree   # 解析响应内容的库,构建树结构,便于xpath语法索引
from urllib import request   # 下载图片时用到

headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 11_1_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36"}

# 此处控制要爬取的页码总数,网站目前共有177页,所以此处最大写178
for page in range(1, 11):
		# 第一页是这种url:http://www.netbian.com/meinv/,
		# 其他页都是http://www.netbian.com/meinv/index_%d.htm的形式
    if page == 1:
        page_url = "http://www.netbian.com/meinv/"
    else:
        page_url = "http://www.netbian.com/meinv/index_%d.htm" % page
    # 网站的charset=“gbk”
    html = requests.get(page_url, headers=headers).content.decode("gbk")

    # 利用lxml的etree.HTML解析html,构建树结构
    tree = etree.HTML(html)
    # 利用xpath语法提取当前缩略图下图片的url
    data = tree.xpath('//div[@class="list"]')[0]
    hrefs = data.xpath('//li/a/@href')  # [/desk/xxxxx.htm,/desk/xxxxx.htm]形式
		
		# 遍历所有的缩略图url
    for href in hrefs:
        if href.startswith("/desk"):
        		# 拼接完整的缩略图url地址
            url = "http://www.netbian.com" + href
						# 请求缩略图url地址,之后解析得到1080P图片地址
            picture_html = requests.get(url, headers = headers).content.decode('gbk')
            picture_tree = etree.HTML(picture_html)
            # url2 = picture_tree.xpath('//td/a/@href')
            url2 = picture_tree.xpath('//div[@class="pic"]//img/@src')[0]
						
						# 定义图片名称,下载图片
            filename = url2.split("/")[-1]
            request.urlretrieve(url2, filename)

六、总结

1、学完这些你基本掌握了爬虫的基础流程,利用requests库模拟浏览器发送请求,对服务器返回内容进行解码。之后运用lxml库构建解析树,利用xpath语法提取树中的关键信息节点,最后保存到本地。本案例学完后你基本可以爬取绝大部分网站的图片了。

相关推荐

让 Python 代码飙升330倍:从入门到精通的四种性能优化实践

花下猫语:性能优化是每个程序员的必修课,但你是否想过,除了更换算法,还有哪些“大招”?这篇文章堪称典范,它将一个普通的函数,通过四套组合拳,硬生生把性能提升了330倍!作者不仅展示了“术”,更传授...

7 段不到 50 行的 Python 脚本,解决 7 个真实麻烦:代码、场景与可复制

“本文整理自开发者AbdurRahman在Stackademic的真实记录,所有代码均经过最小化删减,确保在50行内即可运行。每段脚本都对应一个日常场景,拿来即用,无需额外依赖。一、在朋...

Python3.14:终于摆脱了GIL的限制

前言Python中最遭人诟病的设计之一就是GIL。GIL(全局解释器锁)是CPython的一个互斥锁,确保任何时刻只有一个线程可以执行Python字节码,这样可以避免多个线程同时操作内部数据结...

Python Web开发实战:3小时从零搭建个人博客

一、为什么选Python做Web开发?Python在Web领域的优势很突出:o开发快:Django、Flask这些框架把常用功能都封装好了,不用重复写代码,能快速把想法变成能用的产品o需求多:行业...

图解Python编程:从入门到精通系列教程(附全套速查表)

引言本系列教程展开讲解Python编程语言,Python是一门开源免费、通用型的脚本编程语言,它上手简单,功能强大,它也是互联网最热门的编程语言之一。Python生态丰富,库(模块)极其丰富,这使...

Python 并发编程实战:从基础到实战应用

并发编程是提升Python程序效率的关键技能,尤其在处理多任务场景时作用显著。本文将系统介绍Python中主流的并发实现方式,帮助你根据场景选择最优方案。一、多线程编程(threading)核...

吴恩达亲自授课,适合初学者的Python编程课程上线

吴恩达教授开新课了,还是亲自授课!今天,人工智能著名学者、斯坦福大学教授吴恩达在社交平台X上发帖介绍了一门新课程——AIPythonforBeginners,旨在从头开始讲授Python...

Python GUI 编程:tkinter 初学者入门指南——Ttk 小部件

在本文中,将介绍Tkinter.ttk主题小部件,是常规Tkinter小部件的升级版本。Tkinter有两种小部件:经典小部件、主题小部件。Tkinter于1991年推出了经典小部件,...

Python turtle模块编程实践教程

一、模块概述与核心概念1.1turtle模块简介定义:turtle是Python标准库中的2D绘图模块,基于Logo语言的海龟绘图理念实现。核心原理:坐标系系统:原点(0,0)位于画布中心X轴:向右...

Python 中的asyncio 编程入门示例-1

Python的asyncio库是用于编写并发代码的,它使用async/await语法。它为编写异步程序提供了基础,通过非阻塞调用高效处理I/O密集型操作,适用于涉及网络连接、文件I/O...

30天学会Python,开启编程新世界

在当今这个数字化无处不在的时代,Python凭借其精炼的语法架构、卓越的性能以及多元化的应用领域,稳坐编程语言排行榜的前列。无论是投身于数据分析、人工智能的探索,还是Web开发的构建,亦或是自动化办公...

Python基础知识(IO编程)

1.文件读写读写文件是Python语言最常见的IO操作。通过数据盘读写文件的功能都是由操作系统提供的,读写文件就是请求操作系统打开一个文件对象(通常称为文件描述符),然后,通过操作系统提供的接口从这个...

Python零基础到精通,这8个入门技巧让你少走弯路,7天速通编程!

Python学习就像玩积木,从最基础的块开始,一步步搭建出复杂的作品。我记得刚开始学Python时也是一头雾水,走了不少弯路。现在回头看,其实掌握几个核心概念,就能快速入门这门编程语言。来聊聊怎么用最...

一文带你了解Python Socket 编程

大家好,我是皮皮。前言Socket又称为套接字,它是所有网络通信的基础。网络通信其实就是进程间的通信,Socket主要是使用IP地址,协议,端口号来标识一个进程。端口号的范围为0~65535(用户端口...

Python-面向对象编程入门

面向对象编程是一种非常流行的编程范式(programmingparadigm),所谓编程范式就是程序设计的方法论,简单的说就是程序员对程序的认知和理解以及他们编写代码的方式。类和对象面向对象编程:把...

取消回复欢迎 发表评论: