百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python爬虫中requests下载插件常用方法汇总(一)

off999 2024-11-22 19:01 20 浏览 0 评论

最近在对先前写的爬虫框架进行升级,今天把下载部分使用的插件更新了一下,把原来的urllib.request换成了requests插件。 花了几个小时仔细的研究了一下requests的参数,目前初步整理一个工具类,代码如下:

import requests
from PIL import Image
from io import BytesIO
from com.fy.utils.http.UserAgentUtils import UserAgentUtils
from requests.exceptions import ReadTimeout, ConnectionError, RequestException
'''
    requests插件工具类;
'''
class RequestsPlugs:
    def __init__(self):
        self.uau = UserAgentUtils()
        #被正确编码后的请求网址的地址;
        self.requestUrl = None
        #服务器响应的内容
        self.requestText = None
        #获取二进制数据;以字节的方式访问请求响应体,对于非文本请求:
        self.requestContent = None
        #Requests 会自动解码来自服务器的内容。大多数 unicode 字符集都能被无缝地解码。
        self.htmlEncoding = None
        #响应状态码
        self.reponseStatusCode = None
        #请求的历史记录(以列表的形式显示)或者响应对象的 history 方法来追踪重定向
        self.reponseHistory = None
        #请求网址的headers所有信息
        self.reponseHeaders = None
        #请求网址的cookies信息
        self.reponseCookies = None
        ##如果response返回的状态码是非正常,则为False,否则为True
        self.isOk = False

    '''GET请求;;params格式:"{'key1': 'value1', 'key2': 'value2'}"
        timeout:单位秒;可以是小数。如0.5,表示500毫秒;
    '''
    def get(self, url, params  , headers , timeout  , deCode , proxies):
        headers = self.setUserAgent(headers)
        with requests.Session() as s:
            '''
              第一种:设置普通代理
                  如果需要使用【代理】,你可以通过为任意请求方法提供 proxies 参数来配置单个请求:
                proxies = {#设置普通代理
                  "http": "http://10.10.1.10:3128",
                  "https": "http://10.10.1.10:1080",
                }
              第二种:设置有用户名和密码的代理
                  若你的代理需要使用HTTP Basic Auth,可以使用 http://user:password@host/ 语法:
                proxies = {#设置用户名和密码代理
                    "http": "http://user:pass@10.10.1.10:3128/",
                }
              第三种:设置设置socks代理
                1:首先安装requests[socks]插件;
                    pip install requests[socks]
                proxies = {
                    'http': 'socks5://127.0.0.1:9742',
                    'https': 'socks5://127.0.0.1:9742'
                }
            '''
            try:
                r = s.get(url, params=params, proxies=proxies, headers=headers , timeout=timeout)
                self.handleResult(deCode, r)
            except ReadTimeout:
                print('Timeout')
            except ConnectionError:
                print('Connection error')
            except RequestException:
                print('Error')

    #POST请求;params格式:"{'key1': 'value1', 'key2': 'value2'}"
    def post(self, url, params , headers , timeout, deCode, proxies):
        headers = self.setUserAgent(headers)
        with requests.Session() as s:
            r = s.post(url, params=params, proxies=proxies, headers=headers , timeout=timeout)
            self.handleResult(deCode, r)

    def handleResult(self, deCode, r):
        #设置编码
        if deCode != None and len(deCode) > 1:r.encoding = deCode
        #被正确编码后的请求网址的地址;
        self.requestUrl = r.url
        #服务器响应的内容
        self.requestText = r.text
        #你也能以字节的方式访问请求响应体,对于非文本请求:
        self.requestContent = r.content
        #Requests 会自动解码来自服务器的内容。大多数 unicode 字符集都能被无缝地解码。
        self.htmlEncoding = r.encoding
        #响应状态码
        self.reponseStatusCode = r.status_code
        #请求网址的headers所有信息
        self.reponseHeaders = r.headers
        #请求网址的cookies信息
        self.reponseCookies = r.cookies
        '''
               可以使用响应对象的 history 方法来追踪重定向。
            Response.history 是一个 Response 对象的列表,为了完成请求而创建了这些对象。这个对象列表按照从最老到最近的请求进行排序。
        '''
        #请求的历史记录(以列表的形式显示)或者响应对象的 history 方法来追踪重定向
        self.reponseHistory = r.history

        self.isOk = (r.status_code == requests.codes.ok)

    #以请求返回的二进制数据创建一张图片;
    def toImage(self, url, params , headers , timeout, proxies, imageFilePath):
        headers = self.setUserAgent(headers)
        with requests.Session() as s:
            r = s.get(url, params=params, headers=headers, timeout=timeout, proxies=proxies)
            i = Image.open(BytesIO(r.content))
            #quality参数: 保存图像的质量,值的范围从1(最差)到95(最佳)。 默认值为75,使用中应尽量避免高于95的值; 100会禁用部分JPEG压缩算法,并导致大文件图像质量几乎没有任何增益。
            i.save(imageFilePath, quality=95)

    #Requests 中也有一个内置的 JSON 解码器,助你处理 JSON 数据:
    def toJson(self, url, params , headers , timeout, deCode, proxies):
        headers = self.setUserAgent(headers)
        with requests.Session() as s:
            r = s.get(url, params=params, headers=headers, timeout=timeout, proxies=proxies)
            #设置编码
            if deCode != None and len(deCode) > 1:r.encoding = deCode
            '''如果 JSON 解码失败, r.json() 就会抛出一个异常。例如,响应内容是 401 (Unauthorized),尝试访问 r.json() 将会抛出 ValueError: No JSON object could be decoded 异常。
                  需要注意的是,成功调用 r.json() 并**不**意味着响应的成功。有的服务器会在失败的响应中包含一个 JSON 对象(比如 HTTP 500 的错误细节)。这种 JSON 会被解码返回。要检查请求是否成功,请使用 r.raise_for_status() 或者检查 r.status_code 是否和你的期望相同。
            '''
            self.requestText = r.json()

    #设置user-agent参数;
    def setUserAgent(self, headers):
        if headers == None:headers = {}
        headers['User-Agent'] = self.uau.getheaders()
        return headers

    #获取cookie集合;
    def getCookie(self):
        cookie = {}
        for key, value in self.reponseCookies.items():
            cookie[key] = value

    #文件上传
    def upload(self, url, params , headers , timeout, proxies, filePath):
        headers = self.setUserAgent(headers)
        with requests.Session() as s:
            files = {"files":open(filePath, "rb")}
            s.post(url, params=params, headers=headers, timeout=timeout, proxies=proxies, files=files)
            self.requestText = s.text

这是今天初步整理的,后续会继续对其进行更详细整理,希望对大家有帮助。

相关阅读:

爬虫工程师,如何高效的支持数据分析人员的工作?

一套价值十万的微信公众号采集解决方案(免费送)

数据采集中,如何建立一套行之有效的监控体系?

基于大数据平台的互联网数据采集平台基本架构

相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: