百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python除了做爬虫抓数据还能做什么?其实还能监视和衡量网站性能

off999 2025-05-14 15:47 15 浏览 0 评论

  借助这份对初学者友好的指南,您可以构建自己的自定义Python脚本来自动测量网站的关键速度和性能指标。


  在过去的一个月中,Google宣布了许多通过关键速度和性能指标来衡量用户体验的方法。

  巧合的是,我一直在努力编写一个Python脚本,该脚本使用Google PageSpeed Insights(PSI)API一次收集多个页面的指标,而无需为每个单独的URL运行测试。

  收到Google的公告后,我认为现在是共享它的绝佳时机,并解释了如何创建对初学者友好的Python脚本。

  关于脚本的最好的事情是,一旦建立了基础,就可以提取许多不同的指标,这些指标可以在页面速度测试以及Lighthouse分析中找到。

网络重要指标简介

  5月初,Google推出了Core Web Vitals,它是其关键Web Vitals指标的一部分。

  这些指标用于提供有关网站上用户体验质量的指导。

  Google将其描述为“帮助量化您的网站体验并确定改进机会”的一种方式,进一步强调了它们向关注用户体验的转变。

  核心网络生命力是真实的,以用户为中心的指标,用于衡量用户体验的关键方面。加载时间,互动性和稳定性。

  除此之外,Google 上周宣布,他们将引入一个新的搜索排名信号,它将这些指标与现有页面体验信号(例如移动设备友好性和HTTPS安全性)结合在一起,以确保它们继续为高质量网站提供服务给用户。

监控性能指标

  预计此更新将于2021年推出,Google已确认不需要立即采取行动。

  但是,为了帮助我们为这些更改做准备,他们更新了用于测量页面速度的工具,包括PSI,Google Lighthouse和Google Search Console Speed Report。

Pagespeed Insights API从何入手?

  Google的PageSpeed Insights是查看网页效果摘要的有用工具,它使用现场数据和实验室数据来生成结果。

  这是获得少数URL概述的好方法,因为它是逐页使用的。

  但是,如果您在大型站点上工作,并且希望获得大规模的见解,那么该API可以有利于一次分析多个页面,而无需单独插入URL。

用于衡量性能的Python脚本

  我创建了以下Python脚本来大规模度量关键性能指标,以节省手动测试每个URL所花费的时间。

  该脚本使用Python将请求发送到Google PSI API,以收集和提取在PSI和Lighthouse中显示的指标。

  我决定在Google Colab中编写此脚本,因为这是开始编写Python并允许轻松共享的好方法,因此本文将使用Google Colab贯穿整个安装过程。

  但是,它也可以在本地运行,对数据的上传和下载进行一些调整。

  请务必注意,某些步骤可能需要一些时间才能完成,尤其是当每个URL通过API运行时,为了不使请求过载。

  因此,您可以在后台运行脚本,并在完成步骤后返回到脚本。

  让我们逐步介绍启动和运行此脚本所需的步骤。

步骤1:安装所需的软件包

  在开始编写任何代码之前,我们需要安装一些Python程序包,然后才能使用该脚本。这些使用导入功能很容易安装。

我们需要的软件包是:

  • urllib:用于处理,打开,阅读和解析URL。
  • json:允许您将JSON文件转换为Python或将Python文件转换为JSON。
  • request:一个HTTP库,用于发送各种HTTP请求。
  • pandas:主要用于数据分析和处理,我们正在使用它来创建DataFrames。
  • time:一个用于处理时间的模块,我们正在使用它在请求之间提供时间间隔。
  • 文件:通过Google Colab,您可以上传和下载文件。
  • io:用于访问文件的默认接口。
# Import required packages 
import json
import requests
import pandas as pd
import urllib
import time
from google.colab import files
import io 

第2步:设置API请求

  下一步是设置API请求。完整的说明可以在这里找到,但是从本质上讲,该命令将如下所示:

https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={yourURL}/&strategy=mobile/&key={yourAPIKey}

  这将允许您附加URL,策略(台式机或移动设备)和API密钥。

  要在Python中使用它,我们将使用urllib请求库urllib.request.urlopen并将其添加到名为result的变量中,以便我们可以存储结果并在脚本中再次使用它们。

# Define URL  
url = 'https://www.example.co.uk'

# API request url
result = urllib.request.urlopen('https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={}/&strategy=mobile'\
.format(url)).read().decode('UTF-8')

print(result)

步骤3:测试API

  为了测试API的正确设置以及对测试过程中生成的内容的理解,我使用简单的urllib.request方法通过API运行了一个URL。

  完成此操作后,我将结果转换为json文件并下载了它,以便查看结果。

# Convert to json format
result_json = json.loads(result)

print(result_json)

with open('result.json', 'w') as outfile:
  json.dump(result_json, outfile)

files.download('result.json')

(请注意,此方法用于在Google Colab中转换和下载JSON文件。)

步骤4:读取JSON档案

  JSON文件显示字段数据(存储在loadingExperience下)和实验室数据(可以在lighthouseResult下找到)。

  为了提取所需的指标,我们可以利用JSON文件的格式,因为我们能够看到每个部分下面的指标。

第5步:上传CSV并存储为Pandas数据框

  下一步是上传我们要通过PSI API运行的URL的CSV文件。您可以通过抓取工具(例如DeepCrawl)生成站点URL的列表。

  当我们使用API时,建议您在此处使用较小的URL示例集,尤其是在您拥有大型站点的情况下。

  例如,您可以使用访问量最高的页面或产生最大收入的页面。另外,如果您的站点有模板,则非常适合测试其中的模板。

  您还可以在此处添加column-header变量,我们将在遍历列表时使用该变量。确保此名称与您上传的CSV文件中的列标题名称匹配:

uploaded = files.upload()
#if your column header is something other than 'url' please define it here 
column_header='url'

(请注意,此方法用于在Google Colab中上传CSV文件。)

  将其上传后,我们将使用Pandas库将CSV转换为DataFrame,我们可以在以下步骤中进行迭代。

# Get the filename from the upload so we can read it into a CSV.
for key in uploaded.keys():
  filename = key
# Read the selected file into a Pandas Dataframe
df = pd.read_csv(io.BytesIO(uploaded[filename]))

df.head()

  DataFrame看起来像这样,从零索引开始。

步骤6:将结果保存到响应对象

  下一步涉及使用for循环来迭代刚刚通过PSI API创建的URL的DataFrame。

  for循环使我们可以遍历上载的列表并为每个项目执行命令。然后,我们可以将结果保存到响应对象中,并将其转换为JSON文件。

response_object = {}

# Iterate through the df
for x in range(0, len(df)):

        # Define request parameter
        url = df.iloc[x][column_header]

        # Make request
        pagespeed_results = urllib.request.urlopen('https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={}&strategy=mobile'.format(url)).read().decode('UTF-8')

        # Convert to json format
        pagespeed_results_json = json.loads(pagespeed_results)

        # Insert returned json response into response_object
        response_object[url] = pagespeed_results_json
        time.sleep(30)
        
        print(response_object[url])

  我们将在此处使用范围内的x,它表示循环中正在运行的URL,以及(0,len)允许循环遍历DataFrame中的所有URL,无论包含多少个URL 。

  该响应对象防止通过重写相互循环,你的网址,使我们能够保存数据以备将来使用。

  这也是在将其转换为JSON文件之前,将使用列标题变量定义URL请求参数的地方。

  我还将此处的睡眠时间设置为30秒,以减少连续进行的API调用次数。

  另外,如果您希望更快地提出请求,则可以在URL命令的末尾附加一个API密钥。

  缩进在这里也很重要,因为每个步骤都是for循环的一部分,因此必须在命令中缩进它们。

步骤7:创建一个数据框来存储响应

  我们还需要创建一个DataFrame来存储我们要从响应对象中提取的指标。

  DataFrame是类似于表的数据结构,具有存储数据的列和行。我们只需要为每个指标添加一列并适当地命名它,如下所示:

# Create dataframe to store responses
df_pagespeed_results = pd.DataFrame(columns=
          ['url',
          'Overall_Category',
          'Largest_Contentful_Paint',
          'First_Input_Delay',
          'Cumulative_Layout_Shift',
          'First_Contentful_Paint',
          'Time_to_Interactive',
          'Total_Blocking_Time',
          'Speed_Index'])  

print(df_pagespeed_results)

  出于此脚本的目的,我使用了Core Web Vital指标以及当前Lighthouse版本中使用的其他负载和交互性指标。

  这些指标各自具有不同的权重,然后将它们用于总体绩效得分:

  • LCP
  • FID
  • CLS
  • FCP
  • TTI
  • TBT

  您可以在上方链接的各个目标网页上找到有关每个指标的更多信息以及如何解释分数的信息。

  我还选择包括速度指数和整体类别,这些类别将提供慢速,平均或快速得分。

步骤8:从响应对象中提取指标

  保存响应对象后,我们现在可以对其进行过滤并仅提取所需的指标。

  在这里,我们将再次使用for循环遍历响应对象文件,并设置一系列列表索引以仅返回特定指标。

  为此,我们将从DataFrame中定义列名称,以及为每个URL从中提取每个指标的响应对象的特定类别。

for (url, x) in zip(
    response_object.keys(),
    range(0, len(response_object))
):

        # URLs
        df_pagespeed_results.loc[x, 'url'] =\
            response_object[url]['lighthouseResult']['finalUrl']

        # Overall Category
        df_pagespeed_results.loc[x, 'Overall_Category'] =\
            response_object[url]['loadingExperience']['overall_category']   

        # Core Web Vitals     

        # Largest Contentful Paint    
        df_pagespeed_results.loc[x, 'Largest_Contentful_Paint'] =\
        response_object[url]['lighthouseResult']['audits']['largest-contentful-paint']['displayValue']

        # First Input Delay 
        fid = response_object[url]['loadingExperience']['metrics']['FIRST_INPUT_DELAY_MS']
        df_pagespeed_results.loc[x, 'First_Input_Delay'] = fid['percentile']

        # Cumulative Layout Shift    
        df_pagespeed_results.loc[x, 'Cumulative_Layout_Shift'] =\
        response_object[url]['lighthouseResult']['audits']['cumulative-layout-shift']['displayValue']

        # Additional Loading Metrics 

        # First Contentful Paint 
        df_pagespeed_results.loc[x, 'First_Contentful_Paint'] =\
        response_object[url]['lighthouseResult']['audits']['first-contentful-paint']['displayValue']

        # Additional Interactivity Metrics 

        # Time to Interactive  
        df_pagespeed_results.loc[x, 'Time_to_Interactive'] =\
        response_object[url]['lighthouseResult']['audits']['interactive']['displayValue']

        # Total Blocking Time   
        df_pagespeed_results.loc[x, 'Total_Blocking_Time'] =\
        response_object[url]['lighthouseResult']['audits']['total-blocking-time']['displayValue']

        # Speed Index
        df_pagespeed_results.loc[x, 'Speed_Index'] =\
        response_object[url]['lighthouseResult']['audits']['speed-index']['displayValue']

  我已将此脚本设置为提取上面提到的关键指标,因此您可以立即使用它来收集此数据。

  但是,可以提取在PSI测试以及Lighthouse分析中都可以找到的许多其他有用指标。

  在此JSON文件可用于查看每个指标在列表中的位置。

  例如,在从Lighthouse审核中提取指标(例如“互动时间”的显示值)时,将使用以下内容:

df_pagespeed_results.loc[x, 'Time_to_Interactive'] =\
response_object[url]['lighthouseResult']['audits']['interactive']['displayValue']

  再一次,重要的是要确保每一个都位于循环中,否则它们将不会包含在迭代中,并且只会为一个URL生成一个结果。

步骤9:将DataFrame转换为CSV文件

  最后一步是创建一个摘要文件以收集所有结果,因此我们可以将其转换为易于分析的格式,例如CSV文件。

summary = df_pagespeed_results

df_pagespeed_results.head()

#Download csv file 
summary.to_csv('pagespeed_results.csv')
files.download('pagespeed_results.csv')

(请注意,此方法用于在Google Colab中转换和下载CSV文件。)

进一步探索数据

  目前,我们导出的所有指标都存储为字符串,这是用于文本和字符的Python数据类型。

  由于我们提取的某些指标实际上是数字值,因此您可能希望将字符串转换为数字数据类型,例如整数和浮点数。

  整数,也称为int,是整数的数据类型,例如1和10。

  浮点数,也称为浮点数,是十进制点数,例如1.0和10.1。

  为了将字符串转换为数字,我们需要执行两个步骤,第一步是将's'字符(用于表示秒)替换为空格。

  我们通过在每列上使用.str.replace方法来执行此操作。

#Replace the 's' with a blank space so we can turn into numbers
df_pagespeed_results['Largest_Contentful_Paint'] = df_pagespeed_results.Largest_Contentful_Paint.str.replace('s', '')
df_pagespeed_results['First_Contentful_Paint'] = df_pagespeed_results.First_Contentful_Paint.str.replace('s', '')
df_pagespeed_results['Time_to_Interactive'] = df_pagespeed_results.Time_to_Interactive.str.replace('s', '')
df_pagespeed_results['Total_Blocking_Time'] = df_pagespeed_results.Total_Blocking_Time.str.replace('ms', '')
df_pagespeed_results['Speed_Index'] = df_pagespeed_results.Speed_Index.str.replace('s', '')

  然后,我们将使用.astype()方法将字符串转换为整数或浮点数:

#Turn strings into intergers or floats
df_pagespeed_results['Largest_Contentful_Paint'] = df_pagespeed_results.Largest_Contentful_Paint.astype(float)
df_pagespeed_results['Cumulative_Layout_Shift'] = df_pagespeed_results.Cumulative_Layout_Shift.astype(int)
df_pagespeed_results['First_Contentful_Paint'] = df_pagespeed_results.First_Contentful_Paint.astype(float)
df_pagespeed_results['Time_to_Interactive'] = df_pagespeed_results.Time_to_Interactive.astype(float)
df_pagespeed_results['Speed_Index'] = df_pagespeed_results.Speed_Index.astype(float)

  完成此操作后,您可以使用多种不同的方法进一步评估数据。

  例如,您可以使用数据可视化库(例如matplotlib或seaborn)来可视化指标,以及测量指标如何随时间变化并将结果分组为慢速,中速和快速存储桶。

  由于我们已经介绍了很多内容,因此我不会在本文中介绍这些内容,但是如果您想了解更多信息,请随时与我们联系。

结论

  该脚本最终帮助我测量了一组URL的关键页面速度和性能指标,并可视化了结果以识别需要改进的页面。

  它还允许您随时间监视结果并量化已进行的改进。

  我还创建了一个脚本来专门测量三个核心Web Vitals的百分比和类别。

  我希望这对希望自动化其性能测试并进一步探索PSI API的人有所帮助。

  请随时保存此Colab文件的副本,并使用它来帮助测量和监视您的页面速度,或者按照自己的步骤进行操作。您可以在此处访问我在本文中分享的所有代码段。

相关推荐

让 Python 代码飙升330倍:从入门到精通的四种性能优化实践

花下猫语:性能优化是每个程序员的必修课,但你是否想过,除了更换算法,还有哪些“大招”?这篇文章堪称典范,它将一个普通的函数,通过四套组合拳,硬生生把性能提升了330倍!作者不仅展示了“术”,更传授...

7 段不到 50 行的 Python 脚本,解决 7 个真实麻烦:代码、场景与可复制

“本文整理自开发者AbdurRahman在Stackademic的真实记录,所有代码均经过最小化删减,确保在50行内即可运行。每段脚本都对应一个日常场景,拿来即用,无需额外依赖。一、在朋...

Python3.14:终于摆脱了GIL的限制

前言Python中最遭人诟病的设计之一就是GIL。GIL(全局解释器锁)是CPython的一个互斥锁,确保任何时刻只有一个线程可以执行Python字节码,这样可以避免多个线程同时操作内部数据结...

Python Web开发实战:3小时从零搭建个人博客

一、为什么选Python做Web开发?Python在Web领域的优势很突出:o开发快:Django、Flask这些框架把常用功能都封装好了,不用重复写代码,能快速把想法变成能用的产品o需求多:行业...

图解Python编程:从入门到精通系列教程(附全套速查表)

引言本系列教程展开讲解Python编程语言,Python是一门开源免费、通用型的脚本编程语言,它上手简单,功能强大,它也是互联网最热门的编程语言之一。Python生态丰富,库(模块)极其丰富,这使...

Python 并发编程实战:从基础到实战应用

并发编程是提升Python程序效率的关键技能,尤其在处理多任务场景时作用显著。本文将系统介绍Python中主流的并发实现方式,帮助你根据场景选择最优方案。一、多线程编程(threading)核...

吴恩达亲自授课,适合初学者的Python编程课程上线

吴恩达教授开新课了,还是亲自授课!今天,人工智能著名学者、斯坦福大学教授吴恩达在社交平台X上发帖介绍了一门新课程——AIPythonforBeginners,旨在从头开始讲授Python...

Python GUI 编程:tkinter 初学者入门指南——Ttk 小部件

在本文中,将介绍Tkinter.ttk主题小部件,是常规Tkinter小部件的升级版本。Tkinter有两种小部件:经典小部件、主题小部件。Tkinter于1991年推出了经典小部件,...

Python turtle模块编程实践教程

一、模块概述与核心概念1.1turtle模块简介定义:turtle是Python标准库中的2D绘图模块,基于Logo语言的海龟绘图理念实现。核心原理:坐标系系统:原点(0,0)位于画布中心X轴:向右...

Python 中的asyncio 编程入门示例-1

Python的asyncio库是用于编写并发代码的,它使用async/await语法。它为编写异步程序提供了基础,通过非阻塞调用高效处理I/O密集型操作,适用于涉及网络连接、文件I/O...

30天学会Python,开启编程新世界

在当今这个数字化无处不在的时代,Python凭借其精炼的语法架构、卓越的性能以及多元化的应用领域,稳坐编程语言排行榜的前列。无论是投身于数据分析、人工智能的探索,还是Web开发的构建,亦或是自动化办公...

Python基础知识(IO编程)

1.文件读写读写文件是Python语言最常见的IO操作。通过数据盘读写文件的功能都是由操作系统提供的,读写文件就是请求操作系统打开一个文件对象(通常称为文件描述符),然后,通过操作系统提供的接口从这个...

Python零基础到精通,这8个入门技巧让你少走弯路,7天速通编程!

Python学习就像玩积木,从最基础的块开始,一步步搭建出复杂的作品。我记得刚开始学Python时也是一头雾水,走了不少弯路。现在回头看,其实掌握几个核心概念,就能快速入门这门编程语言。来聊聊怎么用最...

一文带你了解Python Socket 编程

大家好,我是皮皮。前言Socket又称为套接字,它是所有网络通信的基础。网络通信其实就是进程间的通信,Socket主要是使用IP地址,协议,端口号来标识一个进程。端口号的范围为0~65535(用户端口...

Python-面向对象编程入门

面向对象编程是一种非常流行的编程范式(programmingparadigm),所谓编程范式就是程序设计的方法论,简单的说就是程序员对程序的认知和理解以及他们编写代码的方式。类和对象面向对象编程:把...

取消回复欢迎 发表评论: