记一次 Python Web 接口优化(python web ui)
off999 2024-10-17 11:46 54 浏览 0 评论
优质文章,第一时间送达!
作者:Lin_R
出处:SegmentFault
背景
我们负责的一个业务平台,有次在发现设置页面的加载特别特别地慢,简直就是令人发指
让用户等待 36s 肯定是不可能的,于是我们就要开启优化之旅了。
投石问路
既然是网站的响应问题,可以通过 Chrome 这个强大的工具帮助我们快速找到优化方向。
通过 Chrome 的 Network 除了可以看到接口请求耗时之外,还能看到一个时间的分配情况,选择一个配置没有那么多的项目,简单请求看看:
虽然只是一个只有三条记录的项目,加载项目设置都需要 17s,通过 Timing, 可以看到总的请求共耗时 17.67s,但有17.57s是在 Waiting(TTFB) 状态。
TTFB 是 Time to First Byte 的缩写,指的是浏览器开始收到服务器响应数据的时间(后台处理时间+重定向时间),是反映服务端响应速度的重要指标。
Profile 火焰图 + 代码调优
那么大概可以知道优化的大方向是在后端接口处理上面,后端代码是 Python + Flask 实现的,先不盲猜,直接上 Profile:
第一波优化:功能交互重新设计
说实话看到这段代码是绝望的:完全看不出什么?只是看到很多 gevent 和 Threading,因为太多协程或者线程?
这时候一定要结合代码来分析(为了简短篇幅,参数部分用 “...” 代替):
?def get_max_cpus(project_code, gids): """ """ ... # 再定义一个获取 cpu 的函数 def get_max_cpu(project_setting, gid, token, headers): group_with_machines = utils.get_groups(...) hostnames = get_info_from_machines_info(...) res = fetchers.MonitorAPIFetcher.get(...) vals = [ round(100 - val, 4) for ts, val in res['series'][0]['data'] if not utils.is_nan(val) ] max_val = max(vals) if vals else float('nan') max_cpus[gid] = max_val # 启动线程批量请求 for gid in gids: t = Thread(target=get_max_cpu, args=(...)) threads.append(t) t.start # 回收线程 for t in threads: t.join return max_cpus
通过代码可以看到,为了更加快速获取 gids所有的cpu_max数据,为每个 gid 分配一个线程去请求,最终再返回最大值。
这里会出现两个问题:
- 在一个 web api 做线程的 创建 和 销毁是有很大成本的,因为接口会频繁被触发,线程的操作也会频繁发生,应该尽可能使用线程池之类的,降低系统花销;
- 该请求是加载某个 gid (群组) 下面的机器过去 7 天的 CPU 最大值,可以简单拍脑袋想下,这个值不是实时值也不是一个均值,而是一个最大值,很多时候可能并没有想象中那么大价值;
既然知道问题,那就有针对性的方案:
- 调整功能设计,不再默认加载 CPU 最大值,换成用户点击加载(一来降低并发的可能,二来不会影响整体);
- 因为 1 的调整,去掉多线程实现;
再看第一波优化后的火焰图:
这次看的火焰图虽然还有很大的优化空间,但起码看起来有点正常的样子了。
第二波优化:Mysql 操作优化处理
我们再从页面标记处(接口逻辑处)放大火焰图观察:
看到好大一片操作都是由 utils.py:get_group_profile_settings这个函数引起的数据库操作热点。
同理,也是需要通过代码分析:
def get_group_profile_settings(project_code, gids): # 获取 Mysql ORM 操作对象 ProfileSetting = unpurview(sandman.endpoint_class('profile_settings')) session = get_postman_session profile_settings = {} for gid in gids: compound_name = project_code + ':' + gid result = session.query(ProfileSetting).filter( ProfileSetting.name == compound_name ).first if result: result = result.as_dict tag_indexes = result.get('tag_indexes') profile_settings[gid] = { 'tag_indexes': tag_indexes, 'interval': result['interval'], 'status': result['status'], 'profile_machines': result['profile_machines'], 'thread_settings': result['thread_settings'] } ...(省略) return profile_settings
看到 Mysql ,第一个反应就是 索引问题,所以优先去看看数据库的索引情况,如果有索引的话应该不会是瓶颈:
很奇怪这里明明已经有了索引了,为什么速度还是这个鬼样子呢!
正当毫无头绪的时候,突然想起在 第一波优化的时候, 发现 gid(群组)越多的影响越明显,然后看回上面的代码,看到那句:
for gid in gids: ...
我仿佛明白了什么。
这里是每个 gid 都去查询一次数据库,而项目经常有 20 ~ 50+ 个群组,那肯定直接爆炸了。
其实 Mysql 是支持单字段多值的查询,而且每条记录并没有太多的数据,我可以尝试下用 Mysql 的 OR 语法,除了避免多次网络请求,还能避开那该死的 for
正当我想事不宜迟直接搞起的时候,余光瞥见在刚才的代码还有一个地方可以优化,那就是:
看到这里,熟悉的朋友大概会明白是怎么回事。
GetAttr这个方法是Python 获取对象的方法/属性时候会用到,虽然不可不用,但是如果在使用太过频繁也会有一定的性能损耗。
结合代码一起来看:
def get_group_profile_settings(project_code, gids): # 获取 Mysql ORM 操作对象 ProfileSetting = unpurview(sandman.endpoint_class('profile_settings')) session = get_postman_session profile_settings = {} for gid in gids: compound_name = project_code + ':' + gid result = session.query(ProfileSetting).filter( ProfileSetting.name == compound_name ).first ...
在这个遍历很多次的 for里面,session.query(ProfileSetting)被反复无效执行了,然后filter这个属性方法也被频繁读取和执行,所以这里也可以被优化。
总结下的问题就是:
1. 数据库的查询没有批量查询; 2. ORM 的对象太多重复的生成,导致性能损耗; 3. 属性读取后没有复用,导致在遍历次数较大的循环体内频繁 getAttr,成本被放大;
那么对症下药就是:
def get_group_profile_settings(project_code, gids): # 获取 Mysql ORM 操作对象 ProfileSetting = unpurview(sandman.endpoint_class('profile_settings')) session = get_postman_session # 批量查询 并将 filter 提到循环之外 query_results = query_instance.filter( ProfileSetting.name.in_(project_code + ':' + gid for gid in gids) ).all # 对全部的查询结果再单条处理 profile_settings = {} for result in query_results: if not result: continue result = result.as_dict gid = result['name'].split(':')[1] tag_indexes = result.get('tag_indexes') profile_settings[gid] = { 'tag_indexes': tag_indexes, 'interval': result['interval'], 'status': result['status'], 'profile_machines': result['profile_machines'], 'thread_settings': result['thread_settings'] } ...(省略) return profile_settings
优化后的火焰图:
对比下优化前的相同位置的火焰图:
明显的优化点:优化前的,最底部的 utils.py:get_group_profile_settings和 数据库相关的热点大大缩减。
优化效果
同一个项目的接口的响应时长从 37.6 s 优化成 1.47s,具体的截图:
优化总结
如同一句名言:
如果一个数据结构足够优秀,那么它是不需要多好的算法。
在优化功能的时候,最快的优化就是:去掉那个功能!
其次快就是调整那个功能触发的 频率或者复杂度!
从上到下,从用户使用场景去考虑这个功能优化方式,往往会带来更加简单高效的结果,嘿嘿!
当然很多时候我们是无法那么幸运的,如果我们实在无法去掉或者调整,那么就发挥做程序猿的价值咯:Profile
针对 Python 可以尝试:cProflile + gprof2dot
而针对 Go 可以使用: pprof + go-torch
很多时候看到的代码问题都不一定是真正的性能瓶颈,需要结合工具来客观分析,这样才能有效直击痛点!
其实这个 1.47s,其实还不是最好的结果,还可以有更多优化的空间,比如:
- 前端渲染和呈现的方式,因为整个表格是有很多数据组装后再呈现的,响应慢的单元格可以默认先显示 菊花,数据返回再更新;
- 火焰图看到还有挺多细节可以优化,可以替换请求数据的外部接口,比如再优化彻底 GetAttr相关的逻辑;
- 更极端就是直接 Python 转 GO;
但是这些优化已经不是那么迫切了,因为这个 1.47s 是比较大型项目的优化结果了,绝大部分的项目其实不到 1s 就能返回
再优化可能付出更大成本,而结果可能也只是从 500ms到400ms而已,结果并不那么高性价比。
所以我们一定要时刻清晰自己优化的目标,时刻考虑 投入产出比,在有限的时间做出比较高的价值(如果有空闲时间当然可以尽情干到底)
来源: https://segmentfault.com/a/1190000020956724
回复下方「关键词」,获取优质资源 回复关键词「 pybook03」,立即获取主页君与小伙伴一起翻译的《Think Python 2e》电子版 回复关键词「入门资料」,立即获取主页君整理的 10 本 Python 入门书的电子版 回复关键词「m」,立即获取Python精选优质文章合集 回复关键词「」,将数字替换成 0 及以上数字,有惊喜好礼哦~ 题图:pexels,CC0 授权。 好文章,我在看??
相关推荐
- 面试官:来,讲一下枚举类型在开发时中实际应用场景!
-
一.基本介绍枚举是JDK1.5新增的数据类型,使用枚举我们可以很好的描述一些特定的业务场景,比如一年中的春、夏、秋、冬,还有每周的周一到周天,还有各种颜色,以及可以用它来描述一些状态信息,比如错...
- 一日一技:11个基本Python技巧和窍门
-
1.两个数字的交换.x,y=10,20print(x,y)x,y=y,xprint(x,y)输出:102020102.Python字符串取反a="Ge...
- Python Enum 技巧,让代码更简洁、更安全、更易维护
-
如果你是一名Python开发人员,你很可能使用过enum.Enum来创建可读性和可维护性代码。今天发现一个强大的技巧,可以让Enum的境界更进一层,这个技巧不仅能提高可读性,还能以最小的代价增...
- Python元组编程指导教程(python元组的概念)
-
1.元组基础概念1.1什么是元组元组(Tuple)是Python中一种不可变的序列类型,用于存储多个有序的元素。元组与列表(list)类似,但元组一旦创建就不能修改(不可变),这使得元组在某些场景...
- 你可能不知道的实用 Python 功能(python有哪些用)
-
1.超越文件处理的内容管理器大多数开发人员都熟悉使用with语句进行文件操作:withopen('file.txt','r')asfile:co...
- Python 2至3.13新特性总结(python 3.10新特性)
-
以下是Python2到Python3.13的主要新特性总结,按版本分类整理:Python2到Python3的重大变化Python3是一个不向后兼容的版本,主要改进包括:pri...
- Python中for循环访问索引值的方法
-
技术背景在Python编程中,我们经常需要在循环中访问元素的索引值。例如,在处理列表、元组等可迭代对象时,除了要获取元素本身,还需要知道元素的位置。Python提供了多种方式来实现这一需求,下面将详细...
- Python enumerate核心应用解析:索引遍历的高效实践方案
-
喜欢的条友记得关注、点赞、转发、收藏,你们的支持就是我最大的动力源泉。根据GitHub代码分析统计,使用enumerate替代range(len())写法可减少38%的索引错误概率。本文通过12个生产...
- Python入门到脱坑经典案例—列表去重
-
列表去重是Python编程中常见的操作,下面我将介绍多种实现列表去重的方法,从基础到进阶,帮助初学者全面掌握这一技能。方法一:使用集合(set)去重(最简单)pythondefremove_dupl...
- Python枚举类工程实践:常量管理的标准化解决方案
-
本文通过7个生产案例,系统解析枚举类在工程实践中的应用,覆盖状态管理、配置选项、错误代码等场景,适用于Web服务开发、自动化测试及系统集成领域。一、基础概念与语法演进1.1传统常量与枚举类对比#传...
- 让Python枚举更强大!教你玩转Enum扩展
-
为什么你需要关注Enum?在日常开发中,你是否经常遇到这样的代码?ifstatus==1:print("开始处理")elifstatus==2:pri...
- Python枚举(Enum)技巧,你值得了解
-
枚举(Enum)提供了更清晰、结构化的方式来定义常量。通过为枚举添加行为、自动分配值和存储额外数据,可以提升代码的可读性、可维护性,并与数据库结合使用时,使用字符串代替数字能简化调试和查询。Pytho...
- 78行Python代码帮你复现微信撤回消息!
-
来源:悟空智能科技本文约700字,建议阅读5分钟。本文基于python的微信开源库itchat,教你如何收集私聊撤回的信息。[导读]Python曾经对我说:"时日不多,赶紧用Python"。于是看...
- 登录人人都是产品经理即可获得以下权益
-
文章介绍如何利用Cursor自动开发Playwright网页自动化脚本,实现从选题、写文、生图的全流程自动化,并将其打包成API供工作流调用,提高工作效率。虽然我前面文章介绍了很多AI工作流,但它们...
- Python常用小知识-第二弹(python常用方法总结)
-
一、Python中使用JsonPath提取字典中的值JsonPath是解析Json字符串用的,如果有一个多层嵌套的复杂字典,想要根据key和下标来批量提取value,这是比较困难的,使用jsonpat...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python自定义函数 (53)
- python进度条 (67)
- python吧 (67)
- python字典遍历 (54)
- python的for循环 (65)
- python格式化字符串 (61)
- python串口编程 (60)
- python读取文件夹下所有文件 (59)
- java调用python脚本 (56)
- python操作mysql数据库 (66)
- python字典增加键值对 (53)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python人脸识别 (54)
- python多态 (60)
- python命令行参数 (53)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)