成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Python接口優化,性能飆升25倍!

開發 后端
我們負責的一個業務平臺,有次在發現設置頁面的加載特別特別地慢,簡直就是令人發指,讓用戶等待 36s 肯定是不可能的,于是我們就要開啟優化之旅了。

 

背景

我們負責的一個業務平臺,有次在發現設置頁面的加載特別特別地慢,簡直就是令人發指

讓用戶等待 36s 肯定是不可能的,于是我們就要開啟優化之旅了。

投石問路

既然是網站的響應問題,可以通過 Chrome 這個強大的工具幫助我們快速找到優化方向。

通過 Chrome 的 Network 除了可以看到接口請求耗時之外,還能看到一個時間的分配情況,選擇一個配置沒有那么多的項目,簡單請求看看:

雖然只是一個只有三條記錄的項目,加載項目設置都需要 17s,通過 Timing, 可以看到總的請求共耗時 17.67s ,但有 17.57s 是在 Waiting(TTFB) 狀態。

  1. TTFB 是 Time to First Byte 的縮寫,指的是瀏覽器開始收到服務器響應數據的時間(后臺處理時間+重定向時間),是反映服務端響應速度的重要指標。 

Profile 火焰圖 + 代碼調優

那么大概可以知道優化的大方向是在后端接口處理上面,后端代碼是 Python + Flask 實現的,先不盲猜,直接上 Profile:

第一波優化:功能交互重新設計

說實話看到這段代碼是絕望的:完全看不出什么?只是看到很多 gevent 和 Threading,因為太多協程或者線程?

這時候一定要結合代碼來分析(為了簡短篇幅,參數部分用 “...” 代替): 

  1. def get_max_cpus(project_code, gids):  
  2.     """  
  3.     """  
  4.     ... 
  5.  
  6.     # 再定義一個獲取 cpu 的函數  
  7.     def get_max_cpu(project_setting, gid, token, headers):  
  8.         group_with_machines = utils.get_groups(...)  
  9.         hostnames = get_info_from_machines_info(...)  
  10.         res = fetchers.MonitorAPIFetcher.get(...)  
  11.         vals = [  
  12.             round(100 - val, 4)  
  13.             for ts, val in res['series'][0]['data']  
  14.             if not utils.is_nan(val)  
  15.         ]  
  16.         maxmax_val = max(vals) if vals else float('nan')  
  17.         max_cpus[gid] = max_val      
  18.      #  啟動線程批量請求  
  19.     for gid in gids:  
  20.         t = Thread(target=get_max_cpuargs=(...))  
  21.         threads.append(t)  
  22.         t.start()        
  23.      # 回收線程  
  24.     for t in threads:  
  25.         t.join()  
  26.     return max_cpus 

通過代碼可以看到,為了更加快速獲取 gids 所有的 cpu_max 數據,為每個 gid 分配一個線程去請求,最終再返回最大值。

這里會出現兩個問題:

  1.  在一個 web api 做線程的 創建 和 銷毀 是有很大成本的,因為接口會頻繁被觸發,線程的操作也會頻繁發生,應該盡可能使用線程池之類的,降低系統花銷;
  2.  該請求是加載某個 gid (群組) 下面的機器過去 7 天的 CPU 最大值,可以簡單拍腦袋想下,這個值不是實時值也不是一個均值,而是一個最大值,很多時候可能并沒有想象中那么大價值;

既然知道問題,那就有針對性的方案:

  1.  調整功能設計,不再默認加載 CPU 最大值,換成用戶點擊加載(一來降低并發的可能,二來不會影響整體);
  2.  因為 1 的調整,去掉多線程實現;

再看第一波優化后的火焰圖:

這次看的火焰圖雖然還有很大的優化空間,但起碼看起來有點正常的樣子了。

第二波優化:Mysql 操作優化處理

我們再從頁面標記處(接口邏輯處)放大火焰圖觀察:

看到好大一片操作都是由 utils.py:get_group_profile_settings 這個函數引起的數據庫操作熱點。

同理,也是需要通過代碼分析: 

  1. def get_group_profile_settings(project_code, gids):      
  2.     # 獲取 Mysql ORM 操作對象  
  3.     ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))  
  4.     session = get_postman_session()      
  5.     profile_settings = {}  
  6.     for gid in gids:  
  7.         compound_name = project_code + ':' + gid  
  8.         result = session.query(ProfileSetting).filter(  
  9.             ProfileSetting.name == compound_name  
  10.         ).first()       
  11.          if result:  
  12.             resultresult = result.as_dict()  
  13.             tag_indexes = result.get('tag_indexes')  
  14.             profile_settings[gid] = {  
  15.                 'tag_indexes': tag_indexes,  
  16.                 'interval': result['interval'],  
  17.                 'status': result['status'],  
  18.                 'profile_machines': result['profile_machines'],  
  19.                 'thread_settings': result['thread_settings']  
  20.             }  
  21.             ...(省略)  
  22.     return profile_settings 

看到 Mysql ,第一個反應就是 索引問題,所以優先去看看數據庫的索引情況,如果有索引的話應該不會是瓶頸:

很奇怪這里明明已經有了索引了,為什么速度還是這個鬼樣子呢!

正當毫無頭緒的時候,突然想起在 第一波優化 的時候, 發現 gid(群組)越多的影響越明顯,然后看回上面的代碼,看到那句: 

  1. for gid in gids:   
  2.     ... 

我仿佛明白了什么。

這里是每個 gid 都去查詢一次數據庫,而項目經常有 20 ~ 50+ 個群組,那肯定直接爆炸了。

其實 Mysql 是支持單字段多值的查詢,而且每條記錄并沒有太多的數據,我可以嘗試下用 Mysql 的 OR 語法,除了避免多次網絡請求,還能避開那該死的 for

正當我想事不宜遲直接搞起的時候,余光瞥見在剛才的代碼還有一個地方可以優化,那就是:

看到這里,熟悉的朋友大概會明白是怎么回事。

GetAttr 這個方法是Python 獲取對象的 方法/屬性 時候會用到,雖然不可不用,但是如果在使用太過頻繁也會有一定的性能損耗。

結合代碼一起來看: 

  1. def get_group_profile_settings(project_code, gids):   
  2.      # 獲取 Mysql ORM 操作對象  
  3.     ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))  
  4.     session = get_postman_session()    
  5.      profile_settings = {}  
  6.     for gid in gids:  
  7.         compound_name = project_code + ':' + gid  
  8.         result = session.query(ProfileSetting).filter(  
  9.             ProfileSetting.name == compound_name  
  10.         ).first()  
  11.         ... 

在這個遍歷很多次的 for 里面,session.query(ProfileSetting) 被反復無效執行了,然后 filter 這個屬性方法也被頻繁讀取和執行,所以這里也可以被優化。

總結下的問題就是: 

  1. 1. 數據庫的查詢沒有批量查詢;  
  2. 2. ORM 的對象太多重復的生成,導致性能損耗;  
  3. 3. 屬性讀取后沒有復用,導致在遍歷次數較大的循環體內頻繁 getAttr,成本被放大; 

那么對癥下藥就是: 

  1. def get_group_profile_settings(project_code, gids):      
  2.     # 獲取 Mysql ORM 操作對象  
  3.     ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))  
  4.     session = get_postman_session()    
  5.         # 批量查詢 并將 filter 提到循環之外  
  6.     query_results = query_instance.filter(  
  7.         ProfileSetting.name.in_(project_code + ':' + gid for gid in gids)  
  8.     ).all()  
  9.     # 對全部的查詢結果再單條處理  
  10.     profile_settings = {}  
  11.     for result in query_results:  
  12.         if not result:  
  13.             continue  
  14.         resultresult = result.as_dict()  
  15.         gid = result['name'].split(':')[1]  
  16.         tag_indexes = result.get('tag_indexes')  
  17.         profile_settings[gid] = { 
  18.              'tag_indexes': tag_indexes,  
  19.             'interval': result['interval'],  
  20.             'status': result['status'],  
  21.             'profile_machines': result['profile_machines'],  
  22.             'thread_settings': result['thread_settings']  
  23.         }  
  24.             ...(省略)  
  25.     return profile_settings 

優化后的火焰圖:

對比下優化前的相同位置的火焰圖:

明顯的優化點:優化前的,最底部的 utils.py:get_group_profile_settings 和 數據庫相關的熱點大大縮減。

優化效果

同一個項目的接口的響應時長從 37.6 s 優化成 1.47s,具體的截圖:

優化總結

如同一句名言: 

  1. 如果一個數據結構足夠優秀,那么它是不需要多好的算法。 

在優化功能的時候,最快的優化就是:去掉那個功能!

其次快就是調整那個功能觸發的 頻率 或者 復雜度!

從上到下,從用戶使用場景去考慮這個功能優化方式,往往會帶來更加簡單高效的結果,嘿嘿!

當然很多時候我們是無法那么幸運的,如果我們實在無法去掉或者調整,那么就發揮做程序猿的價值咯:Profile

針對 Python 可以嘗試:cProflile + gprof2dot

而針對 Go 可以使用: pprof + go-torch

很多時候看到的代碼問題都不一定是真正的性能瓶頸,需要結合工具來客觀分析,這樣才能有效直擊痛點!

其實這個 1.47s,其實還不是最好的結果,還可以有更多優化的空間,比如:

  1.  前端渲染和呈現的方式,因為整個表格是有很多數據組裝后再呈現的,響應慢的單元格可以默認先顯示 菊花,數據返回再更新;
  2.  火焰圖看到還有挺多細節可以優化,可以替換請求數據的外部接口,比如再優化徹底 GetAttr 相關的邏輯;
  3.  更極端就是直接 Python 轉 GO;

但是這些優化已經不是那么迫切了,因為這個 1.47s 是比較大型項目的優化結果了,絕大部分的項目其實不到 1s 就能返回

再優化可能付出更大成本,而結果可能也只是從 500ms 到 400ms 而已,結果并不那么高性價比。

所以我們一定要時刻清晰自己優化的目標,時刻考慮 投入產出比,在有限的時間做出比較高的價值(如果有空閑時間當然可以盡情干到底) 

 

責任編輯:龐桂玉 來源: Linux公社
相關推薦

2020-08-10 11:00:02

Python優化代碼

2025-06-05 03:00:00

Spring異步接口

2022-05-23 13:44:53

前端開發優化

2025-04-21 09:07:00

2025-02-26 11:27:43

2016-08-29 17:16:18

NVIDIA

2020-07-22 08:30:02

代碼開發工具

2017-08-08 09:45:43

Python性能優化

2013-09-26 14:11:23

SQL性能優化

2025-04-27 09:15:40

2024-01-22 13:16:00

接口性能優化本地緩存

2022-10-09 13:36:44

接口性能優化

2020-06-05 08:53:31

接口性能實踐

2012-11-21 17:35:21

Oracle技術嘉年華

2022-04-11 15:56:51

Golang代碼框架

2012-03-12 13:54:56

ASP.NET

2025-05-14 08:05:00

大數據Kafka集群

2025-02-27 09:09:45

2023-10-06 11:39:39

2020-01-21 22:25:00

機器學習人工智能計算機
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久久久久久 | 91精品综合久久久久久五月天 | 久久av影院| 精品一区久久 | 精品视频一区二区三区在线观看 | 精品免费 | 久久久福利 | 天天干天天爱天天 | 精品国产乱码久久久久久闺蜜 | 精品国产一区二区三区久久久四川 | 国产成人精品一区二 | 干干干日日日 | 免费一级黄色录像 | 精品国产1区2区3区 在线国产视频 | 亚洲超碰在线观看 | 超碰97av | 日韩国产欧美一区 | 在线观看免费毛片 | 欧美成人二区 | 精品一区二区av | 精品成人| 亚洲一区二区三区免费 | 日韩精品久久久 | 久久精品国产亚洲 | 亚洲天堂精品一区 | 色资源在线 | 亚洲视频欧美视频 | 一色桃子av一区二区 | 国产日韩一区二区 | 在线看亚洲 | 男女羞羞免费视频 | 国产中文字幕在线 | 91国内精品久久 | 久久成人国产精品 | 日韩一二区 | 日本三级电影在线免费观看 | 在线观看中文字幕视频 | 午夜精品视频在线观看 | 尤物视频在线免费观看 | 亚洲第一在线视频 | 中文字幕在线一 |