成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

【進階】嫌棄Python慢,試試這幾個方法?

開發 后端
優化的第一要義就是「不要去做」。但如果你必須要做,我希望這些小技巧可以幫助到你。然而,優化代碼時一定要謹慎,因為該操作可能最終造成代碼可讀性變差、可維護性變差,這些弊端可能超過代碼優化所帶來的好處。

【進階】嫌棄Python慢,試試這幾個方法?

計時與性能分析

在開始優化之前,我們首先需要找到代碼的哪一部分真正拖慢了整個程序。有時程序性能的瓶頸顯而易見,但當你不知道瓶頸在何處時,這里有一些幫助找到性能瓶頸的辦法:

注:下列程序用作演示目的,該程序計算 e 的 X 次方(摘自 Python 文檔):

  1. # slow_program.py 
  2. from decimal import * 
  3.  
  4. def exp(x): 
  5.     getcontext().prec += 2 
  6.     i, lasts, s, fact, num = 0, 0, 1, 1, 1 
  7.     while s != lasts: 
  8.         lasts = s 
  9.         i += 1 
  10.         fact *= i 
  11.         num *= x 
  12.         s += num / fact 
  13.     getcontext().prec -= 2 
  14.     return +s 
  15.  
  16. exp(Decimal(150)) 
  17. exp(Decimal(400)) 
  18. exp(Decimal(3000)) 

最懶惰的「性能分析」

首先,最簡單但說實話也很懶的方法——使用 Unix 的 time 命令:

  1. ~ $ time python3.8 slow_program.py 
  2.  
  3. real    0m11,058s 
  4. user    0m11,050s 
  5. sys     0m0,008s 

如果你只想給整個程序計時,這個命令即可完成目的,但通常是不夠的……

最細致的性能分析

另一個極端是 cProfile,它提供了「太多」的信息:

  1. ~ $ python3.8 -m cProfile -s time slow_program.py 
  2.          1297 function calls (1272 primitive calls) in 11.081 seconds 
  3.  
  4.    Ordered by: internal time 
  5.  
  6.    ncalls  tottime  percall  cumtime  percall filename:lineno(function
  7.         3   11.079    3.693   11.079    3.693 slow_program.py:4(exp) 
  8.         1    0.000    0.000    0.002    0.002 {built-in method _imp.create_dynamic} 
  9.       4/1    0.000    0.000   11.081   11.081 {built-in method builtins.exec
  10.         6    0.000    0.000    0.000    0.000 {built-in method __new__ of type object at 0x9d12c0} 
  11.         6    0.000    0.000    0.000    0.000 abc.py:132(__new__) 
  12.        23    0.000    0.000    0.000    0.000 _weakrefset.py:36(__init__) 
  13.       245    0.000    0.000    0.000    0.000 {built-in method builtins.getattr} 
  14.         2    0.000    0.000    0.000    0.000 {built-in method marshal.loads} 
  15.        10    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:1233(find_spec) 
  16.       8/4    0.000    0.000    0.000    0.000 abc.py:196(__subclasscheck__) 
  17.        15    0.000    0.000    0.000    0.000 {built-in method posix.stat} 
  18.         6    0.000    0.000    0.000    0.000 {built-in method builtins.__build_class__} 
  19.         1    0.000    0.000    0.000    0.000 __init__.py:357(namedtuple) 
  20.        48    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:57(_path_join) 
  21.        48    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:59(<listcomp>) 
  22.         1    0.000    0.000   11.081   11.081 slow_program.py:1(<module>) 
  23. ... 

這里,我們結合 cProfile 模塊和 time 參數運行測試腳本,使輸出行按照內部時間(cumtime)排序。這給我們提供了大量信息,上面你看到的行只是實際輸出的 10%。從輸出結果我們可以看到 exp 函數是罪魁禍首(驚不驚喜,意不意外),現在我們可以更加專注于計時和性能分析了……

計時專用函數

現在我們知道了需要關注哪里,那么我們可能只想要給運行緩慢的函數計時而不去管代碼的其他部分。我們可以使用一個簡單的裝飾器來做到這點:

  1. def timeit_wrapper(func): 
  2.     @wraps(func) 
  3.     def wrapper(*args, **kwargs): 
  4.         start = time.perf_counter()  # Alternatively, you can use time.process_time() 
  5.         func_return_val = func(*args, **kwargs) 
  6.         end = time.perf_counter() 
  7.         print('{0:<10}.{1:<8} : {2:<8}'.format(func.__module__, func.__name__, end - start)) 
  8.         return func_return_val 
  9.     return wrapper 

接著,將該裝飾器按如下方式應用在待測函數上:

  1. @timeit_wrapper 
  2. def exp(x): 
  3.     ... 
  4.  
  5. print('{0:<10} {1:<8} {2:^8}'.format('module''function''time')) 
  6. exp(Decimal(150)) 
  7. exp(Decimal(400)) 
  8. exp(Decimal(3000)) 

得到如下輸出:

  1. ~ $ python3.8 slow_program.py 
  2. module     function   time   
  3. __main__  .exp      : 0.003267502994276583 
  4. __main__  .exp      : 0.038535295985639095 
  5. __main__  .exp      : 11.728486061969306 

此時我們需要考慮想要測量哪一類時間。time 庫提供了 time.perf_counter 和 time.process_time 兩種時間。其區別在于,perf_counter 返回絕對值,其中包括了 Python 程序并不在運行的時間,因此它可能受到機器負載的影響。而 process_time 只返回用戶時間(除去了系統時間),也就是只有進程運行時間。

讓程序更快

現在到了真正有趣的部分了,讓 Python 程序跑得更快!我不會告訴你一些奇技淫巧或代碼段來神奇地解決程序的性能問題,而更多是關于通用的想法和策略。使用這些策略,可以對程序性能產生巨大的影響,有時甚至可以帶來高達 30% 的提速。

使用內置的數據類型

這一點非常明顯。內置的數據類型非常快,尤其相比于樹或鏈表等自定義類型而言。這主要是因為內置數據類型使用 C 語言實現,使用 Python 實現的代碼在運行速度上和它們沒法比。

使用 lru_cache 實現緩存/記憶

我在之前的博客中介紹過這一技巧,但我認為它值得用一個簡單例子再次進行說明:

  1. import functools 
  2. import time 
  3.  
  4. # caching up to 12 different results 
  5. @functools.lru_cache(maxsize=12) 
  6. def slow_func(x): 
  7.     time.sleep(2)  # Simulate long computation 
  8.     return x 
  9.  
  10. slow_func(1)  # ... waiting for 2 sec before getting result 
  11. slow_func(1)  # already cached - result returned instantaneously! 
  12.  
  13. slow_func(3)  # ... waiting for 2 sec before getting result 

上面的函數使用 time.sleep 模擬了繁重的計算過程。當我們第一次使用參數 1 調用函數時,它等待了 2 秒鐘后返回了結果。當再次調用時,結果已經被緩存起來,所以它跳過了函數體,直接返回結果。

使用局部變量

這和每個作用域中變量的查找速度有關。我之所以說「每個作用域」,是因為這不僅僅關乎局部變量或全局變量。事實上,就連函數中的局部變量、類級別的屬性和全局導入函數這三者的查找速度都會有區別。函數中的局部變量最快,類級別屬性(如 self.name)慢一些,全局導入函數(如 time.time)最慢。

你可以通過這種看似沒有必要的代碼組織方式來提高效率:

  1. #  Example #1 
  2. class FastClass: 
  3.  
  4.     def do_stuff(self): 
  5.         temp = self.value  # this speeds up lookup in loop 
  6.         for i in range(10000): 
  7.             ...  # Do something with `temp` here 
  8.  
  9. #  Example #2 
  10. import random 
  11.  
  12. def fast_function(): 
  13.     r = random.random 
  14.     for i in range(10000): 
  15.         print(r())  # calling `r()` here, is faster than global random.random() 

使用函數

這也許有些反直覺,因為調用函數會讓更多的東西入棧,進而在函數返回時為程序帶來負擔,但這其實和之前的策略相關。如果你只是把所有代碼扔進一個文件而沒有把它們放進函數,那么它會因為眾多的全局變量而變慢。因此,你可以通過將所有代碼封裝在 main 函數中并調用它來實現加速,如下所示:

  1. def main(): 
  2.     ...  # All your previously global code 
  3.  
  4. main() 

不要訪問屬性

另一個可能讓程序變慢的東西是用來訪問對象屬性的點運算符(.)。這個運算符會引起程序使用__getattribute__進行字典查找,進而為程序帶來不必要的開銷。那么,我們怎么避免(或者限制)使用它呢?

  1. #  Slow: 
  2. import re 
  3.  
  4. def slow_func(): 
  5.     for i in range(10000): 
  6.         re.findall(regex, line)  # Slow! 
  7.  
  8. #  Fast: 
  9. from re import findall 
  10.  
  11. def fast_func(): 
  12.     for i in range(10000): 
  13.         findall(regex, line)  # Faster! 

當心字符串

當在循環中使用取模運算符(%s)或 .format() 時,字符串操作會變得很慢。有沒有更好的選擇呢?根據 Raymond Hettinger 近期發布的推文,我們只需要使用 f-string 即可,它可讀性更強,代碼更加緊湊,并且速度更快!基于這一觀點,如下從快到慢列出了你可以使用的一系列方法:

  1. f'{s} {t}'  # Fast! 
  2. s + '  ' + t  
  3. ' '.join((s, t)) 
  4. '%s %s' % (s, t)  
  5. '{} {}'.format(s, t) 
  6. Template('$s $t').substitute(s=s, t=t)  # Slow! 

生成器本質上并不會更快,因為它們的目的是惰性計算,以節省內存而非節省時間。然而,節省的內存會讓程序運行更快。為什么呢?如果你有一個大型數據集,并且你沒有使用生成器(迭代器),那么數據可能造成 CPU 的 L1 緩存溢出,進而導致訪存速度顯著變慢。

當涉及到效率時,非常重要的一點是 CPU 會將它正在處理的數據保存得離自己越近越好,也就是保存在緩存中。讀者可以看一看 Raymond Hettingers 的演講(https://www.youtube.com/watch?v=OSGv2VnC0go&t=8m17s),其中提到了這些問題。

總結

優化的第一要義就是「不要去做」。但如果你必須要做,我希望這些小技巧可以幫助到你。然而,優化代碼時一定要謹慎,因為該操作可能最終造成代碼可讀性變差、可維護性變差,這些弊端可能超過代碼優化所帶來的好處。 

責任編輯:龐桂玉 來源: 機器學習算法與Python學習
相關推薦

2018-04-18 06:56:26

iPhone手機電量

2020-12-07 10:59:01

Python數據工具

2022-11-11 17:06:43

開發組件工具

2021-02-23 18:38:11

iPhone地圖蘋果

2022-11-08 08:53:56

插件IDE

2022-09-26 12:17:14

clamp() 函數CSS

2018-12-14 15:51:47

Pandas數據數據結構

2019-02-28 20:20:43

Python技巧編程語言

2024-11-08 13:24:43

2018-03-20 16:03:00

鼠標方法硬件

2022-08-29 08:41:52

異步ControllerrunAsync

2022-04-28 23:08:40

Windows 10微軟功能

2024-06-03 08:52:40

2022-04-12 08:43:21

Python內置模塊

2023-10-07 08:59:02

2020-07-03 18:14:20

JavaScript開發技術

2019-10-10 09:34:19

Python網絡爬蟲GitHub

2021-06-11 13:59:22

CSS原子類

2021-10-27 10:07:59

GitHub代碼開發者

2020-02-03 09:29:32

JavaScript代碼斷點
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲视频在线播放 | 欧美日韩在线视频观看 | 丁香久久 | 国产成人在线播放 | 成人在线h| 最新中文字幕在线 | 亚洲 中文 欧美 日韩 在线观看 | 中文字幕日韩一区二区 | 久久久久免费精品国产小说色大师 | 99综合在线| 成人精品在线视频 | 国产综合在线视频 | 天天爱天天操 | 亚洲欧美一区二区三区情侣bbw | 亚洲精品综合 | 国产欧美日韩一区二区三区在线 | 亚洲三级在线观看 | 久久99精品久久久久 | h在线| 免费一级欧美在线观看视频 | 在线免费观看黄a | 99热电影| 成人免费黄视频 | 欧美日韩一区二区三区四区五区 | 亚洲欧美日韩中文字幕一区二区三区 | 成人综合久久 | 国产丝袜人妖cd露出 | 亚洲欧美日韩在线不卡 | 欧美日韩综合一区 | 视频1区 | 久久久免费电影 | 国产高清视频一区 | 欧美日韩在线观看一区二区三区 | 国产91在线 | 中日 | 亚洲最色网站 | 国产 亚洲 网红 主播 | 成人影院一区二区三区 | 亚洲精品免费视频 | 欧美精品一区二区三区在线播放 | 日本h片在线观看 | 久久天堂网 |