成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

優化Python代碼的4種方法

開發 后端
我是一個程序員。從大學時代開始我就一直在進行編程,而我仍然對使用簡單的Python代碼所開辟的道路之多感到驚訝。

介紹

我是一個程序員。從大學時代開始我就一直在進行編程,而我仍然對使用簡單的Python代碼所開辟的道路之多感到驚訝。

但是我并不總是那么高效。我相信這是大多數程序員(尤其是剛起步的程序員)共有的一個特征,編寫代碼的快感始終優先于效率和簡潔性。雖然這在我們的大學期間有效,但在專業環境中,尤其是在數據科學項目中,情況卻大相徑庭。

[[278339]]

作為數據科學家,編寫優化的Python代碼非常非常重要。雜亂,效率低下的代碼即浪費你的時間甚至浪費你項目的錢。經驗豐富的數據科學家和專業人員都知道,當我們與客戶合作時,雜亂的代碼是不可接受的。

因此,在本文中,我將借鑒我多年的編程經驗來列出并展示四種可用于優化數據科學項目中Python代碼的方法。

優化是什么?

首先定義什么是優化。我們將使用一個直觀的示例進行此操作。

這是我們的問題:

假設給定一個數組,其中每個索引代表一個城市,該索引的值代表該城市與下一個城市之間的距離。假設我們有兩個索引,我們需要計算這兩個索引之間的總距離。簡單來說,我們需要找到兩個給定索引之間距離的總和。

優化Python代碼的4種方法

 

優化Python代碼的4種方法

首先想到的是,一個簡單的FOR循環在這里可以很好地工作。但是,如果有100,000多個城市,而我們每秒接收50,000多個查詢,該怎么辦?你是否仍然認為FOR循環可以為我們的問題提供足夠好的解決方案?

FOR循環并不能提供足夠好的方案。這時候優化就派上用場了

簡單地說,代碼優化意味著在生成正確結果的同時減少執行任何任務的操作數。

讓我們計算一下FOR循環執行此任務所需的操作數:

優化Python代碼的4種方法

我們必須在上面的數組中找出索引1和索引3的城市之間的距離。

優化Python代碼的4種方法

對于較小的數組大小,循環的性能良好

如果數組大小為100,000,查詢數量為50,000,該怎么辦?

優化Python代碼的4種方法

這是一個很大的數字。如果數組的大小和查詢數量進一步增加,我們的FOR循環將花費大量時間。你能想到一種優化的方法,使我們在使用較少數量的解決方案時可以產生正確的結果嗎?

在這里,我將討論一個更好的解決方案,通過使用前綴數組來計算距離來解決這個問題。讓我們看看它是如何工作的:

優化Python代碼的4種方法

 

優化Python代碼的4種方法

 

優化Python代碼的4種方法

你能理解嗎?我們只需一次操作就可以得到相同的距離!關于此方法的最好之處在于,無論索引之間的差是1還是100,000,都只需執行一個操作即可計算任意兩個索引之間的距離。

我創建了一個樣本數據集,其數組大小為100,000和50,000個查詢。你可以自己執行代碼來比較兩者所用的時間

注意:數據集總共有50,000個查詢,你可以更改參數execute_queries以執行最多50,000個查詢,并查看每種方法執行任務所花費的時間。

  1. import time 
  2. from tqdm import tqdm 
  3. data_file = open('sample-data.txt''r'
  4. distance_between_city = data_file.readline().split() 
  5. queries = data_file.readlines() 
  6. print('SIZE OF ARRAY = ', len(distance_between_city)) 
  7. print('TOTAL NUMBER OF QUERIES = ', len(queries)) 
  8. data_file.close() 
  9. # 分配要執行的查詢數 
  10. execute_queries = 2000 
  11. print('\n\nExecuting',execute_queries,'Queries'
  12. FOR循環方法 
  13. # 讀取文件并存儲距離和查詢 
  14. start_time_for_loop = time.time() 
  15. data_file = open('sample-data.txt''r'
  16. distance_between_city = data_file.readline().split() 
  17. queries = data_file.readlines() 
  18. # 存儲距離的列表 
  19. distances_for_loop = [] 
  20. # 計算開始索引和結束索引之間的距離的函數 
  21. def calculateDistance(startIndex, endIndex): 
  22.  distance = 0 
  23.  for number in range(startIndex, endIndex+1, 1): 
  24.  distance += int(distance_between_city[number]) 
  25.  return distance 
  26. for query in tqdm(queries[:execute_queries]): 
  27.  query = query.split() 
  28.  startIndex = int(query[0]) 
  29.  endIndex = int(query[1]) 
  30.  distances_for_loop.append(calculateDistance(startIndex,endIndex)) 
  31. data_file.close() 
  32. # 獲取結束時間 
  33. end_time_for_loop = time.time() 
  34. print('\n\nTime Taken to execute task by for loop :', (end_time_for_loop-start_time_for_loop),'seconds'
  35. # 前綴數組方法 
  36. # 讀取文件并存儲距離和查詢 
  37. start_time_for_prefix = time.time() 
  38. data_file = open('sample-data.txt''r'
  39. distance_between_city = data_file.readline().split() 
  40. queries = data_file.readlines() 
  41. # 存儲距離列表 
  42. distances_for_prefix_array = [] 
  43. # 創建前綴數組 
  44. prefix_array = [] 
  45. prefix_array.append(int(distance_between_city[0])) 
  46. for i in range(1, 100000, 1): 
  47.  prefix_array.append((int(distance_between_city[i]) + prefix_array[i-1])) 
  48. for query in tqdm(queries[:execute_queries]): 
  49.  query = query.split() 
  50.  startIndex = int(query[0]) 
  51.  endIndex = int(query[1]) 
  52.  if startIndex == 0: 
  53.  distances_for_prefix_array.append(prefix_array[endIndex]) 
  54.  else
  55.  distances_for_prefix_array.append((prefix_array[endIndex]-prefix_array[startIndex-1])) 
  56. data_file.close() 
  57. end_time_for_prefix = time.time() 
  58. print('\n\nTime Taken by Prefix Array to execute task is : ', (end_time_for_prefix-start_time_for_prefix), 'seconds'
  59. # 檢查結果 
  60. correct = True 
  61. for result in range(0,execute_queries): 
  62.  if distances_for_loop[result] != distances_for_prefix_array[result] : 
  63.  correct = False 
  64. if correct: 
  65.  print('\n\nDistance calculated by both the methods matched.'
  66. else
  67.  print('\n\nResults did not matched!!'

結果極大的節省了時間,這就是優化Python代碼的重要性。我們不僅節省時間,而且還可以節省很多計算資源!

你可能想知道這些如何應用于數據科學項目。你可能已經注意到,很多時候我們必須對大量數據點執行相同的查詢。在數據預處理階段尤其如此。

我們必須使用一些優化的技術而不是基本的編程來盡可能快速高效地完成工作。因此,這里我將分享一些我用來改進和優化Python代碼的優秀技術

1. Pandas.apply() | 特征工程的鉆石級函數

Pandas已經是一個高度優化的庫,但是我們大多數人仍然沒有充分利用它。現在你思考一下在數據科學中會使用它的常見地方。

我能想到的一項是特征工程,我們使用現有特征創建新特征。最有效的方法之一是使用Pandas.apply()。

在這里,我們可以傳遞用戶定義的函數,并將其應用于Pandas序列化數據的每個數據點。它是Pandas庫中很好的插件之一,因為此函數可以根據所需條件選擇性隔離數據。所以,我們可以有效地將其用于數據處理任務。

讓我們使用Twitter情緒分析數據來計算每條推文的字數。我們將使用不同的方法,例如dataframe iterrows方法,NumPy數組和apply方法。你可以從此處下載數據集(https://datahack.analyticsvidhya.com/contest/practice-problem-twitter-sentiment-analysis/?utm_source=blog&utm_medium=4-methods-optimize-python-code-data-science)。

  1. ''
  2. 優化方法:apply方法 
  3. ''
  4. # 導入庫 
  5. import pandas as pd  
  6. import numpy as np 
  7. import time 
  8. import math 
  9. data = pd.read_csv('train_E6oV3lV.csv'
  10. # 打印頭部信息 
  11. print(data.head()) 
  12. # 使用dataframe iterows計算字符數 
  13. print('\n\nUsing Iterrows\n\n'
  14. start_time = time.time() 
  15. data_1 = data.copy() 
  16. n_words = [] 
  17. for i, row in data_1.iterrows(): 
  18.  n_words.append(len(row['tweet'].split())) 
  19. data_1['n_words'] = n_words  
  20. print(data_1[['id','n_words']].head()) 
  21. end_time = time.time() 
  22. print('\nTime taken to calculate No. of Words by iterrows :'
  23. (end_time-start_time),'seconds'
  24. # 使用Numpy數組計算字符數 
  25. print('\n\nUsing Numpy Arrays\n\n'
  26. start_time = time.time() 
  27. data_2 = data.copy() 
  28. n_words_2 = [] 
  29. for row in data_2.values
  30.  n_words_2.append(len(row[2].split())) 
  31. data_2['n_words'] = n_words_2 
  32. print(data_2[['id','n_words']].head()) 
  33. end_time = time.time() 
  34. print('\nTime taken to calculate No. of Words by numpy array : '
  35. (end_time-start_time),'seconds'
  36. # 使用apply方法計算字符數 
  37. print('\n\nUsing Apply Method\n\n'
  38. start_time = time.time() 
  39. data_3 = data.copy() 
  40. data_3['n_words'] = data_3['tweet'].apply(lambda x : len(x.split())) 
  41. print(data_3[['id','n_words']].head()) 
  42. end_time = time.time() 
  43. print('\nTime taken to calculate No. of Words by Apply Method : '
  44. (end_time-start_time),'seconds'

你可能已經注意到apply方法比iterrows方法快得多。其性能可媲美與NumPy數組,但apply方法提供了更多的靈活性。你可以在此處閱讀apply方法的文檔。(https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.apply.html)

2. Pandas.DataFrame.loc | Python數據處理的技巧

這是我最喜歡的Pandas庫的技巧之一。我覺得對于處理數據任務的數據科學家來說,這是一個必須知道的方法(所以幾乎每個人都是這樣!)

大多數時候,我們只需要根據某些條件來更新數據集中特定列的某些值。Pandas.DataFrame.loc為我們提供了針對此類問題的優化的解決方案。

讓我們使用loc函數解決一個問題。你可以在此處下載將要使用的數據集(https://drive.google.com/file/d/1VwXDA27zgx5jIq8C7NQW0A5rtE95e3XI/view?usp=sharing)。

  1. # 導入庫 
  2. import pandas as pd 
  3. data = pd.read_csv('school.csv'
  4. data.head() 
優化Python代碼的4種方法

檢查“City”變量的各個值的頻數:

優化Python代碼的4種方法

現在,假設我們只需要排名前5位的城市,并希望將其余城市替換為“Others”(其他)城市。因此,讓我們這么寫:

  1. # 將熱門城市保存在列表中 
  2. top_cities = ['Brooklyn','Bronx','Manhattan','Jamaica','Long Island City'
  3. # 使用loc更新目標 
  4. data.loc[(data.City.isin(top_cities) == False),'City'] = 'Others' 
  5. # 各個城市的頻數 
  6. data.City.value_counts() 

 

優化Python代碼的4種方法

Pandas來更新數據的值是非常容易的!這是解決此類數據處理任務的優化方法。

3.在Python中向量化你的函數

擺脫慢循環的另一種方法是對函數進行向量化處理。這意味著新創建的函數將應用于輸入列表,并將返回結果數組。Python中的向量化可以加速計算

讓我們在相同的Twitter Sentiment Analysis數據集對此進行驗證。

  1. ''
  2. 優化方法:向量化函數 
  3. ''
  4. # 導入庫 
  5. import pandas as pd  
  6. import numpy as np 
  7. import time 
  8. import math 
  9. data = pd.read_csv('train_E6oV3lV.csv'
  10. # 輸出頭部信息 
  11. print(data.head()) 
  12. def word_count(x) : 
  13.  return len(x.split()) 
  14. # 使用Dataframe iterrows 計算詞的個數 
  15. print('\n\nUsing Iterrows\n\n'
  16. start_time = time.time() 
  17. data_1 = data.copy() 
  18. n_words = [] 
  19. for i, row in data_1.iterrows(): 
  20.  n_words.append(word_count(row['tweet'])) 
  21. data_1['n_words'] = n_words  
  22. print(data_1[['id','n_words']].head()) 
  23. end_time = time.time() 
  24. print('\nTime taken to calculate No. of Words by iterrows :'
  25. (end_time-start_time),'seconds'
  26. # 使用向量化方法計算詞的個數 
  27. print('\n\nUsing Function Vectorization\n\n'
  28. start_time = time.time() 
  29. data_2 = data.copy() 
  30. # 向量化函數 
  31. vec_word_count = np.vectorize(word_count) 
  32. n_words_2 = vec_word_count(data_2['tweet']) 
  33. data_2['n_words'] = n_words_2 
  34. print(data_2[['id','n_words']].head()) 
  35. end_time = time.time() 
  36. print('\nTime taken to calculate No. of Words by numpy array : '
  37. (end_time-start_time),'seconds'

難以置信吧?對于上面的示例,向量化速度提高了80倍!這不僅有助于加速我們的代碼,而且使其變得更整潔。

4. Python中的多進程

多進程是系統同時支持多個處理器的能力。

在這里,我們將流程分成多個任務,并且所有任務都獨立運行。當我們處理大型數據集時,即使apply函數看起來也很慢。

因此,讓我們看看如何利用Python中的多進程庫加快處理速度。

我們將隨機創建一百萬個值,并求出每個值的除數。我們將使用apply函數和多進程方法比較其性能:

  1. # 導入庫 
  2. import pandas as pd 
  3. import math 
  4. import multiprocessing as mp 
  5. from random import randint 
  6. # 計算除數的函數 
  7. def countDivisors(n) :  
  8.  count = 0 
  9.  for i in range(1, (int)(math.sqrt(n)) + 1) :  
  10.  if (n % i == 0) :  
    1. %%time 
    2. pool = mp.Pool(processes = (mp.cpu_count() - 1)) 
    3. answer = pool.map(countDivisors,random_data) 
    4. pool.close() 
    5. pool.join() 
  11.  if (n / i == i) :  
  12.  count = count + 1 
  13.  else :  
  14.  count = count + 2 
  15.  return count  
  16. # 創建隨機數  
  17. random_data = [randint(10,1000) for i in range(1,1000001)] 
  18. data = pd.DataFrame({'Number' : random_data }) 
  19. data.shape 

 

優化Python代碼的4種方法

 

  1. %%time 
  2. data['Number_of_divisor'] = data.Number.apply(countDivisors) 

 

優化Python代碼的4種方法

 

 

  1. %%time 
  2. pool = mp.Pool(processes = (mp.cpu_count() - 1)) 
  3. answer = pool.map(countDivisors,random_data) 
  4. pool.close() 
  5. pool.join() 

 

優化Python代碼的4種方法

在這里,多進程比apply方法快13倍。性能可能會因不同的硬件系統而異,但肯定會提高性能。

結束

這絕不是詳盡的列表。還有許多其他方法和技術可以優化Python代碼。但是我在數據科學生涯中發現并使用了很多這四個,相信你也會發現它們也很有用。

責任編輯:華軒 來源: 今日頭條
相關推薦

2020-05-15 10:09:17

優化創新數字化轉型CIO

2024-12-23 08:10:00

Python代碼性能代碼

2020-11-16 15:51:54

Kubernetes

2013-01-07 10:44:00

JavaScriptjQueryJS

2023-04-13 14:54:00

云存儲云計算

2010-11-09 11:11:12

SQL Server查

2022-10-13 10:32:46

IT專業人員IT職業生涯

2018-05-29 11:20:18

數據中心方法省錢

2011-09-19 14:30:27

2011-12-16 14:45:36

JavaJSP

2011-05-30 13:37:46

JSP

2017-04-28 15:07:10

網絡瓶頸問題

2020-12-01 09:00:00

數據中心IT技術

2020-07-24 00:34:54

工業物聯網IIOT物聯網

2009-04-13 09:09:53

WebServices返回數據橫向

2023-12-29 09:23:25

Python回調函數遍歷字典

2019-03-25 14:00:36

Linux主機名

2021-03-16 10:56:33

網絡安全首席信息安全官信息安全

2010-12-02 08:12:16

2018-05-03 14:53:58

數據中心節省成本停機
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: www.蜜桃av| 91国自产| 欧美日韩精品在线免费观看 | 成在线人视频免费视频 | 日韩中文字幕免费在线 | 国产精品69毛片高清亚洲 | 久久精品欧美一区二区三区不卡 | 精品久久久久久久久久久 | 9999国产精品欧美久久久久久 | 爱操影视 | 欧美性另类 | 国产成人网| 午夜激情视频在线 | 国产一区二区精品在线观看 | 国产一区二区久久 | 综合久久99 | 亚洲一区二区黄 | 日韩有码在线播放 | 96国产精品久久久久aⅴ四区 | 亚洲欧美高清 | 一级aaaaaa毛片免费同男同女 | 国产99视频精品免费视频7 | 成人a视频片观看免费 | 日日操夜夜操天天操 | 麻豆久久久9性大片 | 国产小视频在线 | 青久草视频| 亚洲一区二区三区免费观看 | 伊人激情网 | 中国黄色毛片视频 | 精品日韩一区二区 | 久草免费在线视频 | 国产探花在线精品一区二区 | 精品国产一区二区久久 | 国产三级一区二区三区 | 国产精品国产三级国产aⅴ入口 | 日日草夜夜草 | 欧美精品a∨在线观看不卡 国产精品久久国产精品 | 欧美激情免费在线 | 亚洲精品久 | 黄色国产在线视频 |