成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Python中最快解壓zip文件的方法

開發 后端
挑戰在于這些 zip 文件太大了。它們的平均大小是 560MB 但是其中一些大于 1GB。這些文件中大多數是文本文件,但是其中同樣也有一些巨大的二進制文件。不同尋常的是,每個 zip 文件包含 100 個文件但是其中 1-3 個文件卻占據了多達 95% 的 zip 文件大小。

[[220979]]

假設現在的上下文(LCTT 譯注:context,計算機術語,此處意為業務情景)是這樣的:一個 zip 文件被上傳到一個Web 服務中,然后 Python 需要解壓這個 zip 文件然后分析和處理其中的每個文件。這個特殊的應用查看每個文件各自的名稱和大小,并和已經上傳到 AWS S3 上的文件進行比較,如果文件(和 AWS S3 上的相比)有所不同或者文件本身更新,那么就將它上傳到 AWS S3。

Uploads today

Uploads today

挑戰在于這些 zip 文件太大了。它們的平均大小是 560MB 但是其中一些大于 1GB。這些文件中大多數是文本文件,但是其中同樣也有一些巨大的二進制文件。不同尋常的是,每個 zip 文件包含 100 個文件但是其中 1-3 個文件卻占據了多達 95% 的 zip 文件大小。

最開始我嘗試在內存中解壓文件,并且每次只處理一個文件。在各種內存爆炸和 EC2 耗盡內存的情況下,這個方法壯烈失敗了。我覺得這個原因是這樣的。最開始你有 1GB 文件在內存中,然后你現在解壓每個文件,在內存中大約就要占用 2-3GB。所以,在很多次測試之后,解決方案是將這些 zip 文件復制到磁盤上(在臨時目錄 /tmp 中),然后遍歷這些文件。這次情況好多了但是我仍然注意到了整個解壓過程花費了巨量的時間。是否可能有方法優化呢?

 

原始函數

首先是下面這些模擬對 zip 文件中文件實際操作的普通函數:

  1. def _count_file(fn):
  2. with open(fn, 'rb') as f:
  3. return _count_file_object(f)
  4.  
  5. def _count_file_object(f):
  6. # Note that this iterates on 'f'.
  7. # You *could* do 'return len(f.read())'
  8. # which would be faster but potentially memory
  9. # inefficient and unrealistic in terms of this
  10. # benchmark experiment.
  11. total = 0
  12. for line in f:
  13. total += len(line)
  14. return total

這里是可能最簡單的另一個函數:

  1. def f1(fn, dest):
  2. with open(fn, 'rb') as f:
  3. zf = zipfile.ZipFile(f)
  4. zf.extractall(dest)
  5.  
  6. total = 0
  7. for root, dirs, files in os.walk(dest):
  8. for file_ in files:
  9. fn = os.path.join(root, file_)
  10. total += _count_file(fn)
  11. return total

如果我更仔細地分析一下,我將會發現這個函數花費時間 40% 運行 extractall,60% 的時間在遍歷各個文件并讀取其長度。

 

***步嘗試

我的***步嘗試是使用線程。先創建一個 zipfile.ZipFile 的實例,展開其中的每個文件名,然后為每一個文件開始一個線程。每個線程都給它一個函數來做“實質工作”(在這個基準測試中,就是遍歷每個文件然后獲取它的名稱)。實際業務中的函數進行的工作是復雜的 S3、Redis 和 PostgreSQL 操作,但是在我的基準測試中我只需要制作一個可以找出文件長度的函數就好了。線程池函數:

  1. def f2(fn, dest):
  2.  
  3. def unzip_member(zf, member, dest):
  4. zf.extract(member, dest)
  5. fn = os.path.join(dest, member.filename)
  6. return _count_file(fn)
  7.  
  8. with open(fn, 'rb') as f:
  9. zf = zipfile.ZipFile(f)
  10. futures = []
  11. with concurrent.futures.ThreadPoolExecutor() as executor:
  12. for member in zf.infolist():
  13. futures.append(
  14. executor.submit(
  15. unzip_member,
  16. zf,
  17. member,
  18. dest,
  19. )
  20. )
  21. total = 0
  22. for future in concurrent.futures.as_completed(futures):
  23. total += future.result()
  24. return total

結果:加速 ~10%

 

第二步嘗試

所以可能是 GIL(LCTT 譯注:Global Interpreter Lock,一種全局鎖,CPython 中的一個概念)阻礙了我。最自然的想法是嘗試使用多線程在多個 CPU 上分配工作。但是這樣做有缺點,那就是你不能傳遞一個非可 pickle 序列化的對象(LCTT 譯注:意為只有可 pickle 序列化的對象可以被傳遞),所以你只能發送文件名到之后的函數中:

  1. def unzip_member_f3(zip_filepath, filename, dest):
  2. with open(zip_filepath, 'rb') as f:
  3. zf = zipfile.ZipFile(f)
  4. zf.extract(filename, dest)
  5. fn = os.path.join(dest, filename)
  6. return _count_file(fn)
  7.  
  8.  
  9.  
  10. def f3(fn, dest):
  11. with open(fn, 'rb') as f:
  12. zf = zipfile.ZipFile(f)
  13. futures = []
  14. with concurrent.futures.ProcessPoolExecutor() as executor:
  15. for member in zf.infolist():
  16. futures.append(
  17. executor.submit(
  18. unzip_member_f3,
  19. fn,
  20. member.filename,
  21. dest,
  22. )
  23. )
  24. total = 0
  25. for future in concurrent.futures.as_completed(futures):
  26. total += future.result()
  27. return total

結果: 加速 ~300%

 

這是作弊

使用處理器池的問題是這樣需要存儲在磁盤上的原始 .zip 文件。所以為了在我的 web 服務器上使用這個解決方案,我首先得要將內存中的 zip 文件保存到磁盤,然后調用這個函數。這樣做的代價我不是很清楚但是應該不低。

好吧,再翻翻看又沒有損失。可能,解壓過程加速到足以彌補這樣做的損失了吧。

但是一定記住!這個優化取決于使用所有可用的 CPU。如果一些其它的 CPU 需要執行在 gunicorn 中的其它事務呢?這時,這些其它進程必須等待,直到有 CPU 可用。由于在這個服務器上有其他的事務正在進行,我不是很確定我想要在進程中接管所有其他 CPU。

 

結論

一步一步地做這個任務的這個過程感覺挺好的。你被限制在一個 CPU 上但是表現仍然特別好。同樣地,一定要看看在f1f2 兩段代碼之間的不同之處!利用 concurrent.futures 池類你可以獲取到允許使用的 CPU 的個數,但是這樣做同樣給人感覺不是很好。如果你在虛擬環境中獲取的個數是錯的呢?或者可用的個數太低以致無法從負載分配獲取好處并且現在你僅僅是為了移動負載而支付營運開支呢?

我將會繼續使用 zipfile.ZipFile(file_buffer).extractall(temp_dir)。這個工作這樣做已經足夠好了。

 

想試試手嗎?

我使用一個 c5.4xlarge EC2 服務器來進行我的基準測試。文件可以從此處下載:

  1. wget https://www.peterbe.com/unzip-in-parallel/hack.unzip-in-parallel.py
  2. wget https://www.peterbe.com/unzip-in-parallel/symbols-2017-11-27T14_15_30.zip

這里的 .zip 文件有 34MB。和在服務器上的相比已經小了很多。

hack.unzip-in-parallel.py 文件里是一團糟。它包含了大量可怕的修正和丑陋的代碼,但是這只是一個開始。 

責任編輯:龐桂玉 來源: Linux中國
相關推薦

2015-04-08 15:40:53

php在線解壓解壓zip文件

2021-05-08 00:00:27

JavaScript ZIP文件

2021-12-10 15:22:26

Go Zip 文件

2019-10-17 17:15:01

Linux解壓文件命令

2011-08-15 14:07:53

Objective-C解壓縮ZIP文件

2011-12-30 11:14:41

Javazip

2020-09-09 14:30:24

2012-05-10 09:43:28

2020-12-21 16:00:07

Pythonzip文件密碼

2012-12-26 09:31:44

C#Winform

2013-06-13 09:12:07

LinuxLinux技巧海量文件

2024-06-20 08:09:24

2011-04-06 16:05:29

SQL Server數據導入

2009-03-22 19:19:15

多核多核服務器多核歷史

2025-02-21 10:46:16

JSForEachAPI

2024-09-26 12:33:29

JSAPI循環

2020-12-13 17:57:16

加密密碼Python

2018-07-05 11:05:10

2023-12-21 07:30:36

PythonZipfileTarfile

2019-08-23 08:54:32

LinuxMySQLBSD
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲深夜福利 | 国产欧美精品一区二区 | 黄色一级大片视频 | 奇米av | 欧美精品国产精品 | 国产精品久久久久aaaa樱花 | 国产免费一二三区 | 天天干天天操天天爽 | 99免费在线视频 | 久久久久综合 | 成人深夜福利网站 | www久| 日本电影网站 | 在线成人免费视频 | 中文字幕视频三区 | 国产精品免费高清 | 日日夜夜天天久久 | 日韩精品一区二区三区中文在线 | 亚洲另类春色偷拍在线观看 | av中文字幕在线 | www.久久| 高清国产午夜精品久久久久久 | 91亚洲视频在线 | 在线观看国产视频 | 91精品久久久 | 一区二区三区国产 | 欧美色综合天天久久综合精品 | 91免费电影 | 免费在线观看毛片 | 一区二区在线不卡 | 欧美日韩在线精品 | 区一区二在线观看 | 阿v视频在线观看 | 亚洲美女网站 | 国产精品99精品久久免费 | 亚州av在线 | 精品久久久久久久久久久院品网 | 免费黄色在线 | 欧美一级在线免费观看 | 日本精品一区二区三区在线观看视频 | 人人干人人看 |