成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

教你幾招,Pandas輕松處理超大規(guī)模數據

開發(fā) 后端
有多種技術可用于大數據處理,它們無需額外付出投資,也不會耗費大量加載的時間。本文將介紹其中三種使用 Pandas 處理大規(guī)模數據集的技術。

 [[349462]]

處理大規(guī)模數據集時常是棘手的事情,尤其在內存無法完全加載數據的情況下。在資源受限的情況下,可以使用 Python Pandas 提供的一些功能,降低加載數據集的內存占用。可用技術包括壓縮、索引和數據分塊。

在上述過程中需要解決一些問題,其中之一就是數據量過大。如果數據量超出本機內存的容量,項目執(zhí)行就會產生問題。

對此有哪些解決方案?

有多種解決數據量過大問題的方法。它們或是消耗時間,或是需要增加投資。

可能的解決方案

  1.  投資解決:新購有能力處理整個數據集,具有更強 CPU 和更大內存的計算機。或是去租用云服務或虛擬內存,創(chuàng)建處理工作負載的集群。
  2.  耗時解決:如果內存不足以處理整個數據集,而硬盤的容量要遠大于內存,此時可考慮使用硬盤存儲數據。但使用硬盤管理數據會大大降低處理性能,即便是 SSD 也要比內存慢很多。

只要資源允許,這兩種解決方法均可行。如果項目資金充裕,或是不惜任何時間代價,那么上述兩種方法是最簡單也是最直接的解決方案。

但如果情況并非如此呢?也許你的資金有限,或是數據集過大,從磁盤加載將增加 5~6 倍甚至更多的處理時間。是否有無需額外資金投入或時間開銷的大數據解決方案呢?

這個問題正中我的下懷。

有多種技術可用于大數據處理,它們無需額外付出投資,也不會耗費大量加載的時間。本文將介紹其中三種使用 Pandas 處理大規(guī)模數據集的技術。

壓  縮

第一種技術是數據壓縮。壓縮并非指將數據打包為 ZIP 文件,而是以壓縮格式在內存中存儲數據。

換句話說,數據壓縮就是一種使用更少內存表示數據的方法。數據壓縮有兩種類型,即無損壓縮和有損壓縮。這兩種類型只影響數據的加載,不會影響到處理代碼。

無損壓縮

無損壓縮不會對數據造成任何損失,即原始數據和壓縮后的數據在語義上保持不變。執(zhí)行無損壓縮有三種方式。在下文中,將使用美國按州統計的新冠病毒病例數據集依次介紹。

  •  加載特定的數據列

例子中所使用的數據集具有如下結構: 

  1. import pandas as pd  
  2. data = pd.read_csv("https://raw.githubusercontent.com/nytimes/covid-19-data/master/us-counties.csv")  
  3. data.sample(10) 

加載整個數據集需要占用 111MB 內存!

如果我們只需要數據集中的兩列,即州名和病例數,那么為什么要加載整個數據集呢?加載所需的兩列數據只需 36MB,可降低內存使用 32%。

使用 Pandas 加載所需數據列的代碼如下:

本節(jié)使用的代碼片段如下: 

  1. # 加載所需軟件庫 Import needed library  
  2. import pandas as pd  
  3. # 數據集  
  4. csv = "https://raw.githubusercontent.com/nytimes/covid-19-data/master/us-counties.csv"  
  5. # 加載整個數據集  
  6. data = pd.read_csv(csv)  
  7. data.info(verbose=Falsememory_usage="deep" 
  8. # 創(chuàng)建數據子集  
  9. df = data[["county", "cases"]]  
  10. df.info(verbose=Falsememory_usage="deep" 
  11. # 加速所需的兩列數據  
  12. df_2col = pd.read_csv(csv , usecols=["county", "cases"])  
  13. df_2col.info(verbose=Falsememory_usage="deep"

代碼地址:

https://gist.github.com/SaraM92/3ba6cac1801b20f6de1ef3cc4a18c843#file-column_selecting-py

  •  操作數據類型

另一個降低數據內存使用量的方法是截取數值項。例如將 CSV 加載到 DataFrame,如果文件中包含數值,那么一個數值就需要 64 個字節(jié)存儲。但可通過使用 int 格式截取數值以節(jié)省內存。

  •  int8 存儲值的范圍是 -128 到 127;
  •  int16 存儲值的范圍是 -32768 到 32767;
  •  int64 存儲值的范圍是 -9223372036854775808 到 9223372036854775807。

如果可預先確定數值不大于 32767,那么就可以使用 int16 或 int32 類型,該列的內存占用能降低 75%。

假定每個州的病例數不超過 32767(雖然現實中并非如此),那么就可截取該列為 int16 類型而非 int64。

  •  稀疏列

如果數據集的一或多個列中具有大量的 NaN 空值,那么可以使用 稀疏列表示 降低內存使用,以免空值耗費內存。

假定州名這一列存在一些空值,我們需要跳過所有包含空值的行。該需求可使用 pandas.sparse 輕松實現(譯者注:原文使用 Sparse Series,但在 Pandas 1.0.0 中已經移除了 SparseSeries)。

有損壓縮

如果無損壓縮并不滿足需求,還需要進一步壓縮,那么應該如何做?這時可使用有損壓縮,權衡內存占用而犧牲數據百分之百的準確性。

有損壓縮有兩種方式,即修改數值和抽樣。

  •  修改數值:有時并不需要數值保留全部精度,這時可以將 int64 截取為 int32 甚至是 int16。
  •  抽樣:如果需要確認某些州的新冠病例數要高于其它州,可以抽樣部分州的數據,查看哪些州具有更多的病例。這種做法是一種有損壓縮,因為其中并未考慮到所有的數據行。

第二種技術:數據分塊(chunking)

另一個處理大規(guī)模數據集的方法是數據分塊。將大規(guī)模數據切分為多個小分塊,進而對各個分塊分別處理。在處理完所有分塊后,可以比較結果并給出最終結論。

本文使用的數據集中包含了 1923 行數據。

假定我們需要找出具有最多病例的州,那么可以將數據集切分為每塊 100 行數據,分別處理每個數據塊,從這各個小結果中獲取最大值。

本節(jié)代碼片段如下: 

  1. # 導入所需軟件庫  
  2. import pandas as pd  
  3. # 數據集  
  4. csv = "https://raw.githubusercontent.com/nytimes/covid-19-data/master/us-counties.csv"  
  5. # 循環(huán)處理每個數據塊,獲取每個數據塊中的最大值 
  6. result = {}  
  7. for chunk in pd.read_csv(csv, chunksize=100):  
  8. max_case = chunk["cases"].max()  
  9. max_case_county = chunk.loc[chunk[ cases ] == max_case,  county ].iloc[0]  
  10. result[max_case_county] = max_case  
  11. # 給出結果 
  12. print(max(result, key=result.get) , result[max(result, key=result.get)]) 

代碼地址:

https://gist.github.com/SaraM92/808ed30694601e5eada5e283b2275ed7#file-chuncking-py

第三種方法:索引

數據分塊非常適用于數據集僅加載一次的情況。但如果需要多次加載數據集,那么可以使用索引技術。

索引可理解為一本書的目錄。無需讀完整本書就可以獲取所需得信息。

例如,分塊技術非常適用于獲取指定州的病例數。編寫如下的簡單函數,就能實現這一功能。

索引 vs 分塊

分塊需讀取所有數據,而索引只需讀取部分數據。

上面的函數加載了每個分塊中的所有行,但我們只關心其中的一個州,這導致大量的額外開銷。可使用 Pandas 的數據庫操作,例如簡單的做法是使用 SQLite 數據庫。

首先,需要將 DataFrame 加載到 SQLite 數據庫,代碼如下: 

  1. import sqlite3 
  2. csv = "https://raw.githubusercontent.com/nytimes/covid-19-data/master/us-counties.csv"  
  3. # 創(chuàng)建新的數據庫文件  
  4. db = sqlite3.connect("cases.sqlite")  
  5. # 按塊加載 CSV 文件  
  6. for c in pd.read_csv(csv, chunksize=100): 
  7. # 將所有數據行加載到新的數據庫表中  
  8. c.to_sql("cases", db, if_exists="append" 
  9. # 為“state”列添加索引  
  10. db.execute("CREATE INDEX state ON cases(state)")  
  11. db.close() 

代碼地址:

https://gist.github.com/SaraM92/5b445d5b56be2d349cdfa988204ff5f3#file-load_into_db-py

為使用數據庫,下面需要重寫 get_state_info 函數。

這樣可降低內存占用 50%。

小  結

處理大規(guī)模數據集時常是棘手的事情,尤其在內存無法完全加載數據的情況下。一些解決方案或是耗時,或是耗費財力。畢竟增加資源是最簡單直接的解決方案。

但是在資源受限的情況下,可以使用 Pandas 提供的一些功能,降低加載數據集的內存占用。其中的可用技術包括壓縮、索引和數據分塊。 

 

責任編輯:龐桂玉 來源: 機器學習算法與Python學習
相關推薦

2020-07-23 14:03:09

數據中心數據網絡

2022-12-30 14:14:51

數據中心服務器

2020-12-11 19:52:06

數據中心超大規(guī)模數據中心

2023-02-14 11:24:36

2021-03-24 11:13:12

數據中心云計算物聯網

2024-10-21 17:40:22

2017-09-22 10:31:17

超大規(guī)模微型數據中心

2017-09-25 16:48:12

數據中心超大規(guī)模微型

2022-04-07 13:42:42

數據中心運營商數據

2023-08-02 15:46:29

2023-08-22 16:14:36

2016-11-09 15:40:15

大數據數據中心云數據中心

2020-12-09 09:47:05

數據中心IT硬件能源消耗

2023-10-10 14:05:25

數據中心云基礎設施

2015-10-27 11:32:41

數據中心超大規(guī)模數據中心

2016-10-12 09:22:51

數據分析技術Apache Kyli

2016-12-14 11:44:25

阿里Docker大數據

2020-01-07 16:45:43

數據中心服務器IT

2023-12-12 16:54:28

數據中心人工智能

2014-03-26 17:00:01

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美精品日韩 | 一区二区中文 | 亚洲欧美日韩在线 | 狠狠操狠狠色 | 玖玖国产 | 日本三级网站在线观看 | 成人影院网站ww555久久精品 | а_天堂中文最新版地址 | 一区二区三区中文字幕 | 中文字幕人成乱码在线观看 | 欧美最猛性xxxxx亚洲精品 | 狠狠狠色丁香婷婷综合久久五月 | 国产资源在线观看 | 久久伊人精品一区二区三区 | 中文字幕在线视频网站 | 91视频在线看 | 成人小视频在线观看 | 日本精品裸体写真集在线观看 | 国产丝袜一区二区三区免费视频 | 国产精品美女久久久久久久网站 | 91最新在线视频 | 国产欧美一区二区三区在线看 | 天天干天天爱天天操 | 欧美一级视频免费看 | 欧美成人一区二免费视频软件 | 久久人人网 | 国产探花在线精品一区二区 | 亚洲国产精品久久久 | 日韩成人在线观看 | 一区二区激情 | 精品免费国产一区二区三区四区介绍 | 欧美性生交大片免费 | 免费国产视频 | 人操人人干人 | 亚洲综合视频 | 在线观看av中文字幕 | 中文字幕日韩一区 | 亚洲一区二区不卡在线观看 | 国产亚洲欧美日韩精品一区二区三区 | 亚洲人成网亚洲欧洲无码 | 免费在线视频精品 |