成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

12個驚人的Pandas和NumPy函數

開發 前端
今天,我將分享12個驚人的Pandas和NumPy函數,這些函數將使您的生活和分析變得比以前容易得多。 最后,您可以找到本文所用代碼的Jupyter Notebook。

我們都知道Pandas和NumPy很棒,它們在我們的日常分析中起著至關重要的作用。沒有Pandas和NumPy,我們將在這個龐大的數據分析和科學世界中迷茫。今天,我將分享12個驚人的Pandas和NumPy函數,這些函數將使您的生活和分析變得比以前容易得多。 最后,您可以找到本文所用代碼的Jupyter Notebook。

12個驚人的Pandas和NumPy函數

讓我們從NumPy開始

NumPy是使用Python進行科學計算的基本軟件包。它包含以下內容:

  • 強大的N維數組對象
  • 復雜的(廣播)功能
  • 集成C / C++和Fortran代碼的工具
  • 有用的線性代數,傅立葉變換和隨機數功能

除了其明顯的科學用途外,NumPy還可以用作通用數據的高效多維容器。可以定義任意數據類型。這使NumPy能夠無縫,快速地與各種數據庫集成。

1. argpartition()

NumPy具有此驚人的功能,可以找到N個最大值索引。輸出將是N個最大值索引,然后可以根據需要對值進行排序。

  1. x = np.array([12, 10, 12, 0, 6, 8, 9, 1, 16, 4, 6, 0]) 
  2. index_val = np.argpartition(x, -4)[-4:] 
  3. index_val 
  4. array([1, 8, 2, 0], dtype=int64
  5. np.sort(x[index_val]) 
  6. array([10, 12, 12, 16]) 

2. allclose()

Allclose()用于匹配兩個數組并以布爾值形式獲取輸出。如果兩個數組中的項在公差范圍內不相等,則將返回False。這是檢查兩個數組是否相似的好方法,這實際上很難手動實現。

  1. array1 = np.array([0.12,0.17,0.24,0.29]) 
  2. array2 = np.array([0.13,0.19,0.26,0.31]) 
  3. # with a tolerance of 0.1, it should return False: 
  4. np.allclose(array1,array2,0.1) 
  5. False 
  6. # with a tolerance of 0.2, it should return True: 
  7. np.allclose(array1,array2,0.2) 
  8. True 

3. clip()

Clip()用于將值保留在一個間隔內的數組中。有時,我們需要將值保持在上限和下限之內。出于上述目的,我們可以使用NumPy的clip()。給定一個間隔,該間隔以外的值將被裁剪到間隔邊緣。

  1. x = np.array([3, 17, 14, 23, 2, 2, 6, 8, 1, 2, 16, 0]) 
  2. np.clip(x,2,5) 
  3. array([3, 5, 5, 5, 2, 2, 5, 5, 2, 2, 5, 2]) 

4. extract()

顧名思義,Extract()用于根據特定條件從數組中提取特定元素。通過extract(),我們還可以使用諸如and和 or的條件。

  1. # Random integers 
  2. array = np.random.randint(20, size=12
  3. array 
  4. array([ 0,  1,  8, 19, 16, 18, 10, 11,  2, 13, 14,  3]) 
  5. #  Divide by 2 and check if remainder is 1 
  6. cond = np.mod(array, 2)==1 
  7. cond 
  8. array([False,  True, False,  True, False, False, False,  True, False, True, False,  True]) 
  9. # Use extract to get the values 
  10. np.extract(cond, array) 
  11. array([ 1, 19, 11, 13,  3]) 
  12. # Apply condition on extract directly 
  13. np.extract(((array < 3) | (array > 15)), array) 
  14. array([ 0,  1, 19, 16, 18,  2]) 

5. where()

where()用于從滿足特定條件的數組中返回元素。它返回在特定條件下的值的索引位置。這幾乎類似于我們在SQL中使用的where條件,我將在下面的示例中進行演示。

  1. y = np.array([1,5,6,8,1,7,3,6,9]) 
  2. # Where y is greater than 5, returns index position 
  3. np.where(y>5) 
  4. array([2, 3, 5, 7, 8], dtype=int64),) 
  5. # First will replace the values that match the condition,  
  6. # second will replace the values that does not 
  7. np.where(y>5, "Hit", "Miss") 
  8. array(['Miss', 'Miss', 'Hit', 'Hit', 'Miss', 'Hit', 'Miss', 'Hit', 'Hit'],dtype='<U4'

6. percentile()

Percentile()用于計算沿指定軸的數組元素的第n個百分點。

  1. a = np.array([1,5,6,8,1,7,3,6,9]) 
  2. print("50th Percentile of a, axis = 0 : ",   
  3.       np.percentile(a, 50, axis =0)) 
  4. 50th Percentile of a, axis = 0 :  6.0 
  5. b = np.array([[10, 7, 4], [3, 2, 1]]) 
  6. print("30th Percentile of b, axis = 0 : ",   
  7.       np.percentile(b, 30, axis =0)) 
  8. 30th Percentile of b, axis = 0 :  [5.1 3.5 1.9] 

如果您以前使用過它們,請就應該能體會到它對您有多大幫助。讓我們繼續前進到令人驚嘆的Pandas。

pandas:

pandas是一個Python軟件包,提供快速,靈活和富于表現力的數據結構,旨在使處理結構化(表格,多維,潛在異構)和時間序列數據既簡單又直觀。

Pandas非常適合許多不同類型的數據:

  • 具有異構類型列的表格數據,例如在SQL表或Excel電子表格中
  • 有序和無序(不一定是固定頻率)時間序列數據。
  • 具有行和列標簽的任意矩陣數據(同類型或異類)
  • 觀察/統計數據集的任何其他形式。實際上,數據根本不需要標記即可放入Pandas數據結構。

以下是Pandas做得好的一些事情:

  • 輕松處理浮點數據和非浮點數據中的缺失數據(表示為NaN)
  • 大小可變性:可以從DataFrame和更高維的對象中插入和刪除列
  • 自動和顯式的數據對齊:可以將對象顯式地對齊到一組標簽,或者用戶可以簡單地忽略標簽并讓Series,DataFrame等自動為您對齊數據
  • 強大,靈活的分組功能,可對數據集執行拆分應用合并操作,以匯總和轉換數據
  • 輕松將其他Python和NumPy數據結構中的衣衫,、索引不同的數據轉換為DataFrame對象
  • 基于智能標簽的切片,花式索引和大數據集子集
  • 直觀的合并和聯接數據集
  • 靈活地重塑和旋轉數據集
  • 軸的分層標簽(每個刻度可能有多個標簽)
  • 強大的IO工具,用于從平面文件(CSV和定界文件),Excel文件,數據庫加載數據,以及從超快HDF5格式保存/加載數據
  • 特定于時間序列的功能:日期范圍生成和頻率轉換,移動窗口統計信息,日期移動和滯后。

1. read_csv(nrows = n)

您可能已經知道read_csv函數的使用。但是,即使不需要,我們大多數人仍然會錯誤地讀取整個.csv文件。讓我們考慮一種情況,即我們不知道10gb的.csv文件中的列和數據,在這里讀取整個.csv文件將不是一個明智的決定,因為這將不必要地占用我們的內存,并且會花費很多時間時間。我們可以僅從.csv文件中導入幾行,然后根據需要繼續操作。

  1. import io 
  2. import requests 
  3. # I am using this online data set just to make things easier for you guys 
  4. url = "https://raw.github.com/vincentarelbundock/Rdatasets/master/csv/datasets/AirPassengers.csv" 
  5. s = requests.get(url).content 
  6. # read only first 10 rows 
  7. df = pd.read_csv(io.StringIO(s.decode('utf-8')),nrows=10 , index_col=0

2. map()

map()函數用于根據輸入對應關系映射Series的值。用于將系列中的每個值替換為另一個值,該值可以從函數,字典或系列中得出。

  1. # create a dataframe 
  2. dframe = pd.DataFrame(np.random.randn(4, 3), columns=list('bde'), index=['India', 'USA', 'China', 'Russia']) 
  3. #compute a formatted string from each floating point value in frame 
  4. changefn = lambda x: '%.2f' % x 
  5. # Make changes element-wise 
  6. dframe['d'].map(changefn) 

3. apply()

apply()允許用戶傳遞一個函數并將其應用于Pandas系列的每個單個值。

  1. # max minus mix lambda fn 
  2. fn = lambda x: x.max() - x.min() 
  3. # Apply this on dframe that we've just created above 
  4. dframe.apply(fn) 

4. isin()

isin()用于過濾數據幀。isin()幫助選擇在特定列中具有特定(或多個)值的行。這是我遇到的最有用的功能。

  1. # Using the dataframe we created for read_csv 
  2. filter1 = df["value"].isin([112])  
  3. filter2 = df["time"].isin([1949.000000]) 
  4. df [filter1 & filter2] 

5. copy()

copy()用于創建Pandas對象的副本。將數據幀分配給另一個數據幀時,在另一個數據幀中進行更改時其值也會更改。為了防止出現上述問題,我們可以使用copy()。

  1. # creating sample series  
  2. data = pd.Series(['India', 'Pakistan', 'China', 'Mongolia']) 
  3. # Assigning issue that we face 
  4. datadata1= data 
  5. # Change a value 
  6. data1[0]='USA' 
  7. # Also changes value in old dataframe 
  8. data 
  9. # To prevent that, we use 
  10. # creating copy of series  
  11. new = data.copy() 
  12. # assigning new values  
  13. new[1]='Changed value' 
  14. # printing data  
  15. print(new)  
  16. print(data) 

6. select_dtypes()

select_dtypes()函數基于列dtypes返回數據框的列的子集。可以將此函數的參數設置為包括具有某些特定數據類型的所有列,也可以將其設置為排除具有某些特定數據類型的所有那些列。

  1. # We'll use the same dataframe that we used for read_csv 
  2. framex =  df.select_dtypes(include="float64"
  3. # Returns only time column 

額外的獎勵:

pivot_table()pandas 最神奇最有用的功能是pivot_table。如果您猶豫使用groupby并想擴展其功能,那么可以很好地使用pivot_table。如果您知道數據透視表在excel中是如何工作的,那么對您來說可能只是小菜一碟。數據透視表中的級別將存儲在結果DataFrame的索引和列上的MultiIndex對象(分層索引)中。

  1. # Create a sample dataframe 
  2. school = pd.DataFrame({'A': ['Jay', 'Usher', 'Nicky', 'Romero', 'Will'],  
  3.       'B': ['Masters', 'Graduate', 'Graduate', 'Masters', 'Graduate'],  
  4.       'C': [26, 22, 20, 23, 24]}) 
  5. # Lets create a pivot table to segregate students based on age and course 
  6. table = pd.pivot_table(school, values ='A'index =['B', 'C'], columns =['B'], aggfunc = np.sum, fill_value="Not Available")  
  7.    
  8. table 

Jupyter Notebook(使用代碼)可以從以下鏈接找到:

https://github.com/kunaldhariwal/Medium-12-Amazing-Pandas-NumPy-Functions

 

責任編輯:趙寧寧 來源: 今日頭條
相關推薦

2020-04-03 13:50:19

數據分析PandasNumPy

2024-01-03 14:54:56

PythonPandas數據處理工具

2020-05-06 09:18:56

Pandas函數大數據技術

2021-07-07 09:50:23

NumpyPandasPython

2023-09-08 13:11:00

NumPyPandasPython庫

2023-07-31 11:44:38

Pandas性能數組

2023-10-15 17:07:35

PandasPython庫

2022-07-06 23:59:57

NumPyPython工具

2022-09-20 10:50:34

PandasNumPy

2021-02-19 10:59:29

NumpyPandasPython

2021-07-13 10:02:52

Pandas函數Linux

2024-11-12 10:57:14

NumPyPython

2020-12-24 07:02:07

CSS框架

2023-08-11 11:19:52

數據集Merge函數

2020-10-29 08:35:06

Pandas函數Python

2025-04-03 10:00:00

數據分析Pandas數據合并

2020-08-16 10:58:20

Pandaspython開發

2023-02-08 17:04:14

Python計算庫數學函數

2012-06-14 13:22:35

JavaScript

2021-05-10 11:40:51

函數NumpyPython
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久亚洲一区二区三区四区 | 精品小视频 | av一级| 美女久久 | 91久久久久久 | 欧美日韩高清在线一区 | 好好的日在线视频 | 国产蜜臀97一区二区三区 | 亚洲在线一区二区三区 | 国产黄色大片在线观看 | 超碰在线人 | 91久久精品国产免费一区 | 日韩精品在线播放 | 欧美成人免费在线视频 | 99国产精品久久久久久久 | 在线亚洲欧美 | 黑人精品xxx一区一二区 | 男女啪啪网址 | 精品婷婷| 99pao成人国产永久免费视频 | 欧美亚洲免费 | 欲色av| 日韩欧美国产一区二区三区 | 国产午夜精品久久 | 成人黄色在线观看 | 精品一区av | 日韩在线播放第一页 | 精品视频在线观看 | 久久国产精品视频 | 国产一区二区三区在线免费观看 | 欧美黑人又粗大 | 国内自拍视频在线观看 | 97视频精品 | 福利视频三区 | 特级毛片| 国产精品波多野结衣 | 国产成人在线视频免费观看 | 久久久久久99 | 国产一区二区三区四区三区四 | 久久久久免费精品国产 | 亚洲福利一区 |