成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

TOP 3大開源Python數據分析工具!

大數據 數據分析
在大數據庫領域,Python是最常被使用的編程語言,因此了解與其相關的數據分析工具是很有必要的。如果你正在使用virtualenv、pyenv或其他變體在自己的環境中運行Python,那么,可以嘗試本文推薦的三大開源工具。

在大數據庫領域,Python是最常被使用的編程語言,因此了解與其相關的數據分析工具是很有必要的。如果你正在使用virtualenv、pyenv或其他變體在自己的環境中運行Python,那么,可以嘗試本文推薦的三大開源工具。

[[239713]]

(注:本文示例使用IPython,如果感興趣,請確保已經安裝)

 

  1. $ mkdir python-big-data  
  2. $ cd python-big-data  
  3. $ virtualenv ../venvs/python-big-data  
  4. $ source ../venvs/python-big-data/bin/activate  
  5. $ pip install ipython  
  6. $ pip install pandas  
  7. $ pip install pyspark  
  8. $ pip install scikit-learn  
  9. $ pip install scipy 

本文選取的示例數據是最近幾天從某網站獲取的實際生產日志數據,從技術層面來看,這些數據并不能算作是大數據,因為它的大小只有大約2Mb,但就演示來說已經足夠了。

如果你想獲取這些示例數據,可以使用git從作者的公共GitHub存儲庫中下載:admintome / access-log-data

  1. $ git clone https://github.com/admintome/access-log-data.git 

數據是一個簡單的CSV文件,因此每行代表一個單獨的日志,字段用逗號分隔:

  1. 2018-08-01 17:10,'www2','www_access','172.68.133.49 - - [01/Aug/2018:17:10:15 +0000] "GET /wp-content/uploads/2018/07/spark-mesos-job-complete-1024x634.png HTTP/1.0" 200 151587 "https://dzone.com/" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"' 

以下是日志行架構: 

由于對數據可執行的操作的復雜性不確定,因此本文重點選取加載數據和獲取數據樣本兩個操作來講解三個工具。

1、Python Pandas

我們討論的***個工具是Python Pandas。正如它的網站所述,Pandas是一個開源的Python數據分析庫。它最初由AQR Capital Management于2008年4月開發,并于2009年底開源,目前由專注于Python數據包開發的PyData開發團隊繼續開發和維護,屬于PyData項目的一部分。Pandas最初被作為金融數據分析工具而開發出來,因此,pandas為時間序列分析提供了很好的支持。

首先,啟動IPython并對示例數據進行一些操作。(因為pandas是python的第三方庫所以使用前需要安裝一下,直接使用pip install pandas 就會自動安裝pandas以及相關組件) 

 

 

  1. import pandas as pd  
  2. headers = ["datetime""source""type""log" 
  3. df = pd.read_csv('access_logs_parsed.csv', quotechar="'", names=headers) 

大約一秒后,我們會收到如下回復: 

  1. [6844 rows x 4 columns]  
  2. In [3]: 

如上所見,我們有大約7000行數據,它從中找到了四個與上述模式匹配的列。

Pandas自動創建了一個表示CSV文件的DataFrame對象,Pandas中的DataFrame數據既可以存儲在SQL數據庫中,也可以直接存儲在CSV文件中。接下來我們使用head()函數導入數據樣本。 

  1. In [11]: df.head() 
  2.  
  3. Out[11]: 
  4.  
  5. datetime source type log 
  6.  
  7. 2018-08-01 17:10 www2 www_access 172.68.133.49 - - [01/Aug/2018:17:10:15 +0000]...  
  8. 2018-08-01 17:10 www2 www_access 162.158.255.185 - - [01/Aug/2018:17:10:15 +000...  
  9. 2018-08-01 17:10 www2 www_access 108.162.238.234 - - [01/Aug/2018:17:10:22 +000...  
  10. 2018-08-01 17:10 www2 www_access 172.68.47.211 - - [01/Aug/2018:17:10:50 +0000]... 
  11. 2018-08-01 17:11 www2 www_access 141.101.96.28 - - [01/Aug/2018:17:11:11 +0000]... 

使用Python Pandas可以做很多事情, 數據科學家通常將Python Pandas與IPython一起使用,以交互方式分析大量數據集,并從該數據中獲取有意義的商業智能。

2、PySpark

我們討論的第二個工具是PySpark,該工具來自Apache Spark項目的大數據分析庫。

PySpark提供了許多用于在Python中分析大數據的功能,它自帶shell,用戶可以從命令行運行。

  1. $ pyspark 

這會加載pyspark shell:

  1. (python-big-data)[email protected]:~/Development/access-log-data$ pyspark Python 3.6.5 (default, Apr 1 2018, 05:46:30) [GCC 7.3.0] on linux Type "help""copyright""credits" or "license" for more information. 2018-08-03 18:13:38 WARN Utils:66 - Your hostname, admintome resolves to a loopback address: 127.0.1.1; using 192.168.1.153 instead (on interface enp0s3) 2018-08-03 18:13:38 WARN Utils:66 - Set SPARK_LOCAL_IP if you need to bind to another address 2018-08-03 18:13:39 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Setting default log level to "WARN"To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /__ / .__/\_,_/_/ /_/\_\ version 2.3.1 /_/ Using Python version 3.6.5 (default, Apr 1 2018 05:46:30) SparkSession available as 'spark'. >>> 

當你啟動shell時,你會得到一個Web GUI查看你的工作狀態,只需瀏覽到http:// localhost:4040即可獲得PySpark Web GUI。 

讓我們使用PySpark Shell加載示例數據: 

  1. dataframe = spark.read.format("csv").option("header","false").option("mode","DROPMALFORMED").option("quote","'").load("access_logs.csv" 
  2. dataframe.show() 

PySpark提供了已創建的DataFrame示例: 

  1. >>> dataframe2.show()  
  2. +----------------+----+----------+--------------------+  
  3. | _c0| _c1| _c2| _c3|  
  4. +----------------+----+----------+--------------------+  
  5. |2018-08-01 17:10|www2|www_access|172.68.133.49 - -...|  
  6. |2018-08-01 17:10|www2|www_access|162.158.255.185 -...|  
  7. |2018-08-01 17:10|www2|www_access|108.162.238.234 -...|  
  8. |2018-08-01 17:10|www2|www_access|172.68.47.211 - -...|  
  9. |2018-08-01 17:11|www2|www_access|141.101.96.28 - -...|  
  10. |2018-08-01 17:11|www2|www_access|141.101.96.28 - -...|  
  11. |2018-08-01 17:11|www2|www_access|162.158.50.89 - -...|  
  12. |2018-08-01 17:12|www2|www_access|192.168.1.7 - - [...|  
  13. |2018-08-01 17:12|www2|www_access|172.68.47.151 - -...|  
  14. |2018-08-01 17:12|www2|www_access|192.168.1.7 - - [...|  
  15. |2018-08-01 17:12|www2|www_access|141.101.76.83 - -...|  
  16. |2018-08-01 17:14|www2|www_access|172.68.218.41 - -...|  
  17. |2018-08-01 17:14|www2|www_access|172.68.218.47 - -...|  
  18. |2018-08-01 17:14|www2|www_access|172.69.70.72 - - ...|  
  19. |2018-08-01 17:15|www2|www_access|172.68.63.24 - - ...|  
  20. |2018-08-01 17:18|www2|www_access|192.168.1.7 - - [...|  
  21. |2018-08-01 17:18|www2|www_access|141.101.99.138 - ...|  
  22. |2018-08-01 17:19|www2|www_access|192.168.1.7 - - [...|  
  23. |2018-08-01 17:19|www2|www_access|162.158.89.74 - -...|  
  24. |2018-08-01 17:19|www2|www_access|172.68.54.35 - - ...|  
  25. +----------------+----+----------+--------------------+ 
  26. only showing top 20 rows 

我們再次看到DataFrame中有四列與我們的模式匹配,DataFrame此處可以被視為數據庫表或Excel電子表格。

3、Python SciKit-Learn

任何關于大數據的討論都會引發關于機器學習的討論,幸運的是,Python開發人員有很多選擇來使用機器學習算法。

在沒有詳細介紹機器學習的情況下,我們需要獲得一些執行機器學習的數據,我在本文中提供的示例數據不能正常工作,因為它不是數字類型的數據。我們需要操縱數據并將其呈現為數字格式,這超出了本文的范圍,例如,我們可以按時間映射日志以獲得具有兩列的DataFrame:一分鐘內的日志數和當前時間: 

  1. +------------------+---+  
  2. | 2018-08-01 17:10 | 4 |  
  3. +------------------+---+  
  4. | 2018-08-01 17:11 | 1 |  
  5. +------------------+---+ 

通過這種形式的數據,我們可以執行機器學習算法來預測未來可能獲得的訪客數量,SciKit-Learn附帶了一些樣本數據集,我們可以加載一些示例數據,來看一下具體如何運作。 

  1. In [1]: from sklearn import datasets  
  2.   In [2]: iris = datasets.load_iris()  
  3.   In [3]: digits = datasets.load_digits()  
  4.   In [4]: print(digits.data) 
  5.    [[ 0. 0. 5. ... 0. 0. 0.]  
  6.   [ 0. 0. 0. ... 10. 0. 0.]  
  7.   [ 0. 0. 0. ... 16. 9. 0.]  
  8.   ...  
  9.   [ 0. 0. 1. ... 6. 0. 0.]  
  10.   [ 0. 0. 2. ... 12. 0. 0.]  
  11.   [ 0. 0. 10. ... 12. 1. 0.]] 

這將加載兩個用于機器學習分類的算法,用于對數據進行分類。

結論

在大數據領域,Python、R以及Scala是主要的參與者,開源社區中有不少針對這三者的工具,國內互聯網企業一向很喜歡基于開源工具自研,選擇之前不妨做好功課,抽取使用人數較多且應用場景最接近實際需求的方案。

責任編輯:未麗燕 來源: it168網站 原創
相關推薦

2018-11-14 10:15:58

開源技術 數據

2016-10-21 09:02:02

2020-03-24 14:35:24

開源工具Joplin

2019-02-14 10:48:31

開源網絡監控工具

2023-05-17 15:22:45

識別開源工具

2024-03-19 08:00:00

物聯網應用物聯網開源

2016-09-12 09:47:40

云計算

2020-05-19 12:24:01

Web應用安全測試工具開源

2022-03-21 09:25:50

Kubernetes開源DevSecOps

2021-09-03 08:00:00

開源工具游戲

2025-01-03 00:28:37

2019-01-22 15:32:05

Go語言工具開發

2019-04-26 09:37:30

Go 開源技術

2019-03-25 22:03:40

開源自然語言NLP

2025-04-15 08:11:04

2009-11-02 09:38:07

開源ESB

2012-05-21 10:13:56

2016-10-18 10:45:00

開發開源

2014-07-15 12:30:39

關系管開源工具

2018-06-05 12:06:20

Hadoop開源工具
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人免费高清 | 亚洲91| 四虎影院在线播放 | 亚洲女人天堂成人av在线 | 国产目拍亚洲精品99久久精品 | 午夜影院网站 | 日韩毛片在线视频 | 亚洲一区二区久久 | 日韩三级电影一区二区 | 亚洲狠狠爱 | 久久亚洲春色中文字幕久久久 | 国产精品久久久久国产a级 欧美日本韩国一区二区 | 欧美综合一区 | 国产精品永久免费观看 | 国产免费色| 综合九九 | 亚洲国产欧美日韩 | 成人午夜免费在线视频 | 夜久久 | 国产ts人妖一区二区三区 | 1000部精品久久久久久久久 | 国产在线播放一区二区三区 | 亚洲福利一区二区 | 欧美涩涩网 | 97免费在线观看视频 | 国产精品网址 | 综合九九 | 777zyz色资源站在线观看 | 国产91在线 | 欧美 | 久热国产精品视频 | 国产精品久久久久久久免费观看 | 老司机深夜福利网站 | 精品国产精品国产偷麻豆 | 午夜精品一区二区三区在线观看 | 成人亚洲精品久久久久软件 | 一级黄色片一级黄色片 | 午夜网| 黄色在线观看网站 | 日韩国产精品一区二区三区 | 精品久久国产 | 国产免费拔擦拔擦8x高清 |