成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

機器學習實踐:如何將Spark與Python結合?

人工智能 機器學習 大數據 Spark
Apache Spark是處理和使用大數據最廣泛的框架之一,Python是數據分析、機器學習等領域最廣泛使用的編程語言之一。如果想要獲得更棒的機器學習能力,為什么不將Spark和Python一起使用呢?

Apache Spark是處理和使用大數據最廣泛的框架之一,Python是數據分析、機器學習等領域最廣泛使用的編程語言之一。如果想要獲得更棒的機器學習能力,為什么不將Spark和Python一起使用呢?

在國外,Apache Spark開發人員的平均年薪為110,000美元。毫無疑問,Spark在這個行業中被廣泛使用。由于其豐富的庫集,Python也被大多數數據科學家和分析專家使用。二者集成也并沒有那么困難,Spark用Scala語言開發,這種語言與Java非常相似。它將程序代碼編譯為用于Spark大數據處理的JVM字節碼。為了集成Spark和Python,Apache Spark社區發布了PySpark。

Apache Spark是Apache Software Foundation開發的用于實時處理的開源集群計算框架。Spark提供了一個接口,用于編程具有隱式數據并行和容錯功能的整個集群。

下面是Apache Spark的一些特性,它比其他框架更具優勢:

 

機器學習實踐:如何將Spark與Python結合?
  • 速度:比傳統的大型數據處理框架快100倍。
  • 強大的緩存:簡單的編程層提供強大的緩存和磁盤持久性功能。
  • 部署:可以通過Mesos、Yarn或Spark自己的集群管理器進行部署。
  • 實時:內存計算,實時計算且低延遲。
  • Polyglot:這是該框架最重要的特性之一,因為它可以在Scala,Java,Python和R中編程。

雖然Spark是在Scala中設計的,但它的速度比Python快10倍,但只有當使用的內核數量少時,Scala才會體現出速度優勢。由于現在大多數分析和處理都需要大量內核,因此Scala的性能優勢并不大。

對于程序員來說,由于其語法和標準庫豐富,Python相對來說更容易學習。而且,它是一種動態類型語言,這意味著RDD可以保存多種類型的對象。

盡管Scala擁有SparkMLlib,但它沒有足夠的庫和工具來實現機器學習和NLP。此外,Scala 缺乏數據可視化。

 

[[233829]]

使用Python設置Spark(PySpark)

首先要下載Spark并安裝,一旦你解壓縮了spark文件,安裝并將其添加到 .bashrc文件路徑中,你需要輸入source .bashrc

 

機器學習實踐:如何將Spark與Python結合?

要打開PySpark shell,需要輸入命令./bin/pyspark

PySpark SparkContext和數據流

用Python來連接Spark,可以使用RD4s并通過庫Py4j來實現。PySpark Shell將Python API鏈接到Spark Core并初始化Spark Context。SparkContext是Spark應用程序的核心。

  1. Spark Context設置內部服務并建立到Spark執行環境的連接。
  2. 驅動程序中的Spark Context對象協調所有分布式進程并允許進行資源分配。
  3. 集群管理器執行程序,它們是具有邏輯的JVM進程。
  4. Spark Context對象將應用程序發送給執行者。
  5. Spark Context在每個執行器中執行任務。

PySpark KDD用例

現在讓我們來看一個用例:數據來源為KDD'99 Cup(國際知識發現和數據挖掘工具競賽,國內也有類似的競賽開放數據集,比如知乎)。這里我們將取數據集的一部分,因為原始數據集太大。

 

機器學習實踐:如何將Spark與Python結合?

創建RDD:

現在我們可以使用這個文件來創建我們的RDD。

 

機器學習實踐:如何將Spark與Python結合?

過濾

假設我們要計算我們在數據集中有多少正常的相互作用。,可以按如下過濾我們的raw_data RDD。

 

機器學習實踐:如何將Spark與Python結合?

計數:

現在我們可以計算出新RDD中有多少元素。

 

機器學習實踐:如何將Spark與Python結合?

輸出:

 

機器學習實踐:如何將Spark與Python結合?

制圖:

在這種情況下,我們想要將數據文件作為CSV格式文件讀取。我們可以通過對RDD中的每個元素應用lambda函數。如下所示,這里我們將使用map()和take()轉換。

 

機器學習實踐:如何將Spark與Python結合?

輸出:

 

機器學習實踐:如何將Spark與Python結合?

拆分:

現在,我們希望將RDD中的每個元素都用作鍵值對,其中鍵是標記(例如正常值),值是表示CSV格式文件中行的整個元素列表。 我們可以按如下進行,這里我們使用line.split()和map()。

 

機器學習實踐:如何將Spark與Python結合?

輸出:

 

機器學習實踐:如何將Spark與Python結合?

收集:

使用collect()動作,將RDD所有元素存入內存。因此,使用大型RDD時必須小心使用。

 

機器學習實踐:如何將Spark與Python結合?

輸出:

 

機器學習實踐:如何將Spark與Python結合?

當然,這比我們之前的任何操作花費的時間都要長。每個具有RDD片段的Spark工作節點都必須進行協調,以便檢索其各部分內容,然后將所有內容集合到一起。

作為結合前面所有內容的最后一個例子,我們希望收集所有常規交互作為鍵值對。

 

機器學習實踐:如何將Spark與Python結合?

輸出:

 

機器學習實踐:如何將Spark與Python結合?
責任編輯:未麗燕 來源: it168網站原創
相關推薦

2022-10-08 00:35:48

gRPCGuice服務器

2019-12-17 16:14:24

機器學習設計算法

2017-08-22 15:35:12

2022-04-23 10:55:51

存儲AI/ML對象鎖定

2017-04-13 13:30:56

SparkSpark MLlib機器學習

2023-12-29 07:04:28

Go項目Docker編寫

2025-02-17 08:00:00

機器學習開發Docker

2016-10-31 10:34:13

GPU機器學習

2011-05-04 09:32:16

2020-06-10 07:46:39

機器學習預測性維護工業物聯網

2025-02-27 12:07:46

2018-01-08 09:09:46

機器學習模型NET

2021-02-26 10:24:49

機器學習人工智能程序

2017-07-26 17:25:22

機器學習SparkAPI

2024-01-18 08:15:05

AIGC知識圖譜大模型

2021-12-09 09:53:00

人工智能機器學習網絡安全

2022-08-19 08:00:00

OPA集成Kubernetes集群

2018-07-19 10:35:12

機器學習數據平臺

2020-03-11 18:16:04

物聯網農業LPWAN

2021-01-26 09:46:59

PythonStacking機器學習
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 请别相信他免费喜剧电影在线观看 | 成人在线观看欧美 | 亚洲精品永久免费 | 欧美日韩国产一区二区 | 久久蜜桃av一区二区天堂 | 一级黄色片毛片 | 久久99久久 | 成人欧美一区二区三区在线观看 | 久久精品一区二区三区四区 | 国产精品精品久久久 | 国产亚洲网站 | 欧美国产日韩在线观看成人 | 亚洲免费一区 | 亚洲人成人网 | 亚洲成人精品免费 | 免费观看色| 涩涩片影院 | 国产91精品久久久久久久网曝门 | 激情网站| 最新中文字幕在线 | www.国产精| 亚洲欧洲精品一区 | 日本天天操 | 黄色欧美在线 | 91精品一区 | 超碰成人免费观看 | 日韩精品成人一区二区三区视频 | 免费一区 | 999热在线视频 | 天天色综 | 久久精品国产精品青草 | 亚洲男女视频在线观看 | 97精品久久| 日韩高清一区 | 久久网国产 | 区一区二在线观看 | 精品毛片视频 | 久久精品久久精品 | 国产精品欧美大片 | 午夜影院 | 超碰免费在线 |