成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

利用Scala語言開發Spark應用程序

開發 前端 Spark
park內核是由Scala語言開發的,因此使用Scala語言開發Spark應用程序是自然而然的事情。如果你對Scala語言還不太熟悉,可以閱讀網絡教程A Scala Tutorial for Java Programmers或者相關Scala書籍進行學習。

Spark內核是由Scala語言開發的,因此使用Scala語言開發Spark應用程序是自然而然的事情。如果你對Scala語言還不太熟悉,可以閱讀網絡教程A Scala Tutorial for Java Programmers或者相關Scala書籍進行學習。

本文將介紹3個Scala Spark編程實例,分別是WordCount、TopK和SparkJoin,分別代表了Spark的三種典型應用。

1. WordCount編程實例

WordCount是一個最簡單的分布式應用實例,主要功能是統計輸入目錄中所有單詞出現的總次數,編寫步驟如下:

步驟1:創建一個SparkContext對象,該對象有四個參數:Spark master位置、應用程序名稱,Spark安裝目錄和jar存放位置,對于Spark On YARN而言,最重要的是前兩個參數,***個參數指定為“yarn-standalone”,第二個參數是自定義的字符串,舉例如下:

  1. val sc = new SparkContext(args(0), "WordCount", 
  2.     System.getenv("SPARK_HOME"), Seq(System.getenv("SPARK_TEST_JAR"))) 
  3.  

步驟2:讀取輸入數據。我們要從HDFS上讀取文本數據,可以使用SparkCon

  1. val textFile = sc.textFile(args(1)) 

當然,Spark允許你采用任何Hadoop InputFormat,比如二進制輸入格式SequenceFileInputFormat,此時你可以使用SparkContext中的hadoopRDD函數,舉例如下:

  1. val inputFormatClass = classOf[SequenceFileInputFormat[Text,Text]] 
  2. var hadoopRdd = sc.hadoopRDD(conf, inputFormatClass, classOf[Text], classOf[Text]) 

或者直接創建一個HadoopRDD對象:

  1. var hadoopRdd = new HadoopRDD(sc, conf, 
  2.      classOf[SequenceFileInputFormat[Text,Text, classOf[Text], classOf[Text]) 

步驟3:通過RDD轉換算子操作和轉換RDD,對于WordCount而言,首先需要從輸入數據中每行字符串中解析出單詞,然后將相同單詞放到一個桶中,***統計每個桶中每個單詞出現的頻率,舉例如下:

  1. val result = hadoopRdd.flatMap{ 
  2.         case(key, value)  => value.toString().split("\\s+"); 
  3. }.map(word => (word, 1)). reduceByKey (_ + _) 

其中,flatMap函數可以將一條記錄轉換成多條記錄(一對多關系),map函數將一條記錄轉換為另一條記錄(一對一關系),reduceByKey函數將key相同的數據劃分到一個桶中,并以key為單位分組進行計算,這些函數的具體含義可參考:Spark Transformation。

步驟4:將產生的RDD數據集保存到HDFS上。可以使用SparkContext中的saveAsTextFile哈數將數據集保存到HDFS目 錄下,默認采用Hadoop提供的TextOutputFormat,每條記錄以“(key,value)”的形式打印輸出,你也可以采用 saveAsSequenceFile函數將數據保存為SequenceFile格式等,舉例如下:

  1. result.saveAsSequenceFile(args(2)) 

當然,一般我們寫Spark程序時,需要包含以下兩個頭文件:

  1. import org.apache.spark._ 
  2. import SparkContext._ 

WordCount完整程序已在“Apache Spark學習:利用Eclipse構建Spark集成開發環境”一文中進行了介紹,在次不贅述。

需要注意的是,指定輸入輸出文件時,需要指定hdfs的URI,比如輸入目錄是hdfs://hadoop-test/tmp/input,輸出目 錄是hdfs://hadoop-test/tmp/output,其中,“hdfs://hadoop-test”是由Hadoop配置文件core- site.xml中參數fs.default.name指定的,具體替換成你的配置即可。

2. TopK編程實例

TopK程序的任務是對一堆文本進行詞頻統計,并返回出現頻率***的K個詞。如果采用MapReduce實現,則需要編寫兩個作 業:WordCount和TopK,而使用Spark則只需一個作業,其中WordCount部分已由前面實現了,接下來順著前面的實現,找到Top K個詞。注意,本文的實現并不是***的,有很大改進空間。

步驟1:首先需要對所有詞按照詞頻排序,如下:

  1. val sorted = result.map { 
  2.   case(key, value) => (value, key); //exchange key and value 
  3. }.sortByKey(true, 1) 

步驟2:返回前K個:

  1. val topK = sorted.top(args(3).toInt) 

步驟3:將K各詞打印出來:

  1. topK.foreach(println) 

注意,對于應用程序標準輸出的內容,YARN將保存到Container的stdout日志中。在YARN中,每個Container存在三個日志 文件,分別是stdout、stderr和syslog,前兩個保存的是標準輸出產生的內容,第三個保存的是log4j打印的日志,通常只有第三個日志中 有內容。

本程序完整代碼、編譯好的jar包和運行腳本可以從這里下載。下載之后,按照“Apache Spark學習:利用Eclipse構建Spark集成開發環境”一文操作流程運行即可。

3. SparkJoin編程實例

在推薦領域有一個著名的開放測試集是movielens給的,下載鏈接是:http://grouplens.org/datasets/movielens/,該測試集包含三個文件,分別是ratings.dat、sers.dat、movies.dat,具體介紹可閱讀:README.txt,本節給出的SparkJoin實例則通過連接ratings.dat和movies.dat兩個文件得到平均得分超過4.0的電影列表,采用的數據集是:ml-1m。程序代碼如下:

  1. import org.apache.spark._ 
  2. import SparkContext._ 
  3. object SparkJoin { 
  4.   def main(args: Array[String]) { 
  5.     if (args.length != 4 ){ 
  6.       println("usage is org.test.WordCount <master> <rating> <movie> <output>"
  7.       return 
  8.     } 
  9.     val sc = new SparkContext(args(0), "WordCount"
  10.     System.getenv("SPARK_HOME"), Seq(System.getenv("SPARK_TEST_JAR"))) 
  11.   
  12.     // Read rating from HDFS file 
  13.     val textFile = sc.textFile(args(1)) 
  14.   
  15.     //extract (movieid, rating) 
  16.     val rating = textFile.map(line => { 
  17.         val fileds = line.split("::"
  18.         (fileds(1).toInt, fileds(2).toDouble) 
  19.        }) 
  20.   
  21.     val movieScores = rating 
  22.        .groupByKey() 
  23.        .map(data => { 
  24.          val avg = data._2.sum / data._2.size 
  25.          (data._1, avg) 
  26.        }) 
  27.   
  28.      // Read movie from HDFS file 
  29.      val movies = sc.textFile(args(2)) 
  30.      val movieskey = movies.map(line => { 
  31.        val fileds = line.split("::"
  32.         (fileds(0).toInt, fileds(1)) 
  33.      }).keyBy(tup => tup._1) 
  34.   
  35.      // by join, we get <movie, averageRating, movieName> 
  36.      val result = movieScores 
  37.        .keyBy(tup => tup._1) 
  38.        .join(movieskey) 
  39.        .filter(f => f._2._1._2 > 4.0) 
  40.        .map(f => (f._1, f._2._1._2, f._2._2._2)) 
  41.   
  42.     result.saveAsTextFile(args(3)) 
  43.   } 

你可以從這里下載代碼、編譯好的jar包和運行腳本。

這個程序直接使用Spark編寫有些麻煩,可以直接在Shark上編寫HQL實現,Shark是基于Spark的類似Hive的交互式查詢引擎,具體可參考:Shark。

4. 總結

Spark 程序設計對Scala語言的要求不高,正如Hadoop程序設計對Java語言要求不高一樣,只要掌握了最基本的語法就能編寫程序,且常見的語法和表達方式是很少的。通常,剛開始仿照官方實例編寫程序,包括Scala、Java和Python三種語言實例。

原文鏈接:http://dongxicheng.org/framework-on-yarn/spark-scala-writing-application/

責任編輯:陳四芳 來源: dongxicheng.org
相關推薦

2010-11-18 15:52:32

QMLMeeGo

2012-06-07 09:15:14

ibmdw

2013-02-21 14:14:40

開發Tizen

2013-02-21 14:15:41

開發Tizen

2012-02-08 15:06:31

ibmdw

2022-09-19 00:37:13

SaaS云計算開發

2011-04-01 11:01:02

應用程序BlackBerryJava

2012-03-20 09:20:40

Go語言

2012-06-08 09:28:15

EclipseScalaAndroid

2013-11-19 15:35:01

2009-07-29 17:42:47

ibmdwWeb2.0

2009-08-27 11:53:45

ibmdw云計算

2017-08-09 17:09:47

2011-02-22 10:23:43

2018-12-11 11:41:14

物聯網應用程序IOT

2011-12-06 10:10:59

云計算移動應用

2011-03-31 13:15:18

BlackBerry

2009-09-24 17:21:17

加速Hibernate

2011-07-21 16:19:30

iOS Twitter

2009-07-17 16:09:29

Swing桌面應用程序
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色精品视频 | 欧美三区在线观看 | 精品亚洲一区二区三区 | 亚洲视频一区二区三区四区 | 小视频你懂得 | 午夜精品久久久久久 | 久热精品在线播放 | 久久久久国产精品 | 777zyz色资源站在线观看 | 日本精品久久久久久久 | 欧美视频在线播放 | 男女羞羞免费视频 | 99精品免费久久久久久久久日本 | 久久91精品国产一区二区三区 | 草久久| 亚洲国产成人精品女人久久久 | 亚洲精品视频在线 | 亚洲一区在线观看视频 | 人人九九精| 99综合网 | 伊人一二三| 欧美一级二级三级视频 | 亚洲精品福利视频 | 日韩精品专区在线影院重磅 | 国产精品毛片一区二区在线看 | 欧美激情第一区 | 亚洲精品aⅴ | 国产日韩在线观看一区 | 亚洲视频免费在线看 | 成人av网站在线观看 | 亚洲一区二区三区四区五区午夜 | 亚州av在线 | 国产成人精品免费 | 久久综合久 | 黄色成人免费看 | 欧美高清视频 | 69性欧美高清影院 | 国产成人精品综合 | 欧美1区| 欧美国产中文 | 亚洲成人一区二区三区 |