成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Spark入門:Spark Streaming 概覽

大數據 Spark
Spark Streaming是Spark API的一個可橫向擴容,高吞吐量,容錯的實時數據流處理引擎,Spark能夠從Kafka、Flume、Kinesis或者TCP等等輸入獲取數據,然后能夠使用復雜的計算表達式如map,reduce,join和window對數據進行計算。

[[199875]]

概覽

Spark Streaming是Spark API的一個可橫向擴容,高吞吐量,容錯的實時數據流處理引擎,Spark能夠從Kafka、Flume、Kinesis或者TCP等等輸入獲取數據,然后能夠使用復雜的計算表達式如map,reduce,join和window對數據進行計算。計算完后的數據能夠被推送到文件系統,數據庫,和實時的儀表盤。另外,你也可以使用Spark ML和圖計算處理實時數據流。

Spark Streaming接受到了實時數據后,把它們分批進行切割,然后再交給Spark進行數據的批量處理。

Spark Streaming對離散化的數據流提供了高級別的抽象DStream,所有進入的數據流都會被處理為DStreams,在內部,DStream是一個順序排列的RDD。

快速起步

***個實例是如何從TCP輸入中計算單詞出現的次數

首先,我們創建一個JavaStreamingContext對象,它是所有Streaming函數的主入口,再創建一個帶有2個線程的StreamingContext對象,每1秒進行一次批處理。

  1. import org.apache.spark.*; 
  2. import org.apache.spark.api.java.function.*; 
  3. import org.apache.spark.streaming.*; 
  4. import org.apache.spark.streaming.api.java.*; 
  5. import scala.Tuple2; 
  6.  
  7. SparkConf conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount"); 
  8. JavaStreamingContext jssc = new JavaStreamingContext(conf, Durations.seconds(1)); 

創建一個偵聽本地9999的TCP數據源

  1. JavaReceiverInputDStream<String> lines = jssc.socketTextStream("localhost", 9999); 

我們把接受到的數據按照空格進行切割

  1. JavaDStream<String> words = lines.flatMap(x -> Arrays.asList(x.split(" ")).iterator()); 

對單詞進行統計

  1. JavaPairDStream<String, Integer> pairs = words.mapToPair(s -> new Tuple2<>(s, 1)); 
  2. JavaPairDStream<String, Integer> wordCounts = pairs.reduceByKey((i1, i2) -> i1 + i2);  
  3. wordCounts.print(); 

把字符串拍扁->映射->進行去重統計,***調用print函數把數據打印到控制臺中

  1. jssc.start();              // Start the computation 
  2. jssc.awaitTermination();   // Wait for the computation to terminate 

***,啟動整個計算過程

為了完成這次實驗,還需要使用nc作為Server進行配合

  1. nc -lk 9999 

Spark提供了示例,可以使用 ./bin/run-example streaming.JavaNetworkWordCount localhost 9999 來體驗WordCount

責任編輯:武曉燕 來源: oschina博客
相關推薦

2017-06-06 08:31:10

Spark Strea計算模型監控

2017-10-13 10:36:33

SparkSpark-Strea關系

2016-12-19 14:35:32

Spark Strea原理剖析數據

2018-04-09 12:25:11

2016-05-11 10:29:54

Spark Strea數據清理Spark

2016-01-28 10:11:30

Spark StreaSpark大數據平臺

2019-10-17 09:25:56

Spark StreaPVUV

2023-10-24 20:32:40

大數據

2021-08-20 16:37:42

SparkSpark Strea

2017-09-26 09:35:22

2019-12-13 08:25:26

FlinkSpark Strea流數據

2021-07-09 10:27:12

SparkStreaming系統

2017-10-11 11:10:02

Spark Strea大數據流式處理

2017-06-27 15:08:05

大數據Apache SparKafka Strea

2016-03-02 11:23:34

Spark 1.6.0開源大數據技術

2016-03-03 15:11:42

Spark Strea工作流調度器

2018-04-18 08:54:28

RDD內存Spark

2021-03-15 14:02:21

大數據數據開發Spark

2016-08-19 08:50:12

SparkWordCountreduceByKey

2022-06-24 08:00:00

編程工具數據結構開發
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 免费精品 | 婷婷在线视频 | 日韩欧美三区 | 国产日产精品一区二区三区四区 | 亚洲va国产日韩欧美精品色婷婷 | 国产欧美日韩在线 | 日本高清不卡视频 | 精品国产一区二区在线 | 国产精品成人久久久久 | 91免费看片 | 国产在线小视频 | 一二区电影 | 国产精品国产精品国产专区不卡 | 精品欧美在线观看 | 久久精品国产v日韩v亚洲 | 91精品国产色综合久久不卡98口 | 欧美国产亚洲一区二区 | 欧美精品一区二区三区在线播放 | 一级黄色片美国 | 欧美区日韩区 | 久久久久久久综合色一本 | 精品在线免费看 | 黄色片大全在线观看 | 国产视频在线观看一区二区三区 | 日韩91| 国产在线视频一区 | 在线成人 | 国产午夜精品一区二区三区四区 | 免费午夜剧场 | 久久在线 | 在线观看特色大片免费网站 | 黄色免费观看 | 欧美一二区 | 久久99久久99久久 | 日韩精品久久一区二区三区 | 午夜视频一区二区三区 | 日韩1区 | 国产精品一区二区久久久久 | 亚洲欧美在线免费观看 | 九九免费 | 欧美日韩国产一区二区 |