成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Flink與Spark Streaming誰的拳頭更硬

大數據 Spark
流數據(或數據流)是指在時間分布和數量上無限的一系列動態數據集合體,數據的價值隨著時間的流逝而降低,因此必須實時計算給出秒級響應。流式計算,顧名思義,就是對數據流進行處理,是實時計算。

 前言

流數據(或數據流)是指在時間分布和數量上無限的一系列動態數據集合體,數據的價值隨著時間的流逝而降低,因此必須實時計算給出秒級響應。流式計算,顧名思義,就是對數據流進行處理,是實時計算。

[[285452]]

架構對比

生態

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

運行模型

Spark Streaming 是微批處理,運行的時候需要指定批處理的時間,每次運行 job 時處理一個批次的數據

Flink 是基于事件驅動的,事件可以理解為消息。事件驅動的應用程序是一種狀態應用程序,它會從一個或者多個流中注入事件,通過觸發計算更新狀態,或外部動作對注入的事件作出反應。

運行角色

Spark Streaming 運行時的角色(standalone 模式)主要有:

Master:主要負責整體集群資源的管理和應用程序調度;

Worker:負責單個節點的資源管理,driver 和 executor 的啟動等;

Driver:用戶入口程序執行的地方,即 SparkContext 執行的地方,主要是 DAG 生成、stage 劃分、task 生成及調度;

Executor:負責執行 task,反饋執行狀態和執行結果。

Flink 運行時的角色(standalone 模式)主要有:

Jobmanager: 協調分布式執行,他們調度任務、協調 checkpoints、協調故障恢復等。至少有一個 JobManager。高可用情況下可以啟動多個 JobManager,其中一個選舉為 leader,其余為 standby;

Taskmanager: 負責執行具體的 tasks、緩存、交換數據流,至少有一個 TaskManager;

Slot: 每個 task slot 代表 TaskManager 的一個固定部分資源,Slot 的個數代表著 taskmanager 可并行執行的 task 數。

編程模型對比

編程模型對比,主要是對比 flink 和 Spark Streaming 兩者在代碼編寫上的區別。

Spark Streaming

Spark Streaming 與 kafka 的結合主要是兩種模型:

  • 基于 receiver dstream;
  • 基于 direct dstream。

以上兩種模型編程機構近似,只是在 api 和內部數據獲取有些區別,新版本的已經取消了基于 receiver 這種模式,企業中通常采用基于 direct Dstream 的模式。

  1. val Array(brokers, topics) = args// 創建一個批處理時間是2s的context  
  2.  val sparkConf = new SparkConf().setAppName("DirectKafkaWordCount")  
  3.  val ssc = new StreamingContext(sparkConf, Seconds(2))  
  4.  // 使用broker和topic創建DirectStream  
  5.  val topicsSet = topics.split(",").toSet  
  6.  val kafkaParams = Map[String, String]("metadata.broker.list" -> brokers)  
  7.  val messages = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, ConsumerStrategies.Subscribe[String, String](topicsSet, kafkaParams))  
  8.  // Get the lines, split them into words, count the words and print  
  9.  val lines = messages.map(_.value)  
  10.  val words = lines.flatMap(_.split(" "))  
  11.  val wordCounts = words.map(x => (x, 1L)).reduceByKey(_ + _)  
  12.  wordCounts.print() // 啟動流  
  13.  ssc.start()  
  14.  ssc.awaitTermination() 

通過以上代碼我們可以 get 到:

  • 設置批處理時間
  • 創建數據流
  • 編寫transform
  • 編寫action
  • 啟動執行

Flink

接下來看 flink 與 kafka 結合是如何編寫代碼的。Flink 與 kafka 結合是事件驅動,大家可能對此會有疑問,消費 kafka 的數據調用 poll 的時候是批量獲取數據的(可以設置批處理大小和超時時間),這就不能叫做事件觸發了。而實際上,flink 內部對 poll 出來的數據進行了整理,然后逐條 emit,形成了事件觸發的機制。 下面的代碼是 flink 整合 kafka 作為 data source 和 data sink:

  1. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); 
  2.  env.getConfig().disableSysoutLogging(); 
  3.  env.getConfig().setRestartStrategy(RestartStrategies.fixedDelayRestart(4, 10000)); 
  4.  env.enableCheckpointing(5000); // create a checkpoint every 5 seconds 
  5.  env.getConfig().setGlobalJobParameters(parameterTool); // make parameters available in the web interface 
  6.  env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);  
  7.  // ExecutionConfig.GlobalJobParameters 
  8.  env.getConfig().setGlobalJobParameters(null); DataStream<KafkaEvent> input = env 
  9.  .addSource( new FlinkKafkaConsumer010<>( 
  10.  parameterTool.getRequired("input-topic"), new KafkaEventSchema(), 
  11.  parameterTool.getProperties()) 
  12.  .assignTimestampsAndWatermarks(new CustomWatermarkExtractor())).setParallelism(1).rebalance() 
  13.  .keyBy("word"
  14.  .map(new RollingAdditionMapper()).setParallelism(0); 
  15.   
  16.  input.addSink( new FlinkKafkaProducer010<>( 
  17.  parameterTool.getRequired("output-topic"), new KafkaEventSchema(), 
  18.  parameterTool.getProperties())); 
  19.   
  20.  env.execute("Kafka 0.10 Example"); 

從 Flink 與 kafka 結合的代碼可以 get 到:

  • 注冊數據 source
  • 編寫運行邏輯
  • 注冊數據 sink

調用 env.execute 相比于 Spark Streaming 少了設置批處理時間,還有一個顯著的區別是 flink 的所有算子都是 lazy 形式的,調用 env.execute 會構建 jobgraph。client 端負責 Jobgraph 生成并提交它到集群運行;而 Spark Streaming的操作算子分 action 和 transform,其中僅有 transform 是 lazy 形式,而且 DAG 生成、stage 劃分、任務調度是在 driver 端進行的,在 client 模式下 driver 運行于客戶端處。

任務調度原理

Spark 任務調度

Spark Streaming 任務如上文提到的是基于微批處理的,實際上每個批次都是一個 Spark Core 的任務。對于編碼完成的 Spark Core 任務在生成到最終執行結束主要包括以下幾個部分:

  • 構建 DAG 圖;
  • 劃分 stage;
  • 生成 taskset;
  • 調度 task。

具體可參考圖 5:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

對于 job 的調度執行有 fifo 和 fair 兩種模式,Task 是根據數據本地性調度執行的。 假設每個 Spark Streaming 任務消費的 kafka topic 有四個分區,中間有一個 transform操作(如 map)和一個 reduce 操作,如圖 6 所示:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

假設有兩個 executor,其中每個 executor 三個核,那么每個批次相應的 task 運行位置是固定的嗎?是否能預測? 由于數據本地性和調度不確定性,每個批次對應 kafka 分區生成的 task 運行位置并不是固定的。

Flink 任務調度

對于 flink 的流任務客戶端首先會生成 StreamGraph,接著生成 JobGraph,然后將 jobGraph 提交給 Jobmanager 由它完成 jobGraph 到 ExecutionGraph 的轉變,最后由 jobManager 調度執行。

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

如圖 7 所示有一個由 data source、MapFunction和 ReduceFunction 組成的程序,data source 和 MapFunction 的并發度都為 4,而 ReduceFunction 的并發度為 3。一個數據流由 Source-Map-Reduce 的順序組成,在具有 2 個TaskManager、每個 TaskManager 都有 3 個 Task Slot 的集群上運行。

可以看出 flink 的拓撲生成提交執行之后,除非故障,否則拓撲部件執行位置不變,并行度由每一個算子并行度決定,類似于 storm。而 spark Streaming 是每個批次都會根據數據本地性和資源情況進行調度,無固定的執行拓撲結構。 flink 是數據在拓撲結構里流動執行,而 Spark Streaming 則是對數據緩存批次并行處理。

時間機制對比

流處理的時間

流處理程序在時間概念上總共有三個時間概念:

  • 處理時間

處理時間是指每臺機器的系統時間,當流程序采用處理時間時將使用運行各個運算符實例的機器時間。處理時間是最簡單的時間概念,不需要流和機器之間的協調,它能提供最好的性能和最低延遲。然而在分布式和異步環境中,處理時間不能提供消息事件的時序性保證,因為它受到消息傳輸延遲,消息在算子之間流動的速度等方面制約。

  • 事件時間

事件時間是指事件在其設備上發生的時間,這個時間在事件進入 flink 之前已經嵌入事件,然后 flink 可以提取該時間。基于事件時間進行處理的流程序可以保證事件在處理的時候的順序性,但是基于事件時間的應用程序必須要結合 watermark 機制?;谑录r間的處理往往有一定的滯后性,因為它需要等待后續事件和處理無序事件,對于時間敏感的應用使用的時候要慎重考慮。

  • 注入時間

注入時間是事件注入到 flink 的時間。事件在 source 算子處獲取 source 的當前時間作為事件注入時間,后續的基于時間的處理算子會使用該時間處理數據。

相比于事件時間,注入時間不能夠處理無序事件或者滯后事件,但是應用程序無序指定如何生成 watermark。在內部注入時間程序的處理和事件時間類似,但是時間戳分配和 watermark 生成都是自動的。

圖 8 可以清晰地看出三種時間的區別:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

Spark 時間機制

Spark Streaming 只支持處理時間,Structured streaming 支持處理時間和事件時間,同時支持 watermark 機制處理滯后數據。

Flink 時間機制

flink 支持三種時間機制:事件時間,注入時間,處理時間,同時支持 watermark 機制處理滯后數據。

kafka 動態分區檢測

Spark Streaming

對于有實時處理業務需求的企業,隨著業務增長數據量也會同步增長,將導致原有的 kafka 分區數不滿足數據寫入所需的并發度,需要擴展 kafka 的分區或者增加 kafka 的 topic,這時就要求實時處理程序,如 SparkStreaming、flink 能檢測到 kafka 新增的 topic 、分區及消費新增分區的數據。

接下來結合源碼分析,Spark Streaming 和 flink 在 kafka 新增 topic 或 partition 時能否動態發現新增分區并消費處理新增分區的數據。 Spark Streaming 與 kafka 結合有兩個區別比較大的版本,如圖 9 所示是官網給出的對比數據:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

其中確認的是 Spark Streaming 與 kafka 0.8 版本結合不支持動態分區檢測,與 0.10 版本結合支持,接著通過源碼分析。

Spark Streaming 與 kafka 0.8 版本結合

*源碼分析只針對分區檢測

入口是 DirectKafkaInputDStream 的 compute:

  1. override def compute(validTime: Time): Option[KafkaRDD[K, V, U, T, R]] = {// 改行代碼會計算這個job,要消費的每個kafka分區的最大偏移 
  2.  val untilOffsets = clamp(latestLeaderOffsets(maxRetries))// 構建KafkaRDD,用指定的分區數和要消費的offset范圍 
  3.  val rdd = KafkaRDD[K, V, U, T, R]( 
  4.  context.sparkContext, kafkaParams, currentOffsets, untilOffsets, messageHandler) // Report the record number and metadata of this batch interval to InputInfoTracker. 
  5.  val offsetRanges = currentOffsets.map { case (tp, fo) => 
  6.  val uo = untilOffsets(tp) OffsetRange(tp.topic, tp.partition, fo, uo.offset) 
  7.  } val description = offsetRanges.filter { offsetRange => 
  8.  // Don't display empty ranges. 
  9.  offsetRange.fromOffset != offsetRange.untilOffset 
  10.  }.map { offsetRange => 
  11.  s"topic: ${offsetRange.topic}\tpartition: ${offsetRange.partition}\t" + 
  12.  s"offsets: ${offsetRange.fromOffset} to ${offsetRange.untilOffset}" 
  13.  }.mkString("\n") // Copy offsetRanges to immutable.List to prevent from being modified by the user 
  14.  val metadata = Map( "offsets" -> offsetRanges.toList, StreamInputInfo.METADATA_KEY_DESCRIPTION -> description) val inputInfo = StreamInputInfo(id, rdd.count, metadata) 
  15.  ssc.scheduler.inputInfoTracker.reportInfo(validTime, inputInfo) 
  16.  
  17.  currentOffsets = untilOffsets.map(kv => kv._1 -> kv._2.offset) Some(rdd) 
  18.  } 

第一行就是計算得到該批次生成 KafkaRDD 每個分區要消費的最大 offset。 接著看 latestLeaderOffsets(maxRetries)

  1. @tailrec protected final def latestLeaderOffsets(retries: Int): Map[TopicAndPartition, LeaderOffset] = {// 可以看到的是用來指定獲取最大偏移分區的列表還是只有currentOffsets,沒有發現關于新增的分區的內容。 
  2.  val o = kc.getLatestLeaderOffsets(currentOffsets.keySet) // Either.fold would confuse @tailrec, do it manually 
  3.  if (o.isLeft) { val err = o.left.get.toString if (retries <= 0) { throw new SparkException(err) 
  4.  } else { 
  5.  logError(err) Thread.sleep(kc.config.refreshLeaderBackoffMs) 
  6.  latestLeaderOffsets(retries - 1) 
  7.  } 
  8.  } else { 
  9.  o.right.get 
  10.  } 
  11.  } 

其中 protected var currentOffsets = fromOffsets,這個僅僅是在構建 DirectKafkaInputDStream 的時候初始化,并在 compute 里面更新:

  1. currentOffsets = untilOffsets.map(kv => kv._1 -> kv._2.offset) 

中間沒有檢測 kafka 新增 topic 或者分區的代碼,所以可以確認 Spark Streaming 與 kafka 0.8 的版本結合不支持動態分區檢測。

Spark Streaming 與 kafka 0.10 版本結合

入口同樣是 DirectKafkaInputDStream 的 compute 方法,撿主要的部分說,Compute 里第一行也是計算當前 job 生成 kafkardd 要消費的每個分區的最大 offset:

// 獲取當前生成job,要用到的KafkaRDD每個分區最大消費偏移值 val untilOffsets = clamp(latestOffsets())

具體檢測 kafka 新增 topic 或者分區的代碼在 latestOffsets()

  1. /**  
  2. Returns the latest (highest) available offsets, taking new partitions into account. */ 
  3.  protected def latestOffsets(): Map[TopicPartition, Long] = { val c = consumer 
  4.  paranoidPoll(c) // 獲取所有的分區信息 
  5.  val parts = c.assignment().asScala // make sure new partitions are reflected in currentOffsets 
  6.  // 做差獲取新增的分區信息 
  7.  val newPartitions = parts.diff(currentOffsets.keySet) // position for new partitions determined by auto.offset.reset if no commit 
  8.  // 新分區消費位置,沒有記錄的化是由auto.offset.reset決定 
  9.  currentOffsets = currentOffsets ++ newPartitions.map(tp => tp -> c.position(tp)).toMap // don't want to consume messages, so pause 
  10.  c.pause(newPartitions.asJava) // find latest available offsets 
  11.  c.seekToEnd(currentOffsets.keySet.asJava) 
  12.  parts.map(tp => tp -> c.position(tp)).toMap 
  13.  } 

該方法內有獲取 kafka 新增分區,并將其更新到 currentOffsets 的過程,所以可以驗證 Spark Streaming 與 kafka 0.10 版本結合支持動態分區檢測。

Flink

入口類是 FlinkKafkaConsumerBase,該類是所有 flink 的 kafka 消費者的父類。

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

在 FlinkKafkaConsumerBase 的 run 方法中,創建了 kafkaFetcher,實際上就是消費者:

  1. this.kafkaFetcher = createFetcher( 
  2.  sourceContext, 
  3.  subscribedPartitionsToStartOffsets, 
  4.  periodicWatermarkAssigner, 
  5.  punctuatedWatermarkAssigner, 
  6.  (StreamingRuntimeContext) getRuntimeContext(), 
  7.  offsetCommitMode, 
  8.  getRuntimeContext().getMetricGroup().addGroup(KAFKA_CONSUMER_METRICS_GROUP), 
  9.  useMetrics); 

接是創建了一個線程,該線程會定期檢測 kafka 新增分區,然后將其添加到 kafkaFetcher 里。

  1. if (discoveryIntervalMillis != PARTITION_DISCOVERY_DISABLED) { final AtomicReference<Exception> discoveryLoopErrorRef = new AtomicReference<>(); this.discoveryLoopThread = new Thread(new Runnable() { @Override 
  2.  public void run() { try { // --------------------- partition discovery loop --------------------- 
  3.  
  4.  List<KafkaTopicPartition> discoveredPartitions; // throughout the loop, we always eagerly check if we are still running before 
  5.  // performing the next operation, so that we can escape the loop as soon as possible 
  6.  
  7.  while (running) { if (LOG.isDebugEnabled()) { LOG.debug("Consumer subtask {} is trying to discover new partitions ...", getRuntimeContext().getIndexOfThisSubtask()); 
  8.  } try { 
  9.  discoveredPartitions = partitionDiscoverer.discoverPartitions(); 
  10.  } catch (AbstractPartitionDiscoverer.WakeupException | AbstractPartitionDiscoverer.ClosedException e) { // the partition discoverer may have been closed or woken up before or during the discovery; 
  11.  // this would only happen if the consumer was canceled; simply escape the loop 
  12.  break; 
  13.  } // no need to add the discovered partitions if we were closed during the meantime 
  14.  if (running && !discoveredPartitions.isEmpty()) { 
  15.  kafkaFetcher.addDiscoveredPartitions(discoveredPartitions); 
  16.  } // do not waste any time sleeping if we're not running anymore 
  17.  if (running && discoveryIntervalMillis != 0) { try { Thread.sleep(discoveryIntervalMillis); 
  18.  } catch (InterruptedException iex) { // may be interrupted if the consumer was canceled midway; simply escape the loop 
  19.  break; 
  20.  } 
  21.  } 
  22.  } 
  23.  } catch (Exception e) { 
  24.  discoveryLoopErrorRef.set(e); 
  25.  } finally { // calling cancel will also let the fetcher loop escape 
  26.  // (if not running, cancel() was already called) 
  27.  if (running) { 
  28.  cancel(); 
  29.  } 
  30.  } 
  31.  } 
  32.  }, "Kafka Partition Discovery for " + getRuntimeContext().getTaskNameWithSubtasks()); 
  33.  
  34.  discoveryLoopThread.start(); 
  35.  kafkaFetcher.runFetchLoop(); 

上面,就是 flink 動態發現 kafka 新增分區的過程。不過與 Spark 無需做任何配置不同的是,flink 動態發現 kafka 新增分區,這個功能需要被使能的。也很簡單,需要將 flink.partition-discovery.interval-millis 該屬性設置為大于 0 即可。

容錯機制及處理語義

本節內容主要是想對比兩者在故障恢復及如何保證僅一次的處理語義。這個時候適合拋出一個問題:實時處理的時候,如何保證數據僅一次處理語義?

Spark Streaming 保證僅一次處理

對于 Spark Streaming 任務,我們可以設置 checkpoint,然后假如發生故障并重啟,我們可以從上次 checkpoint 之處恢復,但是這個行為只能使得數據不丟失,可能會重復處理,不能做到恰一次處理語義。

對于 Spark Streaming 與 kafka 結合的 direct Stream 可以自己維護 offset 到 zookeeper、kafka 或任何其它外部系統,每次提交完結果之后再提交 offset,這樣故障恢復重啟可以利用上次提交的 offset 恢復,保證數據不丟失。但是假如故障發生在提交結果之后、提交 offset 之前會導致數據多次處理,這個時候我們需要保證處理結果多次輸出不影響正常的業務。

由此可以分析,假設要保證數據恰一次處理語義,那么結果輸出和 offset 提交必須在一個事務內完成。在這里有以下兩種做法:

  • repartition(1) Spark Streaming 輸出的 action 變成僅一個 partition,這樣可以利用事務去做:
  1. Dstream.foreachRDD(rdd=>{ 
  2.  rdd.repartition(1).foreachPartition(partition=>{ // 開啟事務 
  3.  partition.foreach(each=>{// 提交數據 
  4.  }) // 提交事務 
  5.  }) 
  6.  }) 
  • 將結果和 offset 一起提交

也就是結果數據包含 offset。這樣提交結果和提交 offset 就是一個操作完成,不會數據丟失,也不會重復處理。故障恢復的時候可以利用上次提交結果帶的 offset。

Flink 與 kafka 0.11 保證僅一次處理

若要 sink 支持僅一次語義,必須以事務的方式寫數據到 Kafka,這樣當提交事務時兩次 checkpoint 間的所有寫入操作作為一個事務被提交。這確保了出現故障或崩潰時這些寫入操作能夠被回滾。

在一個分布式且含有多個并發執行 sink 的應用中,僅僅執行單次提交或回滾是不夠的,因為所有組件都必須對這些提交或回滾達成共識,這樣才能保證得到一致性的結果。Flink 使用兩階段提交協議以及預提交(pre-commit)階段來解決這個問題。

本例中的 Flink 應用如圖 11 所示包含以下組件:

  • 一個source,從Kafka中讀取數據(即KafkaConsumer)
  • 一個時間窗口化的聚會操作
  • 一個sink,將結果寫回到Kafka(即KafkaProducer)

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

下面詳細講解 flink 的兩段提交思路:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

如圖 12 所示,Flink checkpointing 開始時便進入到 pre-commit 階段。具體來說,一旦 checkpoint 開始,Flink 的 JobManager 向輸入流中寫入一個 checkpoint barrier ,將流中所有消息分割成屬于本次 checkpoint 的消息以及屬于下次 checkpoint 的,barrier 也會在操作算子間流轉。對于每個 operator 來說,該 barrier 會觸發 operator 狀態后端為該 operator 狀態打快照。data source 保存了 Kafka 的 offset,之后把 checkpoint barrier 傳遞到后續的 operator。

這種方式僅適用于 operator 僅有它的內部狀態。內部狀態是指 Flink state backends 保存和管理的內容(如第二個 operator 中 window 聚合算出來的 sum)。

當一個進程僅有它的內部狀態的時候,除了在 checkpoint 之前將需要將數據更改寫入到 state backend,不需要在預提交階段做其他的動作。在 checkpoint 成功的時候,Flink 會正確的提交這些寫入,在 checkpoint 失敗的時候會終止提交,過程可見圖 13。

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

當結合外部系統的時候,外部系統必須要支持可與兩階段提交協議捆綁使用的事務。顯然本例中的 sink 由于引入了 kafka sink,因此在預提交階段 data sink 必須預提交外部事務。如下圖:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

當 barrier 在所有的算子中傳遞一遍,并且觸發的快照寫入完成,預提交階段完成。所有的觸發狀態快照都被視為 checkpoint 的一部分,也可以說 checkpoint 是整個應用程序的狀態快照,包括預提交外部狀態。出現故障可以從 checkpoint 恢復。下一步就是通知所有的操作算子 checkpoint 成功。該階段 jobmanager 會為每個 operator 發起 checkpoint 已完成的回調邏輯。

本例中 data source 和窗口操作無外部狀態,因此該階段,這兩個算子無需執行任何邏輯,但是 data sink 是有外部狀態的,因此,此時我們必須提交外部事務,如下圖:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

以上就是 flink 實現恰一次處理的基本邏輯。

Back pressure

消費者消費的速度低于生產者生產的速度,為了使應用正常,消費者會反饋給生產者來調節生產者生產的速度,以使得消費者需要多少,生產者生產多少。

*back pressure 后面一律稱為背壓。

Spark Streaming 的背壓

Spark Streaming 跟 kafka 結合是存在背壓機制的,目標是根據當前 job 的處理情況來調節后續批次的獲取 kafka 消息的條數。為了達到這個目的,Spark Streaming 在原有的架構上加入了一個 RateController,利用的算法是 PID,需要的反饋數據是任務處理的結束時間、調度時間、處理時間、消息條數,這些數據是通過 SparkListener 體系獲得,然后通過 PIDRateEsimator 的 compute 計算得到一個速率,進而可以計算得到一個 offset,然后跟限速設置最大消費條數比較得到一個最終要消費的消息最大 offset。

PIDRateEsimator 的 compute 方法如下:

  1. def compute( time: Long, // in milliseconds 
  2.  numElements: Long, processingDelay: Long, // in milliseconds 
  3.  schedulingDelay: Long // in milliseconds 
  4.  ): Option[Double] = { 
  5.  logTrace(s"\ntime = $time, # records = $numElements, " + 
  6.  s"processing time = $processingDelay, scheduling delay = $schedulingDelay") this.synchronized { if (time > latestTime && numElements > 0 && processingDelay > 0) { val delaySinceUpdate = (time - latestTime).toDouble / 1000 
  7.  
  8.  val processingRate = numElements.toDouble / processingDelay * 1000 
  9.  
  10.  val error = latestRate - processingRate val historicalError = schedulingDelay.toDouble * processingRate / batchIntervalMillis // in elements/(second ^ 2) 
  11.  val dError = (error - latestError) / delaySinceUpdate val newRate = (latestRate - proportional * error - 
  12.  integral * historicalError - 
  13.  derivative * dError).max(minRate) 
  14.  logTrace(s""" | latestRate = $latestRate, error = $error | latestError = $latestError, historicalError = $historicalError | delaySinceUpdate = $delaySinceUpdate, dError = $dError """.stripMargin) 
  15.  
  16.  latestTime = time if (firstRun) { 
  17.  latestRate = processingRate 
  18.  latestError = 0D 
  19.  firstRun = false 
  20.  logTrace("First run, rate estimation skipped") None 
  21.  } else { 
  22.  latestRate = newRate 
  23.  latestError = error 
  24.  logTrace(s"New rate = $newRate"Some(newRate) 
  25.  } 
  26.  } else { 
  27.  logTrace("Rate estimation skipped") None 
  28.  } 
  29.  } 
  30.  } 

Flink 的背壓

與 Spark Streaming 的背壓不同的是,Flink 背壓是 jobmanager 針對每一個 task 每 50ms 觸發 100 次 Thread.getStackTrace() 調用,求出阻塞的占比。過程如圖 16 所示:

 

關于流式計算:Flink與Spark Streaming誰的拳頭更硬

 

阻塞占比在 web 上劃分了三個等級:

  • OK: 0 <= Ratio <= 0.10,表示狀態良好;
  • LOW: 0.10 < Ratio <= 0.5,表示有待觀察;
  • HIGH: 0.5 < Ratio <= 1,表示要處理了。

 

責任編輯:武曉燕 來源: 今日頭條
相關推薦

2016-01-28 10:11:30

Spark StreaSpark大數據平臺

2023-10-24 20:32:40

大數據

2017-10-13 10:36:33

SparkSpark-Strea關系

2017-08-14 10:30:13

SparkSpark Strea擴容

2017-06-06 08:31:10

Spark Strea計算模型監控

2016-12-19 14:35:32

Spark Strea原理剖析數據

2010-04-23 22:06:13

機房監控軟件Mocha BSM摩卡軟件

2018-04-09 12:25:11

2017-10-11 11:10:02

Spark Strea大數據流式處理

2015-11-03 16:59:54

SaaS

2022-09-16 14:22:16

KafkaPulsar

2016-05-11 10:29:54

Spark Strea數據清理Spark

2014-12-15 09:32:17

StormSpark

2013-05-31 10:07:59

大數據時代電影產業

2021-08-20 16:37:42

SparkSpark Strea

2011-07-12 09:18:39

2019-03-01 09:36:25

ReactAngular開發

2018-10-24 09:00:26

KafkaSpark數據

2015-03-12 16:38:52

思科交換機惠普

2022-05-23 09:11:18

AngularBlazor前端
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 美女激情av | 成人免费毛片片v | 亚洲不卡av在线 | 欧美一区二区三区一在线观看 | 国产精品久久久久久久久久久新郎 | 国产精品毛片一区二区三区 | 99精品在线观看 | 黄色成人av | 精品视频在线观看 | 成人性视频免费网站 | 精品成人一区二区 | 日韩不卡一区二区 | 免费视频99 | 中文在线视频 | 欧美久久久网站 | 亚洲精色 | 四虎在线播放 | 99久久久久国产精品免费 | 欧美激情综合网 | 精品美女在线观看 | 国产激情精品一区二区三区 | 日日干夜夜干 | 久色 | 精品国产精品三级精品av网址 | 欧美激情亚洲 | 日韩在线精品视频 | 精品国产一区二区三区久久影院 | 久久99精品国产自在现线小黄鸭 | 亚洲精品一级 | 成人一区二区在线 | 欧美日韩综合一区 | avav在线看 | 天堂亚洲 | 国产一区二区三区精品久久久 | 精品久久久久久久 | 色综合视频 | 精品国产免费一区二区三区五区 | 国产精品久久久久久久久久久久午夜片 | 精品综合久久久 | 国产激情视频在线 | 嫩草视频免费 |