成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

SparkStreaming項目實戰,實時計算Pv和Uv

大數據 Spark
日志數據從flume采集過來,落到hdfs供其它離線業務使用,也會sink到kafka,sparkStreaming從kafka拉數據過來,計算pv,uv,uv是用的redis的set集合去重,最后把結果寫入mysql數據庫,供前端展示使用。

[[403404]]

本文轉載自微信公眾號「Java大數據與數據倉庫」,作者柯少爺。轉載本文請聯系Java大數據與數據倉庫公眾號。

最近有個需求,實時統計pv,uv,結果按照date,hour,pv,uv來展示,按天統計,第二天重新統計,當然了實際還需要按照類型字段分類統計pv,uv,比如按照date,hour,pv,uv,type來展示。這里介紹最基本的pv,uv的展示。

id uv pv date hour
1 155599 306053 2018-07-27 18

關于什么是pv,uv,可以參見這篇博客:https://blog.csdn.net/petermsh/article/details/78652246

1、項目流程

日志數據從flume采集過來,落到hdfs供其它離線業務使用,也會sink到kafka,sparkStreaming從kafka拉數據過來,計算pv,uv,uv是用的redis的set集合去重,最后把結果寫入mysql數據庫,供前端展示使用。

2、具體過程

1)pv的計算

拉取數據有兩種方式,基于received和direct方式,這里用direct直拉的方式,用的mapWithState算子保存狀態,這個算子與updateStateByKey一樣,并且性能更好。當然了實際中數據過來需要經過清洗,過濾,才能使用。

定義一個狀態函數

  1. // 實時流量狀態更新函數 
  2.   val mapFunction = (datehour:String, pv:Option[Long], state:State[Long]) => { 
  3.     val accuSum = pv.getOrElse(0L) + state.getOption().getOrElse(0L) 
  4.     val output = (datehour,accuSum) 
  5.     state.update(accuSum) 
  6.     output 
  7.   } 

這樣就很容易的把pv計算出來了。

2)uv的計算

uv是要全天去重的,每次進來一個batch的數據,如果用原生的reduceByKey或者groupByKey對配置要求太高,在配置較低情況下,我們申請了一個93G的redis用來去重,原理是每進來一條數據,將date作為key,guid加入set集合,20秒刷新一次,也就是將set集合的尺寸取出來,更新一下數據庫即可。

  1. helper_data.foreachRDD(rdd => { 
  2.         rdd.foreachPartition(eachPartition => { 
  3.         // 獲取redis連接 
  4.           val jedis = getJedis 
  5.           eachPartition.foreach(x => { 
  6.             // 省略若干... 
  7.             jedis.sadd(key,x._2) 
  8.             // 設置存儲每天的數據的set過期時間,防止超過redis容量,這樣每天的set集合,定期會被自動刪除 
  9.             jedis.expire(key,ConfigFactory.rediskeyexists) 
  10.           }) 
  11.           // 關閉連接 
  12.           closeJedis(jedis) 
  13.         }) 
  14.       }) 

3)結果保存到數據庫

結果保存到mysql,數據庫,10秒刷新一次數據庫,前端展示刷新一次,就會重新查詢一次數據庫,做到實時統計展示pv,uv的目的。

  1. /** 
  2.  * 插入數據 
  3.     * @param data (addTab(datehour)+helperversion) 
  4.     * @param tbName 
  5.     * @param colNames 
  6.     */ 
  7.   def insertHelper(data: DStream[(String, Long)], tbName: String, colNames: String*): Unit = { 
  8.     data.foreachRDD(rdd => { 
  9.       val tmp_rdd = rdd.map(x => x._1.substring(11, 13).toInt) 
  10.       if (!rdd.isEmpty()) { 
  11.         val hour_now = tmp_rdd.max() // 獲取當前結果中最大的時間,在數據恢復中可以起作用 
  12.         rdd.foreachPartition(eachPartition => { 
  13.           try { 
  14.             val jedis = getJedis 
  15.             val conn = MysqlPoolUtil.getConnection() 
  16.             conn.setAutoCommit(false
  17.             val stmt = conn.createStatement() 
  18.             eachPartition.foreach(x => { 
  19.               // val sql = .... 
  20.               // 省略若干 
  21.               stmt.addBatch(sql) 
  22.             }) 
  23.             closeJedis(jedis) 
  24.             stmt.executeBatch() // 批量執行sql語句 
  25.             conn.commit() 
  26.             conn.close() 
  27.           } catch { 
  28.             case e: Exception => { 
  29.               logger.error(e) 
  30.               logger2.error(HelperHandle.getClass.getSimpleName + e) 
  31.             } 
  32.           } 
  33.         }) 
  34.       } 
  35.     }) 
  36.   } 
  37.    
  38. // 計算當前時間距離次日零點的時長(毫秒) 
  39. def resetTime = { 
  40.     val now = new Date() 
  41.     val todayEnd = Calendar.getInstance 
  42.     todayEnd.set(Calendar.HOUR_OF_DAY, 23) // Calendar.HOUR 12小時制 
  43.     todayEnd.set(Calendar.MINUTE, 59) 
  44.     todayEnd.set(Calendar.SECOND, 59) 
  45.     todayEnd.set(Calendar.MILLISECOND, 999) 
  46.     todayEnd.getTimeInMillis - now.getTime 
  47.  } 

4)數據容錯

流處理消費kafka都會考慮到數據丟失問題,一般可以保存到任何存儲系統,包括mysql,hdfs,hbase,redis,zookeeper等到。這里用SparkStreaming自帶的checkpoint機制來實現應用重啟時數據恢復。

checkpoint

這里采用的是checkpoint機制,在重啟或者失敗后重啟可以直接讀取上次沒有完成的任務,從kafka對應offset讀取數據。

  1. // 初始化配置文件 
  2. ConfigFactory.initConfig() 
  3.  
  4. val conf = new SparkConf().setAppName(ConfigFactory.sparkstreamname) 
  5. conf.set("spark.streaming.stopGracefullyOnShutdown","true"
  6. conf.set("spark.streaming.kafka.maxRatePerPartition",consumeRate) 
  7. conf.set("spark.default.parallelism","24"
  8. val sc = new SparkContext(conf) 
  9.  
  10. while (true){ 
  11.  val ssc = StreamingContext.getOrCreate(ConfigFactory.checkpointdir + DateUtil.getDay(0),getStreamingContext _ ) 
  12.     ssc.start() 
  13.     ssc.awaitTerminationOrTimeout(resetTime) 
  14.     ssc.stop(false,true

checkpoint是每天一個目錄,在第二天凌晨定時銷毀StreamingContext對象,重新統計計算pv,uv。

注意:ssc.stop(false,true)表示優雅地銷毀StreamingContext對象,不能銷毀SparkContext對象,ssc.stop(true,true)會停掉SparkContext對象,程序就直接停了。

應用遷移或者程序升級

在這個過程中,我們把應用升級了一下,比如說某個功能寫的不夠完善,或者有邏輯錯誤,這時候都是需要修改代碼,重新打jar包的,這時候如果把程序停了,新的應用還是會讀取老的checkpoint,可能會有兩個問題:

執行的還是上一次的程序,因為checkpoint里面也有序列化的代碼;

直接執行失敗,反序列化失敗;

其實有時候,修改代碼后不用刪除checkpoint也是可以直接生效,經過很多測試,我發現如果對數據的過濾操作導致數據過濾邏輯改變,還有狀態操作保存修改,也會導致重啟失敗,只有刪除checkpoint才行,可是實際中一旦刪除checkpoint,就會導致上一次未完成的任務和消費kafka的offset丟失,直接導致數據丟失,這種情況下我一般這么做。

這種情況一般是在另外一個集群,或者把checkpoint目錄修改下,我們是代碼與配置文件分離,所以修改配置文件checkpoint的位置還是很方便的。然后兩個程序一起跑,除了checkpoint目錄不一樣,會重新建,都插入同一個數據庫,跑一段時間后,把舊的程序停掉就好。以前看官網這么說,只能記住不能清楚明了,只有自己做時才會想一下辦法去保證數據準確。

5)保存offset到mysql

如果保存offset到mysql,就可以將pv, uv和offset作為一條語句保存到mysql,從而可以保證exactly-once語義。

  1. var messages: InputDStream[ConsumerRecord[String, String]] = null 
  2.       if (tpMap.nonEmpty) { 
  3.         messages = KafkaUtils.createDirectStream[String, String]( 
  4.           ssc 
  5.           , LocationStrategies.PreferConsistent 
  6.           , ConsumerStrategies.Subscribe[String, String](topics, kafkaParams, tpMap.toMap) 
  7.         ) 
  8.       } else { 
  9.  
  10.         messages = KafkaUtils.createDirectStream[String, String]( 
  11.           ssc 
  12.           , LocationStrategies.PreferConsistent 
  13.           , ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) 
  14.         ) 
  15.       } 
  16.  
  17.        
  18.       messages.foreachRDD(rdd => { 
  19.           .... 
  20. }) 

從mysql讀取offset并且解析:

  1. /** 
  2.     * 從mysql查詢offset 
  3.     * 
  4.     * @param tbName 
  5.     * @return 
  6.     */ 
  7.   def getLastOffsets(tbName: String): mutable.HashMap[TopicPartition, Long] = { 
  8.     val sql = s"select offset from ${tbName} where id = (select max(id) from ${tbName})" 
  9.     val conn = MysqlPool.getConnection(config) 
  10.     val psts = conn.prepareStatement(sql) 
  11.     val res = psts.executeQuery() 
  12.     var tpMap: mutable.HashMap[TopicPartition, Long] = mutable.HashMap[TopicPartition, Long]() 
  13.     while (res.next()) { 
  14.       val o = res.getString(1) 
  15.       val jSONArray = JSON.parseArray(o) 
  16.       jSONArray.toArray().foreach(offset => { 
  17.         val json = JSON.parseObject(offset.toString) 
  18.         val topicAndPartition = new TopicPartition(json.getString("topic"), json.getInteger("partition")) 
  19.         tpMap.put(topicAndPartition, json.getLong("untilOffset")) 
  20.       }) 
  21.     } 
  22.     MysqlPool.closeCon(res, psts, conn) 
  23.     tpMap 

6)日志

日志用的log4j2,本地保存一份,ERROR級別的日志會通過郵件發送到手機,如果錯誤太多也會被郵件轟炸,需要注意。

  1. val logger = LogManager.getLogger(HelperHandle.getClass.getSimpleName) 
  2.   // 郵件level=error日志 
  3.   val logger2 = LogManager.getLogger("email"

 

責任編輯:武曉燕 來源: Java大數據與數據倉庫
相關推薦

2021-06-06 13:10:12

FlinkPvUv

2021-11-01 13:11:45

FlinkPvUv

2022-12-29 09:13:02

實時計算平臺

2015-07-31 10:35:18

實時計算

2021-03-10 08:22:47

FlinktopN計算

2015-08-31 14:27:52

2025-03-05 08:40:00

RedisJava開發

2019-11-21 09:49:29

架構運維技術

2017-09-26 09:35:22

2015-10-09 13:42:26

hbase實時計算

2013-08-04 21:02:59

實時計算存儲阿里巴巴和仲

2019-10-17 09:25:56

Spark StreaPVUV

2016-10-16 13:48:54

多維分析 UVPV

2019-02-18 15:23:21

馬蜂窩MESLambda

2021-07-05 10:48:42

大數據實時計算

2021-07-16 10:55:45

數倉一體Flink SQL

2016-11-02 09:02:56

交通大數據計算

2011-10-28 09:05:09

2021-03-10 14:04:10

大數據計算技術

2017-01-15 13:45:20

Docker大數據京東
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日本精品一区二区 | 亚洲一区二区在线播放 | 日韩av一区二区在线观看 | 成人午夜精品 | 国产1区2区3区 | 亚洲欧美日韩精品 | 中文字幕在线一区二区三区 | 成人在线精品 | 欧美日韩中文字幕 | 九久久 | 久久一区二区视频 | 福利社午夜影院 | 日韩一区二区三区在线视频 | 久久99视频精品 | 成人h免费观看视频 | 美女久久久| 日本在线视频一区二区 | 成人在线观看免费视频 | 搞黄视频免费看 | 国产精品久久久久久久久久久久久 | 毛片网在线观看 | 午夜日韩 | 天天躁天天操 | 久久综合久久综合久久 | 日韩欧美三区 | 亚洲精品欧美一区二区三区 | 91高清视频在线观看 | 日本三级全黄三级三级三级口周 | 亚洲欧美中文日韩在线v日本 | 国产成人久久精品一区二区三区 | 99精品在线观看 | 精品国产一区二区三区成人影院 | 欧美日韩中文在线 | 中文字幕av免费 | 亚洲人在线播放 | 天天操,夜夜爽 | 国产91丝袜在线播放 | 岛国精品| 国产毛片久久久久久久久春天 | 成人区精品一区二区婷婷 | 欧美激情在线一区二区三区 |