成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Flink 計算 Pv 和 Uv 的通用方法

網絡 通信技術
計算網站App的實時pv和uv,是很常見的統計需求,這里提供通用的計算方法,不同的業務需求只需要小改即可拿來即用。

[[432405]]

PV(訪問量):即Page View, 即頁面瀏覽量或點擊量,用戶每次刷新即被計算一次。

UV(獨立訪客):即Unique Visitor,訪問您網站的一臺電腦客戶端為一個訪客。00:00-24:00內相同的客戶端只被計算一次。

計算網站App的實時pv和uv,是很常見的統計需求,這里提供通用的計算方法,不同的業務需求只需要小改即可拿來即用。

需求

利用Flink實時統計,從0點到當前的pv、uv。

一、需求分析

從Kafka發送過來的數據含有:時間戳、時間、維度、用戶id,需要從不同維度統計從0點到當前時間的pv和uv,第二天0點重新開始計數第二天的。

二、技術方案

Kafka數據可能會有延遲亂序,這里引入watermark;

通過keyBy分流進不同的滾動window,每個窗口內計算pv、uv;

由于需要保存一天的狀態,process里面使用ValueState保存pv、uv;

使用BitMap類型ValueState,占內存很小,引入支持bitmap的依賴;

保存狀態需要設置ttl過期時間,第二天把第一天的過期,避免內存占用過大。

三、數據準備

這里假設是用戶訂單數據,數據格式如下:

  1. {"time":"2021-10-31 22:00:01","timestamp":"1635228001","product":"蘋果手機","uid":255420} 
  2. {"time":"2021-10-31 22:00:02","timestamp":"1635228001","product":"MacBook Pro","uid":255421} 

四、代碼實現

整個工程代碼截圖如下(抹去了一些不方便公開的信息):

pvuv-project

1. 環境

kafka:1.0.0;

Flink:1.11.0;

2. 發送測試數據

首先發送數據到kafka測試集群,maven依賴:

  1. <dependency> 
  2.     <groupId>org.apache.kafka</groupId> 
  3.     <artifactId>kafka-clients</artifactId> 
  4.     <version>2.4.1</version> 
  5. </dependency> 

2.4.1

 

發送代碼:

  1. import com.alibaba.fastjson.JSON; 
  2. import com.alibaba.fastjson.JSONObject; 
  3. import jodd.util.ThreadUtil; 
  4. import org.apache.commons.lang3.StringUtils; 
  5. import org.junit.Test; 
  6.  
  7. import java.io.*; 
  8.  
  9. public class SendDataToKafka { 
  10.  
  11.     @Test 
  12.     public void sendData() throws IOException { 
  13.         String inpath = "E:\\我的文件\\click.txt"
  14.         String topic = "click_test"
  15.         int cnt = 0; 
  16.         String line; 
  17.         InputStream inputStream = new FileInputStream(inpath); 
  18.         Reader reader = new InputStreamReader(inputStream); 
  19.         LineNumberReader lnr = new LineNumberReader(reader); 
  20.         while ((line = lnr.readLine()) != null) { 
  21.             // 這里的KafkaUtil是個生產者、消費者工具類,可以自行實現 
  22.             KafkaUtil.sendDataToKafka(topic, String.valueOf(cnt), line); 
  23.             cnt = cnt + 1; 
  24.             ThreadUtil.sleep(100); 
  25.         } 
  26.     } 

3. 主要程序

先定義個pojo:

  1. @NoArgsConstructor 
  2. @AllArgsConstructor 
  3. @Data 
  4. @ToString 
  5. public class UserClickModel { 
  6.     private String date
  7.     private String product; 
  8.     private int uid; 
  9.     private int pv; 
  10.     private int uv; 

接著就是使用Flink消費kafka,指定Watermark,通過KeyBy分流,進入滾動窗口函數通過狀態保存pv和uv。

  1. public class UserClickMain { 
  2.  
  3.     private static final Map<String, String> config = Configuration.initConfig("commons.xml"); 
  4.  
  5.     public static void main(String[] args) throws Exception { 
  6.  
  7.         // 初始化環境,配置相關屬性 
  8.         StreamExecutionEnvironment senv = StreamExecutionEnvironment.getExecutionEnvironment(); 
  9.         senv.setStreamTimeCharacteristic(TimeCharacteristic.EventTime); 
  10.         senv.enableCheckpointing(5000, CheckpointingMode.EXACTLY_ONCE); 
  11.         senv.setStateBackend(new FsStateBackend("hdfs://bigdata/flink/checkpoints/userClick")); 
  12.  
  13.         // 讀取kafka 
  14.         Properties kafkaProps = new Properties(); 
  15.         kafkaProps.setProperty("bootstrap.servers", config.get("kafka-ipport")); 
  16.         kafkaProps.setProperty("group.id", config.get("kafka-groupid")); 
  17.         // kafkaProps.setProperty("auto.offset.reset""earliest"); 
  18.  
  19.         // watrmark 允許數據延遲時間 
  20.         long maxOutOfOrderness = 5 * 1000L; 
  21.         SingleOutputStreamOperator<UserClickModel> dataStream = senv.addSource( 
  22.                 new FlinkKafkaConsumer<>( 
  23.                         config.get("kafka-topic"), 
  24.                         new SimpleStringSchema(), 
  25.                         kafkaProps 
  26.                 )) 
  27.                 //設置watermark 
  28.                 .assignTimestampsAndWatermarks(WatermarkStrategy.<String>forBoundedOutOfOrderness(Duration.ofMillis(maxOutOfOrderness)) 
  29.                         .withTimestampAssigner((element, recordTimestamp) -> { 
  30.                             // 時間戳須為毫秒 
  31.                             return Long.valueOf(JSON.parseObject(element).getString("timestamp")) * 1000; 
  32.                         })).map(new FCClickMapFunction()).returns(TypeInformation.of(new TypeHint<UserClickModel>() { 
  33.                 })); 
  34.  
  35.         // 按照 (date, product) 分組 
  36.         dataStream.keyBy(new KeySelector<UserClickModel, Tuple2<String, String>>() { 
  37.             @Override 
  38.             public Tuple2<String, String> getKey(UserClickModel value) throws Exception { 
  39.                 return Tuple2.of(value.getDate(), value.getProduct()); 
  40.             } 
  41.         }) 
  42.                 // 一天為窗口,指定時間起點比時間戳時間早8個小時 
  43.                 .window(TumblingEventTimeWindows.of(Time.days(1), Time.hours(-8))) 
  44.                 // 10s觸發一次計算,更新統計結果 
  45.                 .trigger(ContinuousEventTimeTrigger.of(Time.seconds(10))) 
  46.                 // 計算pv uv 
  47.                 .process(new MyProcessWindowFunctionBitMap()) 
  48.                 // 保存結果到mysql 
  49.                 .addSink(new FCClickSinkFunction()); 
  50.  
  51.         senv.execute(UserClickMain.class.getSimpleName()); 
  52.     } 

代碼都是一些常規代碼,但是還是有幾點需要注意的。

注意

設置watermark,flink1.11中使用WatermarkStrategy,老的已經廢棄了;

我的數據里面時間戳是秒,需要乘以1000,flink提取時間字段,必須為毫秒;

.window只傳入一個參數,表明是滾動窗口,TumblingEventTimeWindows.of(Time.days(1), Time.hours(-8))這里指定了窗口的大小為一天,由于中國北京時間是東8區,比國際時間早8個小時,需要引入offset,可以自行進入該方法源碼查看英文注釋。

Rather than that,if you are living in somewhere which is not using UTC±00:00 time,

* such as China which is using UTC+08:00,and you want a time window with size of one day,

* and window begins at every 00:00:00 of local time,you may use {@code of(Time.days(1),Time.hours(-8))}.

* The parameter of offset is {@code Time.hours(-8))} since UTC+08:00 is 8 hours earlier than UTC time.

一天大小的窗口,根據watermark機制一天觸發計算一次,顯然是不合理的,需要用trigger函數指定觸發間隔為10s一次,這樣我們的pv和uv就是10s更新一次結果。

4. 關鍵代碼,計算uv

由于這里用戶id剛好是數字,可以使用bitmap去重,簡單原理是:把 user_id 作為 bit 的偏移量 offset,設置為 1 表示有訪問,使用 1 MB的空間就可以存放 800 多萬用戶的一天訪問計數情況。

redis是自帶bit數據結構的,不過為了盡量少依賴外部存儲媒介,這里自己實現bit,引入相應maven依賴即可:

  1. <dependency> 
  2.     <groupId>org.roaringbitmap</groupId> 
  3.     <artifactId>RoaringBitmap</artifactId> 
  4.     <version>0.8.0</version> 
  5. </dependency> 

 

計算pv、uv的代碼其實都是通用的,可以根據自己的實際業務情況快速修改的:

  1. public class MyProcessWindowFunctionBitMap extends ProcessWindowFunction<UserClickModel, UserClickModel, Tuple<String, String>, TimeWindow> { 
  2.  
  3.     private transient ValueState<Integer> pvState; 
  4.     private transient ValueState<Roaring64NavigableMap> bitMapState; 
  5.  
  6.     @Override 
  7.     public void open(Configuration parameters) throws Exception { 
  8.         super.open(parameters); 
  9.         ValueStateDescriptor<Integer> pvStateDescriptor = new ValueStateDescriptor<>("pv"Integer.class); 
  10.         ValueStateDescriptor<Roaring64NavigableMap> bitMapStateDescriptor = new ValueStateDescriptor("bitMap" 
  11.                 , TypeInformation.of(new TypeHint<Roaring64NavigableMap>() {})); 
  12.  
  13.         // 過期狀態清除 
  14.         StateTtlConfig stateTtlConfig = StateTtlConfig 
  15.                 .newBuilder(Time.days(1)) 
  16.                 .setUpdateType(StateTtlConfig.UpdateType.OnCreateAndWrite) 
  17.                 .setStateVisibility(StateTtlConfig.StateVisibility.NeverReturnExpired) 
  18.                 .build(); 
  19.         // 開啟ttl 
  20.         pvStateDescriptor.enableTimeToLive(stateTtlConfig); 
  21.         bitMapStateDescriptor.enableTimeToLive(stateTtlConfig); 
  22.  
  23.         pvState = this.getRuntimeContext().getState(pvStateDescriptor); 
  24.         bitMapState = this.getRuntimeContext().getState(bitMapStateDescriptor); 
  25.     } 
  26.  
  27.     @Override 
  28.     public void process(Tuple2<String, String> key, Context context, Iterable<UserClickModel> elements, Collector<UserClickModel> out) throws Exception { 
  29.  
  30.         // 當前狀態的pv uv 
  31.         Integer pv = pvState.value(); 
  32.         Roaring64NavigableMap bitMap = bitMapState.value(); 
  33.         if(bitMap == null){ 
  34.             bitMap = new Roaring64NavigableMap(); 
  35.             pv = 0; 
  36.         } 
  37.  
  38.         Iterator<UserClickModel> iterator = elements.iterator(); 
  39.         while (iterator.hasNext()){ 
  40.             pv = pv + 1; 
  41.             int uid = iterator.next().getUid(); 
  42.             //如果userId可以轉成long 
  43.             bitMap.add(uid); 
  44.         } 
  45.  
  46.         // 更新pv 
  47.         pvState.update(pv); 
  48.  
  49.         UserClickModel UserClickModel = new UserClickModel(); 
  50.         UserClickModel.setDate(key.f0); 
  51.         UserClickModel.setProduct(key.f1); 
  52.         UserClickModel.setPv(pv); 
  53.         UserClickModel.setUv(bitMap.getIntCardinality()); 
  54.  
  55.         out.collect(UserClickModel); 
  56.     } 

注意

由于計算uv第二天的時候,就不需要第一天數據了,要及時清理內存中前一天的狀態,通過ttl機制過期;

最終結果保存到mysql里面,如果數據結果分類聚合太多,要注意mysql壓力,這塊可以自行優化;

五、其它方法

除了使用bitmap去重外,還可以使用Flink SQL,編碼更簡潔,還可以借助外面的媒介Redis去重:

  • 基于 set
  • 基于 bit
  • 基于 HyperLogLog
  • 基于bloomfilter

 

具體思路是,計算pv、uv都塞入redis里面,然后再獲取值保存統計結果,也是比較常用的。

 

責任編輯:武曉燕 來源: 大數據技術派
相關推薦

2021-06-06 13:10:12

FlinkPvUv

2021-06-03 08:10:30

SparkStream項目Uv

2016-10-16 13:48:54

多維分析 UVPV

2025-03-05 08:40:00

RedisJava開發

2019-10-17 09:25:56

Spark StreaPVUV

2019-01-03 10:11:05

服務器PV數量

2015-12-23 17:08:25

H5

2009-10-10 09:27:42

Java泛型通用方法

2024-04-09 07:50:59

Flink語義Watermark

2009-12-23 09:04:41

LINQ通用分頁

2022-08-21 07:25:09

Flink云原生K8S

2024-06-18 11:32:19

2009-07-02 15:12:39

2022-02-09 15:23:41

大數據流計算Spark

2022-04-14 10:24:27

分布式系統性能

2021-07-29 10:47:51

Flink on Ze流計算

2021-03-10 08:22:47

FlinktopN計算

2009-07-02 11:29:22

JSP技術表單數據存儲

2024-10-06 12:50:25

2017-11-21 15:50:09

FlinkStorm性能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩免费av一区二区 | 欧洲精品久久久久毛片完整版 | 人人看人人干 | 成人欧美一区二区三区黑人孕妇 | 亚洲国产成人精品女人久久久 | 国产成人精品一区二区三 | 拍真实国产伦偷精品 | 久久亚洲国产精品日日av夜夜 | 亚洲免费精品一区 | 天堂av影院| 一区二区国产精品 | 欧美一级二级视频 | 国产乱码精品一区二区三区五月婷 | 亚洲人成在线观看 | 久久久久亚洲 | 北条麻妃一区二区三区在线视频 | 欧美成人一级视频 | 亚洲视频一区在线播放 | 九九在线视频 | 在线免费黄色小视频 | 成人国产精品久久久 | 四虎网站在线观看 | 久久久久国产精品午夜一区 | 亚洲天堂久久 | 视频三区| 欧美男人天堂 | 日韩av一区二区在线 | 国产一区二区三区在线视频 | 国产精品久久久久久久久久免费看 | 国产精品不卡一区 | 99热视 | www,黄色,com | 黄色毛片在线观看 | 国产视频二区 | 操操日| 精精国产xxxx视频在线播放7 | 欧美11一13sex性hd | 成人毛片网站 | 国产精品欧美一区二区三区不卡 | av日韩在线播放 | 在线播放一区二区三区 |