package com.fwmagic.flink.window;

import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.tuple.Tuple;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.TimeCharacteristic;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.datastream.WindowedStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.timestamps.BoundedOutOfOrdernessTimestampExtractor;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.api.windowing.windows.TimeWindow;

public class EventTimeSlidlingWindowOfSingleSource {
    public static void main(String[] args) throws Exception{
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(4);

        //时间设置为EventTime
        env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);

        /**
         * 提取数据中的时间，转为Long类型的时间戳，当作EventTime
         * 仅仅是提取时间，不会改变数据
         *
         * WaterMark 是Flink中窗口延迟触发的机制
         * WaterMark = 数据所携带的时间(窗口中最大时间) - 延迟执行的时间
         * WaterMark >= 上一个窗口的结束边界就会触发窗口执行
         *
         * Time.seconds(2)时：
         * 数据：
         * 1000,a,1
         * 1998,a,1
         * 1999,b,1
         * 2222,c,1
         * 2999,b,1
         * 4000,a,1 #触发1
         * 5999,a,1 #触发2
         * 8000,e,1 #触发3
         * 结果：
         * #触发1
         * 3> (a,2)
         * 1> (b,1)
         * #触发2
         * 1> (b,2)
         * 3> (a,2)
         * 2> (c,1)
         * #触发3
         * 1> (b,2)
         * 3> (a,4)
         * 2> (c,1)
         *
         * */
        SingleOutputStreamOperator<String> dataSource = env.socketTextStream("localhost", 8888)
                .assignTimestampsAndWatermarks(new BoundedOutOfOrdernessTimestampExtractor<String>(Time.seconds(2)) {
            @Override
            public long extractTimestamp(String line) {
                String[] fields = line.split(",");
                return Long.parseLong(fields[0]);
            }
        });

        /**
         * Time.seconds(0)时：
         * 数据：
         * 1000,spark,1
         * 1998,spark,2
         * 1999,flink,1 #触发1
         * 2000,spark,3
         * 3998,spark,10
         * 3999,spark,10 #触发2
         * 结果：
         * 触发1
         * 1> (spark,3)
         * 4> (flink,1)
         * 触发2
         * 4> (flink,1)
         * 1> (spark,26)
         *
         * 因为我们设置的滑动时间是(6s,2s),flink会将时间划分区间[0,1999),[2,3999),第一个区间触发的时间是0-1999ms,统计最近6s的数据
         * 结论：
         *  并发度为1的source(socketSource)只有一个分区，在这个分区中，只要有一组数据在一个分区中满足条件，其他组的数据也会被统计打印出来。
         *
         *  并发度为多个的source(KafkaSource)时,因为kafka的topic有多个分区，每个分区都要满足时间触发条件，任务才会被触发，时间才会被打印出来。这样
         *  也有个弊端：就是基于EventTime的数据，在一段时间内不产生数据了，那么，最后一批数据有可能就一直不被触发，出现数据漏统计的情况！
         */
        SingleOutputStreamOperator<Tuple2<String, Integer>> maped = dataSource.map(new MapFunction<String, Tuple2<String, Integer>>() {
            @Override
            public Tuple2<String, Integer> map(String value) throws Exception {
                String[] arr = value.split(",");
                return Tuple2.of(arr[1], Integer.parseInt(arr[2]));
            }
        });

        //分组
        KeyedStream<Tuple2<String, Integer>, Tuple> keyed = maped.keyBy(0);

        //每2s统计一次最近6s的窗口数据，统计数据的是基于EventTime(事件时间)的
        WindowedStream<Tuple2<String, Integer>, Tuple, TimeWindow> window = keyed.timeWindow(Time.seconds(6),Time.seconds(2));
//        WindowedStream<Tuple2<String, Integer>, Tuple, TimeWindow> window = keyed.window(TumblingEventTimeWindows.of(Time.seconds(6),Time.seconds(2)));

        //计数
        SingleOutputStreamOperator<Tuple2<String, Integer>> sumed = window.sum(1);

        sumed.print();

        env.execute("EventTimeSlidlingWindowOfSingleSource");
    }
}
