package com.atguigu.app.dws;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.JSONObject;
import com.atguigu.bean.TrafficPageViewBean;
import com.atguigu.utils.DateFormatUtil;
import com.atguigu.utils.KafkaUtil;
import com.atguigu.utils.MyClickHouseUtil;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.api.common.state.StateTtlConfig;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.common.time.Time;
import org.apache.flink.api.java.functions.KeySelector;
import org.apache.flink.api.java.tuple.Tuple4;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.datastream.WindowedStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.windowing.WindowFunction;
import org.apache.flink.streaming.api.windowing.assigners.SlidingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
import org.apache.flink.table.api.bridge.java.StreamTableEnvironment;
import org.apache.flink.util.Collector;

//数据流:web/app -> logfile -> flume -> kafka(ODS) -> FlinkApp -> Kafka(DWD)->flinkApp->clickhouse(DWS)
//程 序：Mock -> logfile -> f1.sh -> Kafka(ZK) -> BaseLogApp -> Kafka(ZK)->DwsTrafficKeywordPageViewWindow->clickhouse(zk)
/*
10.2 流量域版本-渠道-地区-访客类别粒度页面浏览各窗口汇总表
10.2.1 主要任务
DWS 层是为 ADS 层服务的，通过对指标体系的分析，本节汇总表中需要有会话数、页面浏览数、浏览总时长和独立访客数四个度量字段。
本节的任务是统计这四个指标，并将维度和度量数据写入 ClickHouse 汇总表
//测试：滑动窗口
//todo 1.获取执行环境
//todo 2.读取页面日志主题数据创建流
//todo 3.转换数据为json对象
//todo 4.将数据按照mid进行分组(独立访客要求去重，所以要按照mid分组)
//todo 5.计算各个度量值，转换为javabean
//todo 6.提取事件时间生成watermark
//todo 7.分组开窗聚合
//todo 8.将数据写出到clickhouse
//todo 9.启动任务
 */
public class Dws02TrafficVcChArIsNewPageViewWindow2 {
    public static void main(String[] args) throws Exception {
        //todo 1.获取执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);

        //todo 生产环境一定要写，测试注释掉，否则每次测试都得开hdfs
//        需要从checkpoint或savepoint启动程序
//        //2.1 开启checkpoint，每隔5s钟做一次ck，并指定ck的一致性语义
//        env.enableCheckpointing(3000L, CheckpointingMode.EXACTLY_ONCE);//exactly once：默认barrier对齐
//        //2.2 设置超时时间为1min
//        env.getCheckpointConfig().setCheckpointTimeout(60*1000L);//设置超时时间设置checkpoint的超时时间为1min，是指做一次checkpoint的时间；如果超时则认为本次checkpoint失败，这个checkpoint就丢了，继续一下一次checkpoint即可
//        //2.3设置两次重启的最小时间间隔为3s
//        env.getCheckpointConfig().setMinPauseBetweenCheckpoints(3000L);
//        //2.4设置任务关闭的时候保留最后一次ck数据
//        env.getCheckpointConfig().enableExternalizedCheckpoints(
//                CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION
//        );
//        //2.5 指定从ck自动重启策略
//        env.setRestartStrategy(RestartStrategies.failureRateRestart(
//                3, Time.days(1L),Time.minutes(1L)
//        ));
//        //2.6 设置状态后端
//        env.setStateBackend(new HashMapStateBackend());//本地状态位置
//        env.getCheckpointConfig().setCheckpointStorage(
//                "hdfs://hadoop102:8020/flinkCDC/220828"
//        );//checkpoint状态位置
//        //2.7 设置访问HDFS的用户名
//        System.setProperty("HADOOP_USER_NAME","atguigu");

        //todo 2.读取页面日志主题数据创建流
        String topic = "dwd_traffic_page_log";
        String groupId ="vccharisnew_page_view_220828";

        DataStreamSource<String> kafkaDS = env.addSource(KafkaUtil.getFlinkKafkaConsumer(topic, groupId));

        //todo 3.转换数据为json对象
        SingleOutputStreamOperator<JSONObject> jsonObjDS = kafkaDS.map(line -> JSON.parseObject(line));

        //todo 4.将数据按照mid进行分组(因为要对每条数据是否是独立访客进行判断，打标记，所以要将相同的mid分到一个组里，才能判断是否是独立访客)独立访客：当天的第一次访问
        KeyedStream<JSONObject, String> keyedByMidStream = jsonObjDS.keyBy(json -> json.getJSONObject("common").getString("mid"));

        //todo 5.计算各个度量值，转换为javabean
        SingleOutputStreamOperator<TrafficPageViewBean> mapStream = keyedByMidStream.map(new RichMapFunction<JSONObject, TrafficPageViewBean>() {

            private ValueState<String> lastVisitState;

            @Override
            public void open(Configuration parameters) throws Exception {
                ValueStateDescriptor<String> stateDescriptor = new ValueStateDescriptor<>("last-visit", String.class);

                //todo 设置状态ttl过期时间为24h，并且状态一旦被更新，就刷新（重置）状态时间为24h-------------------------------------
                //设置状态时间的目的是：例如12-01有一条数据刷新了状态，但是隔了很多天才来第二条数据，那么就浪费了内存开销

                StateTtlConfig ttlConfig = new StateTtlConfig.Builder(Time.days(1))
                        //状态保留24h，因为lastDt == null和lastDt.compareTo(curDt) < 0走的逻辑是一样的，
                        // 但是会有一点问题，就是如果2-1 9：00的状态，第二天8：00和10：00都来了数据，那么由于9：00状态为null，
                        // 10：00会输出为1，就不对了，8：00要重置一下状态时间为24h（状态续命，这样10：00才能根据这个状态输出为0）
                        .setUpdateType(StateTtlConfig.UpdateType.OnCreateAndWrite)
                        .build();
                stateDescriptor.enableTimeToLive(ttlConfig);//todo 将ttl配置设置到stateDescriptor让lastVisitState状态生效-------------------
                lastVisitState = getRuntimeContext().getState(stateDescriptor);


            }

            @Override
            public TrafficPageViewBean map(JSONObject value) throws Exception {
                //获取状态数据
                String lastDt = lastVisitState.value();//获取上一次访问的日期

                //获取当前数据中的ts并将其转换为日期
                Long ts = value.getLong("ts");
                String curDt = DateFormatUtil.toDate(ts);

                //获取数据中的last_page_id
                JSONObject page = value.getJSONObject("page");
                String lastPageId = page.getString("last_page_id");

                //获取ar地区


                //todo 定义uv变量（独立访客）
                long uvCt = 0L;//0表示不是今天首次登录
//                if(lastDt == null || !lastDt.equals(curDt)){
                if (lastDt == null || lastDt.compareTo(curDt) < 0) {//防止凌晨29 30 29乱序
                    //lastDt == null说明之前都没有登录过，今天是首次登录
                    //!lastDt.equals(curDt)：上一次登录日期不是今天，说明这是访客今天首次登录
                    uvCt = 1L;//1表示今天首次登录
                    lastVisitState.update(curDt);
                }

                //todo 定义会话数
                long svCt = 0L;
                if (lastPageId == null) {
                    svCt = 1L;//lastPageId == null;说明现在开启一个新的会话
                }

                //获取数据中的last_page_id
                JSONObject common = value.getJSONObject("common");
                return new TrafficPageViewBean(
                        "",
                        "",
                        common.getString("vc"),
                        common.getString("ch"),
                        common.getString("ar"),
                        common.getString("is_new"),
                        uvCt,//独立访客数
                        svCt,//会话数
                        1L,//PV:网页浏览量：来一条数据，进一个1就可以了
                        page.getLong("during_time"),
                        ts);//ts要保留，用来提取事件时间的
            }
        });


        //todo 6.提取事件时间生成watermark
        SingleOutputStreamOperator<TrafficPageViewBean> trafficPageViewWithWMDS = mapStream.assignTimestampsAndWatermarks(WatermarkStrategy
                .<TrafficPageViewBean>forMonotonousTimestamps()
                .withTimestampAssigner(new SerializableTimestampAssigner<TrafficPageViewBean>() {
                    @Override
                    public long extractTimestamp(TrafficPageViewBean element, long recordTimestamp) {
                        return element.getTs();
                    }
                }));




        //todo 7.分组开窗聚合
        WindowedStream<TrafficPageViewBean, Tuple4<String, String, String, String>, TimeWindow> windowDS = trafficPageViewWithWMDS.keyBy(new KeySelector<TrafficPageViewBean, Tuple4<String, String, String, String>>() {
            @Override
            public Tuple4<String, String, String, String> getKey(TrafficPageViewBean value) throws Exception {
                return new Tuple4<>(
                        value.getAr(),
                        value.getCh(),
                        value.getIsNew(),
                        value.getVc()//顺序没有要求
                );//版本-渠道-地区-访客类别组成tuple4的key
            }
        })
                .window(SlidingEventTimeWindows.of(org.apache.flink.streaming.api.windowing.time.Time.seconds(10), org.apache.flink.streaming.api.windowing.time.Time.seconds(5)));//10s的窗口

        //增量聚合函数：刚开始用增量聚合函数，来一条聚合一条，当要输出了，将增量聚合的最终结果（一条数据）再放到windowFunction里面加工
        SingleOutputStreamOperator<TrafficPageViewBean> resultDS = windowDS.reduce(new ReduceFunction<TrafficPageViewBean>() {
            /**
             *
             * @param value1 上次聚合的结果
             * @param value2 当前数据
             * @return
             * @throws Exception
             */
            @Override
            public TrafficPageViewBean reduce(TrafficPageViewBean value1, TrafficPageViewBean value2) throws Exception {
                TrafficPageViewBean trafficPageViewBean = new TrafficPageViewBean();
                trafficPageViewBean.setPvCt(value1.getPvCt() + value2.getPvCt());//网页浏览量
                trafficPageViewBean.setDurSum(value1.getDurSum() + value2.getDurSum());//浏览总时长
                trafficPageViewBean.setUvCt(value1.getUvCt() + value2.getUvCt());//独立访客数
                trafficPageViewBean.setSvCt(value1.getSvCt() + value2.getSvCt());//会话数


                return trafficPageViewBean;// 此时的ts是窗口内第一条数据的ts，因为value1是最后条数据，但是value2也就是上一次因为return的是value1是第一条的的数据，因为我们未对ts作任何处理
            }
        }, new WindowFunction<TrafficPageViewBean, TrafficPageViewBean, Tuple4<String, String, String, String>, TimeWindow>() {
            @Override
            public void apply(Tuple4<String, String, String, String> key, TimeWindow window, Iterable<TrafficPageViewBean> input, Collector<TrafficPageViewBean> out) throws Exception {

                //todo 获取数据(input即为增量聚合的结果，有且只有一条，所以无需遍历，直接取出即可，不放心的话也可遍历)
                TrafficPageViewBean next = input.iterator().next();

                //todo 补充属性信息（例如：窗口开始时间和结束时间以及ts）
                next.setStt(DateFormatUtil.toYmdHms(window.getStart()));//将窗口开始时间转化为年月日时分秒，clickhouse建表时用的datetime
                next.setEdt(DateFormatUtil.toYmdHms(window.getEnd()));

                //todo 将结果的处理时间放到ts属性里，clickhouse版本需要，此时，不影响上面的事件时间，因为这已经是窗口增量聚合后的结果
                next.setTs(System.currentTimeMillis());//也可以不赋值，不赋值的话返回的是窗口内第一条来的数据的ts


                //todo 输出数据
                System.out.println("next:"+next);
                out.collect(next);
            }
        });


        resultDS.print("即将写到clickhouse的数据");

        //todo 8.将数据写出到clickhouse
        resultDS.addSink(MyClickHouseUtil.getSinkFunction("insert into dws_traffic_vc_ch_ar_is_new_page_view_window values(?,?,?,?,?,?,?,?,?,?,?)"));

        //todo 9.启动任务
        env.execute("Dws02TrafficVcChArIsNewPageViewWindow");

    }
}
