package com.atguigu.app.dws;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.JSONObject;
import com.atguigu.bean.UserLoginBean;
import com.atguigu.utils.DateFormatUtil;
import com.atguigu.utils.KafkaUtil;
import com.atguigu.utils.MyClickHouseUtil;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.api.common.functions.RichFlatMapFunction;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.java.functions.KeySelector;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.windowing.AllWindowFunction;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
import org.apache.flink.util.Collector;

import java.time.Duration;

/*
10.4 用户域用户登录各窗口汇总表
10.4.1 主要任务
从 Kafka 页面日志主题读取数据，统计七日回流（回归）用户和当日独立用户数。
10.4.2 思路分析
之前的活跃用户，一段时间未活跃（流失），今日又活跃了，就称为回流用户。此处要求统计回流用户总数。
规定当日登录，且自上次登录之后至少 7 日未登录的用户为回流用户。

 */
public class Dws04UserUserLoginWindow {
    public static void main(String[] args) throws Exception {
        //todo 1.创建环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        //todo 生产环境一定要写，测试注释掉，否则每次测试都得开hdfs
//        需要从checkpoint或savepoint启动程序
//        //2.1 开启checkpoint，每隔5s钟做一次ck，并指定ck的一致性语义
//        env.enableCheckpointing(3000L, CheckpointingMode.EXACTLY_ONCE);//exactly once：默认barrier对齐
//        //2.2 设置超时时间为1min
//        env.getCheckpointConfig().setCheckpointTimeout(60*1000L);//设置超时时间设置checkpoint的超时时间为1min，是指做一次checkpoint的时间；如果超时则认为本次checkpoint失败，这个checkpoint就丢了，继续一下一次checkpoint即可
//        //2.3设置两次重启的最小时间间隔为3s
//        env.getCheckpointConfig().setMinPauseBetweenCheckpoints(3000L);
//        //2.4设置任务关闭的时候保留最后一次ck数据
//        env.getCheckpointConfig().enableExternalizedCheckpoints(
//                CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION
//        );
//        //2.5 指定从ck自动重启策略
//        env.setRestartStrategy(RestartStrategies.failureRateRestart(
//                3, Time.days(1L),Time.minutes(1L)
//        ));
//        //2.6 设置状态后端
//        env.setStateBackend(new HashMapStateBackend());//本地状态位置
//        env.getCheckpointConfig().setCheckpointStorage(
//                "hdfs://hadoop102:8020/flinkCDC/220828"
//        );//checkpoint状态位置
//        //2.7 设置访问HDFS的用户名
//        System.setProperty("HADOOP_USER_NAME","atguigu");

        //todo 2.读取kafka dwd层页面日志数据，并将过滤出登录用户，并数据转为jsonObject
        SingleOutputStreamOperator<JSONObject> pageJsonObjDS = env.addSource(KafkaUtil.getFlinkKafkaConsumer("dwd_traffic_page_log", "userlogin_220828"))
                .flatMap(new FlatMapFunction<String, JSONObject>() {
                    @Override
                    public void flatMap(String value, Collector<JSONObject> out) throws Exception {
                        JSONObject jsonObject = JSON.parseObject(value);
//                        统计独立用户数，所以要过滤出登录的用户，uid一定不为null，但是uid不为null不一定是登录的用户，只有
//                        统计的指标与用户有关，uid 不为 null 的数据才是有用的。此外，登录分为两种情况：
//                        （1）用户打开应用后自动登录；(则last_page_id为null)
//                        （2）用户打开应用后没有登录，浏览部分页面后跳转到登录页面，中途登录。（则last_page_id为登录页面）
                        String uid = jsonObject.getJSONObject("common").getString("uid");
                        String lastPageId = jsonObject.getJSONObject("page").getString("last_page_id");
                        if(uid != null && (lastPageId==null || "login".equals(lastPageId))){
                            out.collect(jsonObject);
                        }
                        
                    }
                });

        //todo 3.提取事件时间生成watermark
        SingleOutputStreamOperator<JSONObject> jsonObjWithWMDS= pageJsonObjDS.assignTimestampsAndWatermarks(
                WatermarkStrategy
                        .<JSONObject>forBoundedOutOfOrderness(Duration.ofSeconds(2))
                        .withTimestampAssigner(new SerializableTimestampAssigner<JSONObject>() {
                            @Override
                            public long extractTimestamp(JSONObject element, long recordTimestamp) {

                                return element.getLong("ts");
                            }
                        })
        );
        
        //todo 4.按照uid分组
        KeyedStream<JSONObject, String> keyByMidStream = jsonObjWithWMDS.keyBy(new KeySelector<JSONObject, String>() {
            @Override
            public String getKey(JSONObject value) throws Exception {
                return value.getJSONObject("common").getString("uid");
            }
        });
        
        //todo 5.判断独立用户以及回流用户并转为javabean
        SingleOutputStreamOperator<UserLoginBean> userLoginDS = keyByMidStream.flatMap(new RichFlatMapFunction<JSONObject, UserLoginBean>() {

            //定义登录状态
            private ValueState<String> lastLoginDtState;

            @Override
            public void open(Configuration parameters) throws Exception {
                lastLoginDtState = getRuntimeContext().getState(new ValueStateDescriptor<String>("login-state", String.class));
            }

            @Override
            public void flatMap(JSONObject value, Collector<UserLoginBean> out) throws Exception {
                //获取上一次登录日期状态和当前日期
                String lastLoginDt = lastLoginDtState.value();
                String curDt = DateFormatUtil.toDate(value.getLong("ts"));

                //定义变量
                long uv = 0L;//表示是否是独立用户
                long back = 0L;//表示是否是回流用户

                if (lastLoginDt == null) {
                    //说明一定是当天独立用户,不可能是回流用户
                    uv = 1L;
                    lastLoginDtState.update(curDt);

                } else if (!curDt.equals(lastLoginDt)) {
                    //lastLoginDt不为null，且状态与今天不相等，说明这条数据一定是今天的独立用户,是否是回流用户需要进一步判断
                    uv = 1L;
                    lastLoginDtState.update(curDt);
                    if ((DateFormatUtil.toTs(curDt, false) - DateFormatUtil.toTs(lastLoginDt, false)) / (24 * 3600 * 1000) > 7) {
                        back = 1L;
                    }

                }

                if (uv == 1L) {
                    out.collect(new UserLoginBean(
                            "",
                            "",
                            back,
                            uv,
                            null
                    ));
                }

            }
        });


        //todo 6.开窗聚合
        SingleOutputStreamOperator<UserLoginBean> resultDS = userLoginDS.windowAll(TumblingEventTimeWindows.of(Time.seconds(10)))
                .reduce(new ReduceFunction<UserLoginBean>() {
                    @Override
                    //todo 注意！！！如果是滑动窗口，不能返回value1，需要return new对象，如果返回value1，数据所属的几个窗口都会指向一个地址
                    public UserLoginBean reduce(UserLoginBean value1, UserLoginBean value2) throws Exception {
                        value1.setUuCt(value1.getUuCt() + value2.getUuCt());
                        value1.setBackCt(value1.getBackCt() + value2.getBackCt());
                        return value1;
                    }
                }, new AllWindowFunction<UserLoginBean, UserLoginBean, TimeWindow>() {
                    @Override
                    public void apply(TimeWindow window, Iterable<UserLoginBean> values, Collector<UserLoginBean> out) throws Exception {
                        for (UserLoginBean value : values) {//实际上迭代器里只有一条，不用遍历
                            value.setStt(DateFormatUtil.toYmdHms(window.getStart()));
                            value.setEdt(DateFormatUtil.toYmdHms(window.getEnd()));
                            value.setTs(System.currentTimeMillis());
                            out.collect(value);
                        }

                    }
                });
        resultDS.print("即将写到clickhouse的数据");

        //todo 7.将数据写到clickhouse
        resultDS.addSink(MyClickHouseUtil.getSinkFunction("insert into dws_user_user_login_window values(?,?,?,?,?)"));

        //todo 8.启动任务
        env.execute();




    }
}
