package com.yanxu;

import com.yanxu.domain.Event;
import com.yanxu.source.CustomSource;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;

import java.time.Duration;

/**
 * @author 折戟沉沙铁未销
 * @version V1.0
 * @date 2025/7/27-2025
 * @Description: 这里用一句话描述这个类的作用
 */
public class Api15_TumblingWindowReduceSample {
    public static void main(String[] args) throws Exception {
        //获取执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        //数据源 source
        DataStreamSource<Event> dataSource = env.addSource(new CustomSource());
        // 定义水位线、时间戳设置
        SingleOutputStreamOperator<Event> operator = dataSource.assignTimestampsAndWatermarks(
                //为了掩饰的效果，这里的水位线延迟，就直接设置成了0
                //生产环境中，应该根据业务数据的延迟情况进行设置
                WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ZERO)
                        .withTimestampAssigner(new SerializableTimestampAssigner<Event>() {
                            @Override
                            public long extractTimestamp(Event event, long recordTimestamp) {
                                return event.getTimestamp();
                            }
                        })

        );

        // 使用map 进行转换算子处理
        SingleOutputStreamOperator<Tuple2<String, Long>> mapOperator = operator.map(new MapFunction<Event, Tuple2<String, Long>>() {
            @Override
            public Tuple2<String, Long> map(Event event) throws Exception {
                return new Tuple2<>(event.getName(), 1L);
            }
        });

        // 进行分区操作
        KeyedStream<Tuple2<String, Long>, String> keyedStream = mapOperator.keyBy(r -> r.f0);

        // 时间窗口处理、规约聚合处理
        keyedStream
            // window 时间窗口处理
            .window(TumblingEventTimeWindows.of(Time.seconds(5)))
            //.sum("f1")
            // 进行规约聚合
            .reduce(new ReduceFunction<Tuple2<String, Long>>() {
                @Override
                public Tuple2<String, Long> reduce(Tuple2<String, Long> value1, Tuple2<String, Long> value2) throws Exception {
                    return Tuple2.of(value1.f0, value1.f1 + value2.f1);
                }
            })
            .print("tumbling 滚动时间窗口处理 >>>>> ");

        env.execute();
    }


    /*
    * 这里使用了 reduce 规约聚合进行处理。
    * 实现的效果，其实最终是和 sum() 聚合操作是一样的。
    *   但是，不要被这个例子迷惑了，我们仅仅是实现了和 sum 相同的效果，
    *       我们在这里使用了 value1.f1 + value2.f1 ，实现了sum 的效果
    *       其实，我们是可以实现不同的效果的。比如，我们完全可以使用 value1.f1 * value2.f1 进行计算啊!!!
    *   最终要的核心是： reduce函数有2个参数，
    *       （1） 一个参数是上一次处理完之后的结果，
    *       （2） 一个参数是本次新的数据。
    *
    * */
}