package Flink.transformation;

import Flink.bean.WaterSensor;
import Flink.function.WaterSensorMapFunction;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class reduceTrans {
    // Todo 归约聚合（reduce）
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        env.socketTextStream("master",7777)
                .map(new WaterSensorMapFunction())
                .keyBy(data -> data.id)
                .reduce(new ReduceFunction<WaterSensor>() {
                    @Override
                    public WaterSensor reduce(WaterSensor value1, WaterSensor value2) throws Exception {
                        System.out.println("reduce func");
                        int maxVc = Math.max(value1.getVc(), value2.getVc());
                        //实现max(vc)的效果  取最大值，其他字段以当前组的第一个为主
//                        value1.setVc(maxVc);
                        //实现maxBy(vc)的效果  取当前最大值的所有字段
                        if (value1.getVc() > value2.getVc()){
                            value1.setVc(maxVc);
                            return value1;
                        }else{
                            value2.setVc(maxVc);
                            return value2;
                        }
                    }
                }).print();

        env.execute();
    }
    /*
    * reduce同简单聚合算子一样，也要针对每一个key保存状态。因为状态不会清空，
    * 所以我们需要将reduce算子作用在一个有限key的流上。
    * */
}
