package com.atguigu.bigdata.chapter05.transform;

import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

/**
 * @Author lzc
 * @Date 2022/9/2 10:26
 */
public class Flink02_Map_Rich {
    public static void main(String[] args) {
        Configuration conf = new Configuration();
        conf.setInteger("rest.port", 2000);
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(conf);
        env.setParallelism(2);
        
        
        // 需要查询数据库才能确定如何对value做什么样的操作
        env
            .fromElements(1, 10, 3, 6, 9)
            .map(new RichMapFunction<Integer, Integer>() {
                // ctrl + o
                @Override
                public void open(Configuration parameters) throws Exception {
                    //程序启动的时候调用. 这个方法, 是每个并行度执行一次, 一般在这里执行创建连接, 开辟资源
                    System.out.println("Flink02_Map_Rich.open");
                }
    
                @Override
                public void close() throws Exception {
                    // 程序终止的时候的调用. 每个并行度执行一次, 关闭连接, 是否资源
                    System.out.println("Flink02_Map_Rich.close");
                }
    
                @Override
                public Integer map(Integer value) throws Exception {
                    System.out.println("map: " + value );
                    // 建立到数据库的连接
                    
                    // 查询
                    
                    // 得到结果
                    
                    // 关闭数据库的连接
                    
                    return value * value;
                }
            })
            .print();
        
        
        
        
        try {
            env.execute();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}
/*

如果一个元素建立一个连接, 连接数过多, 效率太低

flink, 应该是一个并行度建立一个到数据库的连接
    连接建立的时机: 应该所有的数据道来之前建立
    
    连接关闭: 等到所有的数据都处理完了, 或者程序停止之前关闭
 */