package com.heima.kafka.simple;

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.common.serialization.Serdes;
import org.apache.kafka.streams.*;
import org.apache.kafka.streams.kstream.*;

import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;

/**
 * 主要用来进行流式计算业务
 */
@Slf4j
public class KafkaStreamStart {
    public static void main(String[] args) {
        //2.创建连接kafka的配置信息
        Properties properties=new Properties();
        //连接地址
        properties.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.200.140:9092");
        //key和value的序列化
        properties.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
        properties.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());
        properties.put(StreamsConfig.APPLICATION_ID_CONFIG,"kafkastream-id");

        StreamsBuilder streamsBuilder=new StreamsBuilder();

        //5.进行流式计算
        streamProcess(streamsBuilder);

        //3.生成Topology对象
        Topology topology=streamsBuilder.build();

        //1.创建kafkastream对象
        KafkaStreams kafkaStreams=new KafkaStreams(topology,properties);

        //4.开启流式计算
        kafkaStreams.start();

    }

    /**
     * 流式计算
     * 需求：求单词的个数
     *     hello  kafka   hello kafka  hello itcast  ....
     * @param streamsBuilder
     */
    private static void streamProcess(StreamsBuilder streamsBuilder) {

            //1.接收kafka中的消息内容,
        KStream<String, String> kStream = streamsBuilder.stream("kafka-stream-producer-topic");

        //2.进行流式计算
        kStream.flatMapValues(new ValueMapper<String, Iterable<?>>() {
            /**
             *    遍历应用
             *    参数值value就是发送的每一个消息内容
             *    第一次发送的是 hello itcast
             *    第二次发送的是 hello kafka
             */
            @Override
            public Iterable<?> apply(String value) {
                System.out.println("消息内容:"+value);
                return Arrays.asList(value.split(" "));
            }
        })
                /**
                 * 分组函数，key表示的是生产者发送的消息的key
                 * value就是遍历之后的key,消息内容，拆分之后，["hello","itcast","kafka","hello"]
                 */
                .groupBy((key,value)-> value )
                .windowedBy(TimeWindows.of(Duration.ofSeconds(10)))// 每10s去统计一次
                .count()//求和计算
                .toStream()//从ktable类型转化成kstream
                /**
                 * 此时的key还是每个消息内容，比如hello   或者kafka
                 * value 此时是求和之后的结果数字，比如 1 ，或者2
                 * 统计计算之后的结果，然后准备发送给消息者
                 */
                .map((key, value) -> {
                    System.out.println("处理之后的key:"+key.key().toString()+",处理之后的value:"+value.toString());
                    return new KeyValue<>(key.key().toString(),value.toString());
                })
                //3.发送消息给Kafka
                .to("kafka-stream-consumer-topic");




    }
}
