package com.example.bootkafka1.common;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.listener.AbstractMessageListenerContainer;

import java.util.HashMap;
import java.util.Map;

@Configuration
@EnableKafka
public class KafkaConsumerConfig {

    @Value("${kafka.consumer.bootstrapServers}")
    private String bootstrapServers;
    @Value("${kafka.consumer.groupId}")
    private String groupId;
    @Value("${kafka.consumer.enableAutoCommit}")
    private String enableAutoCommit;
    @Value("${kafka.consumer.autoCommitIntervalMs}")
    private String autoCommitIntervalMs;
    @Value("${kafka.consumer.sessionTimeoutMs}")
    private String sessionTimeoutMs;
    @Value("${kafka.consumer.maxPollRecords}")
    private String maxPollRecords;
    @Value("${kafka.consumer.autoOffsetReset}")
    private String autoOffsetReset;


    /**
     * 批量消费
     * @return
     */
    @Bean
    public KafkaListenerContainerFactory<?> kafkaListenerContainerFactory(){
        ConcurrentKafkaListenerContainerFactory<Object,Object> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(consumerFactory());
        factory.setConcurrency(4);
        factory.setBatchListener(true);//批量消费
//        factory.getContainerProperties().setPollTimeout(3000);
        factory.getContainerProperties().setAckMode(AbstractMessageListenerContainer.AckMode.MANUAL_IMMEDIATE);
        return factory;
    }

    @Bean
    public ConsumerFactory<Object,Object> consumerFactory(){
        return new DefaultKafkaConsumerFactory<>(consumerConfigs());
    }

    @Bean
    public Map<String,Object> consumerConfigs(){
        Map<String,Object> propsMap = new HashMap<>();
        //kafka代理地址
        propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,bootstrapServers);
        //消费者组
        propsMap.put(ConsumerConfig.GROUP_ID_CONFIG,groupId);
        //true 自动提交：是Kafka Consumer会在后台周期性的去commit   默认
        // false 手动提交
        propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,enableAutoCommit);
        //自动提交间隔。范围：[0,Integer.MAX]，默认值是 5000 （5 s）
        propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,autoCommitIntervalMs);
        // Consumer session 过期时间  默认值是：10000 （10 s）
        propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG,sessionTimeoutMs);
        //Consumer每次调用poll()时取到的records的最大数
        propsMap.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG,maxPollRecords);
        //1） earliest：自动重置到最早的offset。
        //2） latest：看上去重置到最晚的offset。
        //3） none：如果边更早的offset也没有的话，就抛出异常给consumer，告诉consumer在整个consumer group中都没有发现有这样的offset。
        //4） 如果不是上述3种，只抛出异常给consumer。
        propsMap.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,autoOffsetReset);
        //key, value的反序列化类
        propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class);

        return propsMap;
    }

}
