package com.coolingme.producer.asynchronous;

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;

/**
 * 生产者 发送消息带回调函数Demo
 * <p>
 * 回调函数会在 producer 收到 ack 时调用，为异步调用，
 * 该方法有两个参数，分别是RecordMetadata 和 Exception，
 * 如果 Exception 为 null，说明消息发送成功，
 * 如果Exception 不为 null，说明消息发送失败。
 *
 * @author wangyue
 * @date 2021/7/14 10:08
 */
@Slf4j
public class ProducerBackDemo {

    public static void main(String[] args) {
        // 配置文件
        Properties properties = new Properties();
        // 服务地址
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "127.0.0.1:9092");
        // 重试次数
        properties.put(ProducerConfig.RETRIES_CONFIG, 1);
        // 1ms
        properties.put(ProducerConfig.LINGER_MS_CONFIG, 1);
        // ack
        properties.put(ProducerConfig.ACKS_CONFIG, "all");
        // 批次大小,16KB
        properties.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);
        // 缓冲区大小，32MB
        properties.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);
        // key,value序列化
//        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
//        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());

        // kafka生产者
        KafkaProducer<String, Object> producer = new KafkaProducer<>(properties);
        // Topic名称
        String topicName = "test-topic";

        log.info("============开始==========");

        try {
            for (int i = 0; i < 10; i++) {
                // 发送的数据key
                String key = "test-key";
                // 发送的数据value
                String value = "这是一条数据-" + i;

                // 发送的数据对象,指定key 根据hash排列
                ProducerRecord<String, Object> record = new ProducerRecord<>(topicName, key, value);
                // 不指定为轮询分区
//                ProducerRecord<String, Object> record = new ProducerRecord<>(topicName, value);

                // 发送,带回调函数
                producer.send(record, (metadata, exception) -> {
                    //回调函数，该方法会在 Producer 收到 ack 时调用，为异步调用
                    if (exception == null) {
                        log.info("发送成功->" + value + " | " + metadata.partition() + "-" + metadata.offset());
                    } else {
                        log.error("发送失败->" + value);
                        exception.printStackTrace();
                    }
                });
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            // 关闭
            producer.flush();
            producer.close();
        }

    }
}
