package com.heima.kafka.sample;

import org.apache.kafka.clients.producer.*;

import java.util.Properties;
import java.util.concurrent.ExecutionException;

/**
 * 生产者
 */
public class ProducerQuickStart {

    public static void main(String[] args) throws ExecutionException, InterruptedException {

        //1.kafka链接配置信息(都可以写进application.yml里面)
        Properties prop = new Properties();
        //kafka(安装在虚拟机)链接地址
        prop.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.200.130:9092");
        //key和value的序列化
        prop.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        prop.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");

//生产者里的配置信息

        //ack配置  生产者消息确认机制（kafka没有消费者确认机制，他是根据偏移量offset记录到底是消费到什么位置了）
        //0：表示不需要确认机制(生产者在成功写入消息之前不会等待任何来自服务器的响应，消息有丢失的风险，但是速度最快)
        //1：(默认值)表示leader领导者确认(只要(消费者？x kafka服务器的消息备份：领导者/追随者副本)集群首领节点收到消息，生产者就会收到一个来自服务器的成功响应)
        //-1：all：表示leader领导者和follower追随者都确认(只有当(消费者？x kafka服务器的消息备份：领导者/追随者副本)所有参与赋值的节点全部收到消息时，生产者才会收到一个来自服务器的成功响应)
        prop.put(ProducerConfig.ACKS_CONFIG,"all");//当前消息是所有的副本进行同步之后，才算成功(一般使用默认值1)

        //重试次数
        prop.put(ProducerConfig.RETRIES_CONFIG,10);

        //数据压缩//节省网络资源与空间资源，提高效率
        prop.put(ProducerConfig.COMPRESSION_TYPE_CONFIG,"lz4");
        //snappy：快速压缩(性能好)，但是压缩比比较低
        //lz4：默认压缩方式，压缩比较高，压缩和解压速度更快
        //gzip：cpu占用高，压缩比最高(适合宽带小的时候)

        //2.创建kafka生产者对象
        KafkaProducer<String,String> producer = new KafkaProducer<String,String>(prop);

        //3.发送消息
        /**
         * 第一个参数 ：topic(发送消息必须指定topic)
         * 第二个参数：partition 分区，0是默认分区
         * 第二个参数：消息的key
         * 第四个参数：消息的value
         */ //                                                                             "key-001",(指定key，就就计算这个key的hashCode值，按照分区算法，对分区数取模，得到key应该被存储到哪个分区下边)
          //                                                                                   因为目前只有一个节点(一台虚拟机)，默认只有一个分区0，
        //                                                                                   所以Consumer那边consumerRecord.partition()接收到的是0
        //                                                                                          如果不指定key,默认是按轮询的方式将消息发送到每个分区下边
//        ProducerRecord<String,String> kvProducerRecord = new ProducerRecord<String,String>("topic-first",0,"key-001","hello kafka");
//        ProducerRecord<String,String> kvProducerRecord = new ProducerRecord<String,String>("topic-first","hello kafka");

        for(int i = 0; i < 10; i++){
            //需求：求单词的个数
            ProducerRecord<String,String> kvProducerRecord =
                    new ProducerRecord<String,String>("itcast-topic-input","hello kafka");
            producer.send(kvProducerRecord);
            //结果：
//            key:[hello@1729074830000/1729074840000] ,value:10
//            key:[kafka@1729074830000/1729074840000] ,value:10
        }

//        同步发送消息(数据量大的时候，会阻塞线程)
//        RecordMetadata recordMetadata = producer.send(kvProducerRecord).get();
//        System.out.println("偏移量(是连续递增的数值)：" + recordMetadata.offset());

        //异步消息发送
//        producer.send(kvProducerRecord, new Callback() {
//            //重写方法
//            @Override //recordMetadata是发送消息的元数据信息，比如偏移量，分区，分区下的分区号等
//            public void onCompletion(RecordMetadata recordMetadata, Exception e) {
//                if(e != null){ //说明已经抛出异常了
//                    System.out.println("记录异常信息到日志表中");
//                }
//                System.out.println("偏移量(是连续递增的数值)：" + recordMetadata.offset());
//            }
//        });

        //4.关闭消息通道  必须要关闭，否则消息发送不成功
        producer.close();
    }

}
