//package springboot.kafka.consumer;
//
//import org.apache.kafka.clients.consumer.ConsumerRecord;
//import org.apache.kafka.clients.consumer.ConsumerRecords;
//import org.apache.kafka.clients.consumer.KafkaConsumer;
//
//import java.time.Duration;
//import java.util.Collections;
//import java.util.Properties;
//
///**
// * @author chenjiawen
// * @version 1.0
// * @date 2022/5/30 10:45
// */
//public class consumer1 {
//    private static final String TOPIC_NAME = "tsa-syslog";
//
//    public static void main(String[] args) {
//        Properties props = new Properties();
//        props.put("bootstrap.servers",
//                "192.168.182.203:9092");
//        props.put("group.id", "zway");
//        /* 是否自动确认offset */
//        props.put("enable.auto.commit", "false");
//        /* 自动确认offset的时间间隔 */
//        props.put("auto.commit.interval.ms", "60000");
//        props.put("session.timeout.ms", "30000");
////        props.put("auto.offset.reset", "earliest");
//        props.put("auto.offset.reset", "latest");
//
//        // 序列化类
//        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
//        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
//
//        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);
//        consumer.subscribe(Collections.singletonList(TOPIC_NAME));
//
//        try {
//            while(true){
//                ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
//                for (ConsumerRecord<String, String> record : records){
//                    System.out.printf("消费消息：topic=%s, partition=%d, offset=%d, key=%s, value=%s\n",
//                            record.topic(), record.partition(), record.offset(), record.key(), record.value());
//                }
//                consumer.commitAsync();
//            }
//        } finally {
//            consumer.close();
//        }
//    }
//}
