//package mork
//
//import bean.Case.CategoryPojo
//import org.apache.flink.kafka.shaded.org.apache.kafka.clients.producer.ProducerConfig
//import org.apache.kafka.clients.producer.KafkaProducer
//
//import java.util._
//
///**
// *
// * @program: mork
// * @author: YCLW058
// * @create: 2021-05-26 14:40
// * @decsription:
// *
// * */
//
//class dataKafka {
//  def main(args: Array[String]): Unit = {
//    //定义一个空对象
//    val props: Properties = null
//    //kafka配置
//    props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092")
//    //数据写入kafka的 模式 0 表示 发送即可 1 表示 磁盘写入即可  all 表示 写入后 需要返回是否成功
//    props.put("acks", "all")
//    //重试连接次数
//    props.put("retries",2)
//    //重试连接时间
//    props.put("retries.backoff.ms",20)
//    //缓存大小
//    props.put("buffer.memory",33554432)
//    //批次数据大小
//    props.put("batch.size",16384)
//    //批次时间   数据只要达到 批次数据大小或者 批次时间 数据就会发送出去
//    props.put("linger.ms", 25)
//    //最大发送数据
//    props.put("max.request.size",163840)
//    //key 序列化
//    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer")
//    // value 序列化
//    props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer")
//  val kafkaProducer=new KafkaProducer[(String,String)](props)
//
//    val randow=new Random()
//    val flag:Boolean=true
//    while (flag){
//      //构造数据
////    val categorypojo=new CategoryPojo(
////     categoryID = randow.nextInt(categoryID.length)
////    )
//    }
//
//  }
//
//  val categoryID=(1l,2l,3l,4l,5l,6l,7l)
//
//}
