package streaming

import org.apache.spark.SparkConf
import org.apache.spark.storage.StorageLevel
import org.apache.spark.streaming.dstream.ReceiverInputDStream
import org.apache.spark.streaming.receiver.Receiver
import org.apache.spark.streaming.{Seconds, StreamingContext}

import scala.util.Random

object SparkStreaming_kafka {
  def main(args: Array[String]): Unit = {
    //创建环境对象
    /**StreamingContext创建时，需要传递两个参数:
     * 第一个参数表示环境配置
     * 第二个参数表示批处理的周期（即采集周期）
    */
    val sparkConf=new SparkConf().setMaster("local[*]").setAppName("sparkStreaming")
    val ssc=new StreamingContext(sparkConf,Seconds(3))
//    KafkaUtils.createDirectStream[String,String](
//      ssc,

//    )


    ssc.start()
    ssc.awaitTermination()

  }

}
