Spark Streaming是什么？
    实现实时数据流的【流处理】。可扩展，高吞吐量，容错
    数据流经过map，reduce，join，window等处理后，存储到文件系统，数据库，进行前端展示或自主查询。

流数据源
    Kafka，
    Flume，
    Kinesis或
    TCP套接字
    HDFS


Discretized Stream
    是Spark Streaming 的基本抽象，定义操作数据流的高级api抽象。
    一系列连续的有序的RDDS

    todo 做作业
    三大特性：


StreamingContext
    在内部创建一个SparkContext（所有Spark功能的起点），可以作为ssc.sparkContext




