package com.imooc.spark.streaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
  * @description
  * 该transform操作（及其变体transformWith）允许在DStream上应用任意RDD到RDD功能。它可用于应用未在DStream API中公开的任何RDD操作。
  * 例如，将数据流中的每个批次与另一个数据集连接的功能不会直接在DStream API中公开。
  * 但是，您可以轻松地使用它transform来执行此操作。这使得非常强大的可能性。
  * 例如，可以通过将输入数据流与预先计算的垃圾邮件信息（也可以使用Spark生成）连接，
  * 然后根据它进行过滤来进行实时数据清理。
  * 访问日志：DStream:
  * 20180808,zs
  * 20180808,ls
  * 20180808,ww
  * 黑名单：RDD
  * zs =>(zs,true)
  * ls =>(ls,true)
  * @author yuyon26@126.com
  * @date 2018/10/24 9:02
  */
object TransformApp {

  def main(args: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[2]").setAppName("FileWordCount")
    val ssc = new StreamingContext(sparkConf, Seconds(5))

    /**
      * 构建一个黑名单（RDD）
      * zs =>(zs,true)
      * ls =>(ls,true)
      */
    val blacks = List("zs", "ls")
    val blacksRDD = ssc.sparkContext.parallelize(blacks).map(x => {
      (x, true)
    })

    /** 20180808,zs
      * 20180808,ls
      * 20180808,ww
      */

    val lines = ssc.socketTextStream("192.168.31.30", 9999)
    val clicklog = lines.map(x => (x.split(",")(1), x)).transform(rdd => {
      rdd.leftOuterJoin(blacksRDD)
        .filter(x => x._2._2.getOrElse(false) != true)
        .map(x => x._2._1)
    })

    clicklog.print()

    ssc.start()
    ssc.awaitTermination()
  }

}
