import org.apache.spark.sql.SparkSession
object subtract{
  def main(args: Array[String]):Unit ={
    val spark=SparkSession.builder
      .appName(name= "LocaLHodeDemo")
      .master(master="local[*]")
      //本地模式,使用所有核心
      .getOrCreate()
    //获取 SparkContext
    val sc =spark.sparkContext
    try {
      val rdd1 = sc.parallelize(List(('a',1),('b',2),('c',1)))
      val rdd2 = sc.parallelize(List(('d',1),('e',1),('c',1)))
      rdd1.subtract(rdd2).collect
      rdd2.subtract(rdd1).collect
      val result1 = List(('a', 1), ('b', 2))
      val result2 = List(('d', 1), ('e', 1))
      println("rdd1 减去 rdd2 的结果是: " + result1)
      println("rdd2 减去 rdd1 的结果是: " + result2)
    }
    finally {
      spark.stop()
    }
  }
}