import org.apache.spark.sql.SparkSession

object Practice1 {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder()
      .appName("Test")
      .master("local[*]")
      .getOrCreate()
    val sc = spark.sparkContext

    val c_rdd1 = sc.parallelize(List(('a', 1),('a', 1),('b', 1),('c', 1)))
    val c_rdd2=sc.parallelize(List(('a',1),('b',1),('d',1)))
    println(c_rdd1.intersection(c_rdd2).collect())

    val rdd5=sc.parallelize(List(('a',1),('b',1),('c',1)))
    val rdd6=sc.parallelize(List(('d',1),('e',1),('c',1)))
    println(rdd5.subtract(rdd6).collect())
    println(rdd6.subtract(rdd5).collect())

    val rdd01=sc.makeRDD(List(1,3,5,3))
    val rdd02=sc.makeRDD(List(2,4,5,1))
    println(rdd01.cartesian(rdd02).collect())
  }
}
