import org.apache.spark.{SparkConf, SparkContext}

object scala421 {
  def main(args: Array[String]): Unit = {
    // 创建 SparkConf
    val conf = new SparkConf().setAppName("UnionRDDEample").setMaster("local[*]")
    // 创建 SparkContext
    val sc = new SparkContext(conf)

    // 创建 RDD
    val rdd1 = sc.parallelize(List(('a', 1), ('b', 2), ('c', 3)))
    val rdd2 = sc.parallelize(List(('a', 1), ('d', 4), ('e', 5)))
    // 通过 union()方法合并两个 RDD
    val result = rdd1.union(rdd2).collect
    result.foreach(println)

    // 关闭 SparkContext
    sc.stop()
  }
}