package com.shujia.spark

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Demo8Union {
  def main(args: Array[String]): Unit = {

    /**
      * map  传入一行返回一行
      *
      */
    //创建sparkp配置文件对象
    val conf = new SparkConf().setAppName("map").setMaster("local")

    //上下文对象
    val sc = new SparkContext(conf)


    val rdd1: RDD[String] = sc.parallelize(List("张三", "李四"))


    val rdd2: RDD[String] = sc.parallelize(List("王五", "晓伟"))


    /**
      * union  将两个rdd的数据进行合并    两个RDD数据类型得一样
      * 只是在代码层面合并  并没有在数据层面进行合并
      *
      */
    val rdd3: RDD[String] = rdd1.union(rdd2)


    rdd3.foreach(println)


  }
}
