package com.atbeijing.bigdata.spark.core.rdd.operator.transform

import org.apache.spark.{SparkConf, SparkContext}

object Spark04_Oper_Transform_1 {

    def main(args: Array[String]): Unit = {

        val conf = new SparkConf().setMaster("local[*]").setAppName("TransformOperator")
        val sc = new SparkContext(conf)

        // TODO 算子 - 转换 - flatMap
        // 扁平化：将一个整体拆分成一个一个的个体来使用的方式
        val rdd = sc.makeRDD(
            List(List(1,2),3,List(4,5))
        )
        // 1,2,3,4,5
        val rdd1 = rdd.flatMap{
            case list:List[_] => list
            case num:Int => List(num)
        }

        rdd1.collect.foreach(println)



        sc.stop()

    }
}
