package com.ada.spark.rddoperator

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * 作用：返回一个新的RDD，该RDD由每一个输入元素经过func函数转换后组成
  */
object Spark02_map {

    def main(args: Array[String]): Unit = {
        //创建SparkConf
        val conf = new SparkConf().setAppName("Spark02_map").setMaster("local[*]")
        //创建Spark上下文对象
        val sc = new SparkContext(conf)

        val listRDD: RDD[Int] = sc.makeRDD(1 to 5)

        //map算子(RDD的转换), Value类型
        //val mapRDD: RDD[Int] = listRDD.map(x=>x * 2)
        //所有RDD算子的计算功能全部由Executor执行
        val mapRDD: RDD[Int] = listRDD.map(_ * 2)

        println(mapRDD.collect().mkString(","))
        //2,4,6,8,10
    }
}
