package cn.doitedu.day01

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD

object T05_MapDemo {

  def main(args: Array[String]): Unit = {

    val conf = new SparkConf().setAppName("WordCount")
      .setMaster("local[5]") //如果提交到集群中运行，setMaster必须注释掉

    val sc = new SparkContext(conf)

    val arr = Array(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)
    //调用的是scala数组的map方法
    //val arr2: Array[Int] = arr.map(_ * 10)


    val rdd1: RDD[Int] = sc.makeRDD(arr, 12)

    //调用的RDD的map方法
    val rdd2: RDD[Int] = rdd1.map(_ * 10)

    val res = rdd2.collect()
    println(res.toBuffer)
  }

}
