package com.atguigu.bigdata.spark

import org.apache.spark.{SparkConf, SparkContext}


object Spark02_Oper5{

  def main(args: Array[String]): Unit = {
    //创建SparkConf
    //s设定spark计算框架的运行环境
    val config: SparkConf = new SparkConf().setMaster("local[*]").setAppName("wordCount")
    //创建Spark上下文环境
    val sc = new SparkContext(config)
//    map算子
    val listRDD = sc.makeRDD(List(1,2,3,4,5,6,7,8),2)

//  将一个分区的数据放到一个数组中
    val glomRDD = listRDD.glom()
//    glomRDD.collect().foreach(array=>{
//      for (elem <- array) {
//        print(elem)
//      }
//    })
    glomRDD.collect().foreach(array=>{
      println(array.mkString(","))
    })
  }
}
