package com.fwmagic.spark.core.action

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 在driver的程序中，以数组的形式，返回数据集的所有元素，
  * 这通常会在使用filter或者其它操作后，返回一个足够小的数据子集再使用
  */
object CollectDemo {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf()
                .setAppName(this.getClass.getSimpleName)
                .setMaster("local[*]")

        val sc = new SparkContext(conf)

        val rdd = sc.makeRDD(1 to 10)

        rdd.collect().foreach(println)

        sc.stop()
    }
}
