package com.fwmagic.spark.core.action

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * 返回一个数组，由数据集的前n个元素组成。注意此操作目前并非并行执行的，而是driver程序所在机器
  */
object TakeDemo {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf()
                .setAppName(this.getClass.getSimpleName)
                .setMaster("local[*]")

        val sc = new SparkContext(conf)

        val rdd1: RDD[Int] = sc.makeRDD(1 to 10)

        val array: Array[Int] = rdd1.take(3)

        println(array.toBuffer)

        sc.stop()
    }
}
