package com.arnold.test.actions

import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by arnold.zhu on 2017/7/18.
  */
object Take {

  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("Spark01Learn")
    val sc = new SparkContext(conf)

    // 根据scala集合创建rdd数据集
    val rdd = sc.parallelize(1 to 100)

    // 返回一个数组，由数据集的前n个元素组成。注意，这个操作目前并非在多个节点上，并行执行
    // 而是Driver程序所在机器，单机计算所有的元素(Gateway的内存压力会增大，需要谨慎使用）
    rdd.take(10).foreach(println(_))
  }


}
