package com.spark.WorCount

import org.apache.spark.{SparkConf, SparkContext}

/**
 * 使用集合来创建RDD
 */
object CreateRddByArrayScala {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
      .setAppName("CreateRddByArrayScala")
      .setMaster("local")
    val sparkContext = new SparkContext(conf)
    //Array和println 是在Driver进行中执行的（不会并行执行）
    val array=Array(1,2,3,4,5,6)
    //parallelize 和 reduce操作是在worker节点上执行的（可以并行执行）
    val rdd=sparkContext.parallelize(array)
    val sum=rdd.reduce(_ + _)
    println(sum)
    sparkContext.stop()
  }
}
