package com.yujiahao.bigdata.rdd.partitions

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Spark01Test {
  def main(args: Array[String]): Unit = {
    //TODO 1、获得Spark环境的连接
    // 参数解读：setAppName("当前执行程序的名字").setMaster("当前的环境")
    // 分布式环境的基本架构为 主 - 从
    val conf: SparkConf = new SparkConf().setAppName("WordCount").setMaster("local")
    val sc: SparkContext = new SparkContext(conf)
    //TODO 3、业务逻辑
    val rdd: RDD[(Int)] = sc.makeRDD(List(1,2,3,4),2)
    var sum = 0
//    RDD 不能将和RDD无管的数据从Executor端拉取到Driver端
    rdd.foreach(

      num => {
        sum =sum + num
      }
    )
println(sum)


  }
}
