package com.doit.day03

import org.apache.spark.{SparkConf, SparkContext}

/**
 * @Author:
 * @WX: 17710299606
 * @Tips: 学大数据 ,到多易教育
 * @DOC: https://blog.csdn.net/qq_37933018?spm=1000.2115.3001.5343
 * @Description:
 */
object Demo02Comput {
  def main(args: Array[String]): Unit = {

       val  conf  = new SparkConf()
             .setMaster("local[*]")
             .setAppName(this.getClass.getSimpleName)
           val sc = SparkContext.getOrCreate(conf)

    val rdd = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8), 2)

    var  x = 0

    /**
     * e=>{
     *  //
     *  x+=1
     *  e*10
     *  }  rdd算子中的计算逻辑 , 在远端的任务实例中运行计算数据
     */
    rdd.map(e=>{
      //
      x+=1
      e*10
    })


    println(x)

    sc.stop()





  }

}
