//package chapter06
//
//import org.apache.spark.{SparkConf, SparkContext}
//
///**
// * author: yuhui
// * descriptions:
// * date: 2024 - 11 - 11 4:09 下午
// */
//object AccumulatorDemo0 {
//
//  def main(args: Array[String]): Unit = {
//
//    val conf = new SparkConf()
//      .setAppName("WordCount")
//      .setMaster("local[*]") //本地模式，开多个线程
//    //1.创建SparkContext
//    val sc = new SparkContext(conf)
//
//    val rdd = sc.makeRDD(List(1, 2, 3, 4), 2)
//    val i = rdd.reduce(_ + _)
//    println(i)
//
//    var sum = 0
//    val rdd2 = sc.makeRDD(List(1, 2, 3, 4), 2)
//    rdd2.foreach(num => {
//      sum += num
//    })
//    println(sum)
//
//    //声明累加器，分布式共享只写变量
//    val sum01 = sc.longAccumulator
//    val rdd3 = sc.makeRDD(List(1, 2, 3, 4), 2)
//    rdd3.foreach(num => {
//      //调用累加器
//      sum01.add(num)
//    })
//    println(sum01.value)
//
//  }
//}