package cn.doitedu.day06

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
 * 不使用spark的累加器功能，实现计数
 */
object T01_AccumulatorDemo1 {

  def main(args: Array[String]): Unit = {

    val conf = new SparkConf().setAppName(this.getClass.getSimpleName)
      .setMaster("local[4]")
    val sc = new SparkContext(conf)

    val rdd1: RDD[Int] = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10), 2)

    //在没有乘以10之前，偶数的数量
    val count = rdd1.filter(_ % 2 == 0).count()

    println("偶数的数量：" + count)

    val rdd2: RDD[Int] = rdd1.map(n => {
      n * 10
    })

    rdd2.saveAsTextFile("out/out01")
  }

}
