package study.core.rdd.operator

import org.apache.spark.{SparkConf, SparkContext}

/**
 * mapPartitions操作
 * 将待处理的数据以分区为单位发送到计算节点进行处理
 * @author zh
 * @date 2021/5/15 11:13
 */
object TestMapPartitions {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("rddMap")
    val context = new SparkContext(sparkConf)

    // 准备集合
    val list = List(1, 2, 3, 4)
    // 创建RDD
    val rdd = context.makeRDD(list,2)

    // 化简
    val result = rdd.mapPartitions(
      (iter:Iterator[Int]) => {
        println("########")
        iter.map(_*2)
      }
    )

    result.collect().foreach(println)

    context.stop()

    //########
    //########
    //2
    //4
    //6
    //8
  }
}
