package com.zzl.scala

import org.apache.spark.{SparkConf, SparkContext}

object ForeachPartition {
  def main(args: Array[String]): Unit = {
    val sp = new SparkConf();
    sp.setAppName("zhangzeli")
    sp.setMaster("local")
    val sc = new SparkContext(sp);
    val rdd =sc.parallelize(Seq(1,2,3,4,5,6));
    rdd.foreachPartition(p=>{
      p.foreach(line=>{
        // partiton.size 不能执行这个方法，否则下面的foreach方法里面会没有数据，
        //因为iterator只能被执行一次
        println(line)
      })
    });
    while (true){}

  }

}
