package com.spark.WorCount

import org.apache.spark.{SparkConf, SparkContext}

object ForeachPartitionByScala {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
      .setAppName("MapPartitionByScala")
      .setMaster("local")
    val sparkContext = new SparkContext(conf)
    val rdd=sparkContext.parallelize(Array(1,2,3,4,5,6),2)
    rdd.foreachPartition(item=>{
      //在这里进行数据库链操作
      println("foreachPartition")
      item.foreach(number=>{
        //在这里使用数据库链接做操作
        println(number)
      })
      //在这里进行关闭数据库链接
    })
  }
}
