package com.doit.day01

import org.apache.spark.{SparkConf, SparkContext}

/**
 * @Author:
 * @WX: 17710299606
 * @Tips: 学大数据 ,到多易教育
 * @DOC: https://blog.csdn.net/qq_37933018?spm=1000.2115.3001.5343
 * @Description:
 */
object Demo07Function03 {
  def main(args: Array[String]): Unit = {

    val conf = new SparkConf()
      .setMaster("local[*]")
      .setAppName(this.getClass.getSimpleName)
    val sc = SparkContext.getOrCreate(conf)


    val rdd = sc.makeRDD(List(1,2,3,4,5,6,7,8) , 3)


    // 获取连接 Connection

    rdd.map(e=>{
      // 写到mysql  Connection
      // 获取连接 Connection
    })


    // 每个分区调用一次方法  mapPartitions(  分区内的所有数据集=>   )

    rdd.mapPartitions(iters=>{
      println("hello")
      // 获取连接 Connection

      iters.map(_*10)
    })
      .foreach(println)

/*
    rdd.map(e=>{
      println("hhhhh")
      e*10
    }).foreach(println)
*/


    //  sc.stop()

  }

}
