package com.catmiao.spark.rdd.builder

import org.apache.spark.{SparkConf, SparkContext}

/**
 * @title: RDD_Create_01_Memory
 * @projectName spark_study
 * @description: TODO
 * @author ChengMiao
 * @date 2024/2/1 11:33
 */
object RDD_Create_01_Memory_par_1 {

  def main(args: Array[String]): Unit = {

    val sparkCon = new SparkConf().setMaster("local[*]").setAppName("rdd")

    val sparkContext = new SparkContext(sparkCon)

    // 1. 2个分区 5个数据  [1,2]  [3,4,5]
//    val rdd = sparkContext.makeRDD(List(1, 2, 3, 4,5),2)
    // 1. 3个分区 5个数据  [1]  [2,3] [4,5]

    val rdd = sparkContext.makeRDD(List(1, 2, 3, 4,5),3)


    // 将处理的数据保存成分区文件
    rdd.saveAsTextFile("output")


    sparkContext.stop()

  }

}
