package com.yujiahao.bigdata.rdd.insterance

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Spark01_RDD_Instance_Partition_Data {
  def main(args: Array[String]): Unit = {
    //TODO 1、构建环境--获得连接
    val conf: SparkConf = new SparkConf().setAppName("WordCount").setMaster("local[*]")
    val sc: SparkContext = new SparkContext(conf)

//RDD数据模型的分区:数据放置在那个分区（原则：均衡--就是平均分）
//如果数据无法均分，那么数据会从后向前补充
val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4,5),3)
rdd.saveAsTextFile("output")


    //TODO 5、释放资源--关闭连接
    sc.stop()

  }

}
