package com.study.bigdata.spark.core.rdd.io

import org.apache.spark.{Partitioner, SparkConf, SparkContext}

object Scala01_RDD_IO {
  def main(args: Array[String]): Unit = {

    val conf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
    val sc = new SparkContext(conf)

    val rdd = sc.makeRDD(
      List(
        ("a",1),
        ("b",2),
        ("c",3)
      ),2
    )

    rdd.saveAsTextFile("output")
    // 对象文件是将对象序列化后保存的文件，采用Java的序列化机制
    rdd.saveAsObjectFile("output1")
    // SequenceFile文件是Hadoop用来存储二进制形式的key-value对而设计的一种平面文件(
    rdd.saveAsSequenceFile("output2")

    sc.stop()

  }


}
