package com.example.bigdata.spark.缓存RDD

import org.apache.spark.{SparkConf, SparkContext}

object RDDCacheDemo {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf()
                .setMaster("local[1]")
                .setAppName("RDDCache Demo")
        val sc = new SparkContext(conf)
        val rdd1 = sc.makeRDD(1 to 20)
        // RDD1 缓存内存中
        rdd1.cache()
        rdd1.foreach(println(_))
        rdd1.saveAsTextFile("output/RddCache")
        // 清除RDD1缓存
        rdd1.unpersist()
        sc.stop()
    }
}
