package com.yujiahao.bigdata.rdd.insterance

import org.apache.spark.{SparkConf, SparkContext}

object Spark01_RDD_Instance {
  def main(args: Array[String]): Unit = {
    //TODO 1、构建环境--获得连接
    val conf: SparkConf = new SparkConf().setAppName("WordCount").setMaster("local")
    val sc: SparkContext = new SparkContext(conf)

//Spark框架的核心其实就是RDD，RDD的基本使用方式：
    // 1、构建环境
    // 2、构建数据模型，Spark可以通过环境对象构建数据模型。根据数据的来源会有不用的构建方式和不同的数据模型
    // 1)内存（集合）
    // 2）磁盘（文件）
    // 3）其他数据模型（框架封装）
    // 4）直接构建（框架封装）
    // 3、组合数据模型（*）
    // 4、执行数据操作
    // 5、释放资源
    //TODO 5、释放资源--关闭连接
    sc.stop()

  }

}
