package com.yujiahao.bigdata.sql

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession

object SparkSQL01_Env1 {
  def main(args: Array[String]): Unit = {
    //TODO 1、SparkSQL直接构建无法构建，包是私有的，使用伴生对象伴生类构建builder
    //SparkSQL对SparkCore进行了封装，所以环境也要发生变化
    //方式一：
    val spark = SparkSession.builder
      .master("local")
      .appName("Word Count")
      .getOrCreate()

    //方式二：通过配置文件将创建.config("spark.some.config.option", "some-value")
    val conf: SparkConf = new SparkConf().setAppName("haha").setMaster("local")
    val spark1 = SparkSession.builder
      .config(conf)
      .getOrCreate()
    //TODO 2、关闭资源
    spark.stop()
    spark1.stop()
  }

}
