package com.yujiahao.bigdata.sql

import org.apache.spark.sql.SparkSession
import org.apache.spark.{SparkConf, SparkContext}

object SparkSQL01_Env {
  def main(args: Array[String]): Unit = {
    //TODO 1、SparkSQL直接构建无法构建，包是私有的，使用伴生对象伴生类构建builder
//SparkSQL对SparkCore进行了封装，所以环境也要发生变化

   val spark =  SparkSession.builder
      .master("local")
      .appName("Word Count")
     //这个是配置加不加无所谓 .config("spark.some.config.option", "some-value")
      .getOrCreate()
    //TODO 2、关闭资源
  spark.stop()
  }

}
