package day02

import org.apache.spark.SparkConf
import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession}

/**
 * @author wsl
 * @version
 *
 * 1.依赖：spark-sql_2.12、spark-hive_2.12
 * 2.resource：hive-site.xml  如果使用的是内部hive，需要将配置文件copy到target/classes下
 * 3.enableHiveSupport()支持外部Hive，元数据存储在mysql;内部hive就是默认数据库
 */
object Hive {
  def main(args: Array[String]): Unit = {

    val conf: SparkConf = new SparkConf().setAppName("SparkSQLTest").setMaster("local[*]")
    val spark: SparkSession = SparkSession.builder().enableHiveSupport().config(conf).getOrCreate()
   System.setProperty("HADOOP_USER_NAME","atguigu")

    spark.sql("show tables").show()
    spark.sql("create table stu6(id int,name String)").show() //创建表需要在hdfs上有权限。
    spark.sql("show tables").show()
    spark.sql("insert into stu5 values(1,'zs')")
    spark.sql("select * from stu5").show



    spark.stop()
  }
}
