package com.doit.sparksql.day01

import org.apache.log4j.{Level, Logger}
import org.apache.spark.sql.{DataFrame, SparkSession}

/**
 * @DATE 2022/1/13/15:29
 * @Author MDK
 * @Version 2021.2.2
 * */
object SQL_Hive {
  Logger.getLogger("org").setLevel(Level.ERROR)
  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession.builder()
      .appName("hive_01")
      .master("local[*]")
      .enableHiveSupport() //添加hive支持
      .getOrCreate()

    spark.sql("show databases").show()
    //不用注册表  使用SQL中的查询语句  查询hive中的表数据
    spark.sql("select * from doit_02.emp").show(100, false)

    println("-------------------------使用dataframe操作------------------------------")
    val df: DataFrame = spark.read.table("doit_02.emp")
    df.printSchema()
    df.show(100, false)

    println("-----------------------------加载hive分区表中的数据-------------------------------")

    spark.close()
  }
}
