package com.doit.beans.day06

import org.apache.spark.sql.SparkSession

/**
 * @Author:
 * @WX: 17710299606
 * @Tips: 学大数据 ,到多易教育
 * @DOC: https://blog.csdn.net/qq_37933018?spm=1000.2115.3001.5343
 * @Description:
 * 1. 开启hive元数据服务
 * 2. 添加配置文件, 配置hive元数据服务地址
 * 3. 添加spark整合hive依赖
 * 4.  开启hive支持
 */
object Demo05_DF_hive {
  def main(args: Array[String]): Unit = {

    val session = SparkSession.builder()
      .appName("test")
      .master("local[*]")
     // .enableHiveSupport()  // 开启hive支持
      .getOrCreate()
    // catalog 简单理解成元数据存储的类型

    val df = session.table("doe48.tb_log")
    df.printSchema()
    df.show()

    // sql("") 直接默认操作的就是hive数据
    // 切换数据库  针对当前会话有效
    session.sql("use doe48")
    //  ... ...
    session.sql(
      """
        |select
        |*
        |from
        |tb_log  --  库.表
        |""".stripMargin).show()
    session.close()

  }

}
