package com.shujia.sql

import org.apache.spark.sql.{DataFrame, SparkSession}

object Demo10SaprkOnHIve {
  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession
      .builder()
      .appName("student")
      .config("spark.sql.shuffle.partitions", 1)

      //代码在本地不能运行，必须打包到集群中运行
      .enableHiveSupport() //使用hived的元数据，可以直接在代码中使用hive的表
      .getOrCreate()

    import spark.implicits._
    import org.apache.spark.sql.functions._


    //读取hive中的表
    val student: DataFrame = spark.table("student")
    val score: DataFrame = spark.table("score")


    student
      .join(score, $"id" === $"student_id")
      .show(1000)


  }

}
