package Hudi_SelfStudy.spark_sql_study

import org.apache.spark.sql.SparkSession

object study_03 {
  def main(args: Array[String]): Unit = {
    /*
          不需要指定模式和分区列(如果存在)之外的任何属性，hudi可以自动识别模式和配置
          fileName:在已有的hudi表上创建新表
     */
    val spark=SparkSession.builder()
      .master("local[*]")
      .appName("在已有的hudi表上面创建新表")
      .config("spark.serializer","org.apache.spark.serializer.KryoSerializer")
      .config("spark.sql.extensions","org.apache.spark.sql.hudi.HoodieSparkSessionExtension")
      .enableHiveSupport()
      .getOrCreate()


    spark.sql("use hudi_study")

//  直接加载已经存在的表的数据拿来建表(非分区)
    spark.sql(
      """
        |create table hudi_existing_tb10
        |using hudi
        |location 'hdfs://192.168.40.110:9000/user/hudi/hudi_cow_pt_tbl'
        |""".stripMargin)

    //  直接加载已经存在的表拿来建表(分区表)
    spark.sql(
      """
        |create table hudi_existing_tb11
        |using hudi
        |partitioned by (dt,hh)
        |location 'hdfs://192.168.40.110:9000/user/hudi/hudi_cow_pt_tbl'
        |""".stripMargin)


    spark.close()
  }

}
