package Hudi_SelfStudy.spark_sql_study

import org.apache.spark.sql.SparkSession

object create_cow_partition {
  def main(args: Array[String]): Unit = {

    /*
             .config("spark.sql.catalog.spark_catalog","org.apache.spark.sql.hudi.catalog.HoodieCatalog")
             是打开hudi的元数据服务，但是我这里打开就会报错，不打开的话就默认是使用hive的元数据服务
     */

        val spark=SparkSession.builder()
          .master("local[*]")
          .appName("spark_sql的操作")
          .config("spark.serializer","org.apache.spark.serializer.KryoSerializer")
//          .config("spark.sql.catalog.spark_catalog","org.apache.spark.sql.hudi.catalog.HoodieCatalog")
          .config("spark.sql.extensions","org.apache.spark.sql.hudi.HoodieSparkSessionExtension")
          .enableHiveSupport()
          .getOrCreate()

  //    查看数据库，并使用
    spark.sql("show databases").show
    spark.sql("use hudi_study")
    spark.sql("show tables").show

    //  创建hudi表
    //  using hudi：指定创建的表格式为hudi格式
    //  创建一个cow表,默认primaryKey为uuid,不提供preCombineField预处理字段
//    spark.sql(
//      """
//        |create table hudi_cow_nonpcf_tb1(
//        |uuid int,
//        |name string,
//        |price double
//        |)using hudi
//        |""".stripMargin)
    spark.sql("show tables").show

    spark.sql(
      """
        |insert into table huid_cow_nonpcf_tb1
        |
        |""".stripMargin)


    spark.sql("select * from hudi_cow_nonpcf_tb1").show



    spark.close()
  }

}
