package Hudi_SelfStudy.spark_shell_study

import org.apache.hudi.DataSourceReadOptions.{BEGIN_INSTANTTIME_OPT_KEY, END_INSTANTTIME_OPT_KEY, QUERY_TYPE_INCREMENTAL_OPT_VAL, QUERY_TYPE_OPT_KEY}
import org.apache.spark.sql.SparkSession

object time_to_query {
  def main(args: Array[String]): Unit = {
    /*
          查询特定时间点的数据，可以将endTime指向特定时间，beginTime指向000（表示最早提交时间）
     */

    //  fileName:指定时间点查询

    //  准备spark集成hudi的环境
    val spark=SparkSession.builder()
      .master("local[*]")
      .appName("指定时间点查询")
      .config("spark.serializer","org.apache.spark.serializer.KryoSerializer")
      .config("spark.sql.extensions","org.apache.spark.sql.hudi.HoodieSparkSessionExtension")
      .enableHiveSupport()
      .getOrCreate()

    val beginTime="000"
    val endTime="表示特定时间"

    //  指定时间点查询
    //  option:是指定时间点查询的固定格式
    val time_query=spark.read.format("hudi")
      .option(QUERY_TYPE_OPT_KEY,QUERY_TYPE_INCREMENTAL_OPT_VAL)
      .option(BEGIN_INSTANTTIME_OPT_KEY,beginTime)
      .option(END_INSTANTTIME_OPT_KEY,endTime)
      .load("hdfs://192.168.40.110:9000/user/hudi/hudi_trips_cow/")




    spark.close()
  }

}
