package com.niit.spark.sql.test

import org.apache.spark.sql.{DataFrame, SparkSession}

/**
 * Date:2025/5/16
 * Author：Ys
 * Description: 读取parquet文件
 *       parquet文件是一种列式存储的文件格式,  可以存储结构化数据。
 */
object ParquetToDataFrame {
  def main(args: Array[String]): Unit = {

    val spark: SparkSession = SparkSession.builder().appName("ParquetToDataFrame").master("local[*]").getOrCreate()
    spark.sparkContext.setLogLevel("ERROR")
    import spark.implicits._

    val dataFrame: DataFrame = spark.read.parquet("input/sql/parquet")
    dataFrame.show()

    spark.stop()

  }

}
