package org.huangrui.spark.scala.sql

import org.apache.spark.sql.SparkSession

/**
 * @Author hr
 * @Create 2024-10-20 9:50 
 */
object SparkSQL02_Model {
  def main(args: Array[String]): Unit = {
    val session = SparkSession.builder().appName("SparkSQL02_Model").master("local[*]").getOrCreate()
    // TODO Spark SQL中对数据模型也进行了封装 ： RDD -> DataFrame
    //      对接文件数据源时，会将文件中的一行数据封装为Row对象
    val dataFrame = session.read.json("data/user.json")
    session.stop()
  }
}
