package org.huangrui.spark.java.sql;

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

/**
 * @Author hr
 * @Create 2024-10-20 9:33
 */
public class SparkSQL02_Model {
    public static void main(String[] args) {
        SparkSession sparkSession = SparkSession.builder().appName("SparkSQL02_Model").master("local[4]").getOrCreate();

        // TODO Spark SQL中对数据模型也进行了封装 ： RDD -> Dataset
        //      对接文件数据源时，会将文件中的一行数据封装为Row对象
        Dataset<Row> dataset = sparkSession.read().json("data/user.json");

        sparkSession.stop();
    }
}
