package day02

import org.apache.spark.SparkConf
import org.apache.spark.sql.{DataFrame, SparkSession}

/**
 * @author wsl
 * @version 2022-10-12
 *          SparkSession内部封装了SparkContext
 */
object Load {
  def main(args: Array[String]): Unit = {

    val conf: SparkConf = new SparkConf().setAppName("spark sql").setMaster("local[*]")
    val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()

    spark.read.json("sparksql/input/user.json").show()
    //  spark.read直接读取数据：csv   format   jdbc   json   load   option options   orc   parquet   schema   table   text   textFile
    // 注意：加载数据的相关参数需写到上述方法中，
    // 如：textFile需传入加载数据的路径，jdbc需传入JDBC相关参数。

    //  format指定加载数据类型
    // spark.read.format("…")[.option("…")].load("…")
    // format("…")：指定加载的数据类型，包括"csv"、"jdbc"、"json"、"orc"、"parquet"和"text"
    // load("…")：路径
    // option("…")：在"jdbc"格式下需要传入JDBC相应参数，url、user、password和table
    spark.read.format("json").load("input/user.json").show


    spark.stop()


  }
}
