package com.shujia.sql

import org.apache.spark.sql.SparkSession

object Code03JsonSource {
  def main(args: Array[String]): Unit = {
    val spark: SparkSession = GetSpark.spark("json")


    /**
     * Spark读取Json数据，
     *  ①可以直接只用read.json
     *  ②可以通过load方法，在load模式下可以给定当前json的Schema信息
     *
     */
//    spark
//      .read
//      .json("spark_code/data/stu_json2")
//      .show()



    spark
      .read
      .format("json")
//      .schema("id String,name String,age int,gender String,clazz String,score int")
      .schema("id String,name String,age int,gender String,clazz String")
      .load("spark_code/data/stu_json2")
      .show()


  }
}
