package com.xf.day06

import org.apache.spark.sql.DataFrame
import org.apache.spark.{SparkConf, SparkContext}

object TestSqlContext {
  def main(args: Array[String]): Unit = {

    // 1. 创建 SparkConf 和 SparkContext
    val conf = new SparkConf()
      .setAppName("SparkSQL Method")
      .setMaster("local[*]") // 使用本地模式，多核

    val sc = new SparkContext(conf)

    // 2. 创建 SQLContext（旧版本 API） -->   最新的是 使用的是 SparkSession 对象进行替换
    val sqlContext = new org.apache.spark.sql.SQLContext(sc)

    // load 导入的数据默认是 parquet 数据格式
    val dfUser : DataFrame = sqlContext.read.load("user.parquet")

  }

}
