//package com.yujiahao.bigdata.sql
//
//import org.apache.spark.sql.SparkSession
//
//object SparkSQL01_JDBC {
//  def main(args: Array[String]): Unit = {
//    //TODO 1、SparkSQL直接构建无法构建，包是私有的，使用伴生对象伴生类构建builder
////SparkSQL对SparkCore进行了封装，所以环境也要发生变化
//
//   val spark =  SparkSession.builder
//      .master("local")
//      .appName("Word Count")
//      .getOrCreate()
//    val df = spark.read.format("jdbc")
//      .option("url", "jdbc:mysql://hadoop102:3306/spark-sql")
//      .option("driver", "com.mysql.jdbc.Driver")
//      .option("user", "root")
//      .option("password", "root")
//      .option("dbtable", "user")
//      .load()//.show
//
//    df.write.format("jdbc")
//      .option("url", "jdbc:mysql://hadoop102:3306/spark-sql")
//      .option("driver", "com.mysql.jdbc.Driver")
//      .option("user", "root")
//      .option("password", "root")
//      .option("dbtable", "user")
//      .mode("append")
//      .save()
//
//    //TODO 2、关闭资源
//  spark.stop()
//  }
//
//}
