package com.jdbc

import java.util.Properties

import org.apache.spark.sql.{SaveMode, SparkSession}

object JDBCWrite {
  val url = "jdbc:mysql://zjj101:3306/ry_vue"
  val user = "root"
  val pw = "root"

  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession
      .builder()
      .master("local[*]")
      .appName("JDBCWrite")
      .getOrCreate()


    val df = spark.read.json("E:\\ZJJ_SparkSQL\\demo01\\src\\main\\resources\\users.json")
//!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!写数据!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
    // 写到jdbc中
    // 如果没有这个表的话会自动进行创建
    // 如果表存在的话就可以用别的方式
    df.write
      .format("jdbc")
      .option("url", url) //MySQL链接
      .option("user", user) //账号
      .option("password", pw) //密码
      .option("dbtable", "user") //数据库
      //      .mode("append") //追加写的意思
      //      .mode(SaveMode.Append) //追加写的意思
      .mode(SaveMode.Overwrite) //重写,覆盖原来的.
      .save()
    //!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!读数据!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
// 从指定表里面读取数据
    //下面是连接jdbc的另外一种方式
    val props = new Properties()
    props.put("user", "root")
    props.put("password", "root")
    val df2 = spark.read
      .jdbc("jdbc:mysql://zjj101:3306/ry_vue", "user", props)

    df2.show //读取操作

    spark.close()
  }
}
