
import org.apache.spark.sql.SparkSession
import java.util.Properties

object Sql3 {
  def main(args: Array[String]): Unit = {
    // 创建Spark运行环境
//    val spark = SparkSession
//      .builder()
//      .master("local[*]")
//      .appName("spark")
//      .getOrCreate()
//    val sc = spark.sparkContext
//
//    val properties: Properties = new Properties()
//    properties.setProperty("user", "root")
//    properties.setProperty("password", "123456")
//    properties.setProperty("driver", "com.mysql.cj.jdbc.Driver") // 8.0版本要加.cj
//
//    // 读取CSV文件
//    val csvPath = "src/main/resources/23yun2.csv" // 替换为你的CSV文件路径
//    val csvData = spark.read
//      .option("header", "true") // 假设CSV文件有表头
//      .option("inferSchema", "true") // 自动推断数据类型
//      .csv(csvPath)
//
//    // 显示读取的数据
//    csvData.show()
//
//    // 将数据写入MySQL数据库
//    csvData.write
//      .mode("append") // 追加模式，如果需要覆盖则使用 "overwrite"
//      .jdbc("jdbc:mysql://localhost:3306/spark?useSSL=false&verifyServerCertificate=false",
//        "spark", properties) // 替换为你的数据库名、表名
//
//    spark.stop()

  }
}

