//package org.example
//import org.apache.spark.rdd.RDD
//import org.apache.spark.sql.SparkSession
//
//import java.util.Properties
//object fanfan9 {
//  def main(args: Array[String]): Unit = {
//    // 创建 Spark 运行环境
//    val spark = SparkSession
//      .builder()
//      .master("local[*]")
//      .appName("spark")
//      .getOrCreate()
//    val sc = spark.sparkContext
//
//    //链接mysql数据库
//    val properties:Properties = new Properties();
//    properties.setProperty("user","root")
//    properties.setProperty("password","123456")
//    properties.setProperty("driver","com.mysql.jdbc.Driver")
//    val mysqlScore = spark.read.jdbc("jdbc:mysql://localhost:3306/test?"+
//    "verifyServerCertificate=false&useSSL=false","spark",properties)
////    mysqlScore.show()
////    mysqlScore.createTempView("spark")
////    val data: RDD[String] = sc.makeRDD(Array("张三,1001,100","李四，1002，80"))
////    val dataRDD = data.map(_.split(","))
////    val scoreRDD = dataRDD.map(x => Score(x(0),x(1),x(2)))
////    import spark.implicits._
////    val dataDF = scoreRDD.toDF()
////    dataDF.write.mode("append").jdbc("jdbc:mysql://localhost:3306/test?" +
////      "verifyServerCertificate=false&useSSL=false", "spark", properties)
//    mysqlScore.show()
//
//    val gradesDF = spark.read
//      .option("header", "true") // 假设 CSV 文件的第一行是列名
//      .option("inferSchema", "true") // 自动推断列的数据类型
//      .csv("path/to/grades.csv")
//    gradesDF.show()
//    gradesDF.write
//      .mode("append") // 追加模式，如果选择 "overwrite" 则会覆盖现有表
//      .jdbc("jdbc:mysql://localhost:3306/your_database_name", // 替换为你的数据库 URL
//        "23yun2", // 替换为你的表名
//        Map("user" -> "your_username", "password" -> "your_password")) // 替换为你的数据库用户名和密码
//    spark.stop()
//    sc.stop()
//  }
//  case class Score(name: String, number: String, score: String)
//}
