package com.chinasoft.scala

import org.apache.spark.sql.SparkSession

object SparkEnvConfig {
  def createSparkSession(appName: String): SparkSession = {
    SparkSession.builder()
      .appName(appName)
      // 移除Hive支持相关配置
      .master("local[*]")
      // 保留其他非Hive配置（如MySQL驱动）
      .config("spark.driver.extraClassPath", "D:/安装/mysql-connector-java.jar")
      .config("spark.executor.extraClassPath", "D:/安装/mysql-connector-java.jar")
      .getOrCreate()
  }

  // 移除Hive连接测试方法（因无Metastore，测试无意义）

  // 保留MySQL配置（如果需要）
  val mysqlProps = new java.util.Properties() {
    put("user", "root")
    put("password", "password")
    put("driver", "com.mysql.jdbc.Driver")
  }

  val mysqlUrl = "jdbc:mysql://192.168.16.100:3306/airTest?useSSL=false&serverTimezone=UTC"
}