//package spark.example
//
//import org.apache.spark.sql.SparkSession
//
//object modifyDFFeildName {
//  def main(args: Array[String]): Unit = {
//    val spark = SparkSession
//      .builder()
//      .master("local")
//      .appName("modifyDFFeildName")
//      .config("spark.testing.memory", "471859200")
//      .getOrCreate()
//    val ds = spark.read.text(args(0).toString)
//      .as[String]
//      .flatMap(_.split("\\W "))
//      .filter(x => ! x.isEmpty)
//      .groupByKey(x =>x).count
//  }
//  def modifyFeidName(oldFieldsNameArray : Array[String],newFieldsNameMap : Map[Int,String],
//                     dataset : org.apache.spark.sql.Dataset[(String, Long)]) = {
//    if(newFieldsNameMap.toList.length <= oldFieldsNameArray.length){
//      for(index <- newFieldsNameMap.keys) {
//        dataset.withColumnRenamed(oldFieldsNameArray(index),newFieldsNameMap(index))
//      }
//    } else {
//      println("The number of new fields cannot exceed the number of old fields")
//    }
//  }
//}
//
//

