//import org.apache.spark.sql.SparkSession
object MapRdd {
  /**
    def main(args: Array[String]): Unit = {
      // 创建SparkSession（修正拼写和参数错误）
      val spark = SparkSession.builder()
        .appName("LocalSortDemo")  // 修正乱码名称
        .master("local[*]")        // 修正符号错误："Local[::-" → "local[*]"
        .getOrCreate()

      // 获取SparkContext（补充缺失的括号）
      val sc = spark.sparkContext

      try {
        // 创建RDD并执行map操作（修复混乱的变量名和语法）
        val data = sc.parallelize(List(1, 3, 45, 3, 76))
        val squaredData = data.map(x => x * x)  // 修正："x == x*****& >>" → "x => x * x"

        // 创建元组RDD用于排序（补充缺失数据）
        val tupleData = sc.parallelize(List(
          (1, 3), (45, 3), (7, 6)))

        // 按值排序（修复lambda表达式）
        val sortedData = tupleData.sortBy(x => x._2, ascending = false , numPartitions = 1)  // 按第二个元素降序

        // 收集结果（修正方法链）
        println("平方结果: " + squaredData.collect().mkString(","))
        println("排序结果: " + sortedData.collect().mkString(", "))

      } finally {
        spark.stop()  // 确保资源释放（原图缺少关闭操作）
      }
    }**/



}
