package com.ada.spark.rddoperator

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * 作用；使用func先对数据进行处理，按照处理后的数据比较结果排序，默认为正序。
  */
object Spark13_sortBy {

    def main(args: Array[String]): Unit = {
        //创建SparkConf
        val conf = new SparkConf().setAppName("Spark13_sortBy").setMaster("local[*]")
        //创建Spark上下文对象
        val sc = new SparkContext(conf)

        val listRDD: RDD[Int] = sc.makeRDD(List(1, 3, 2, 4))

        //使用func先对数据进行处理，按照处理后的数据比较结果排序，默认为正序
        //val sortByRDD: RDD[Int] = listRDD.sortBy(x => x)
        //降序排序
        val sortByRDD: RDD[Int] = listRDD.sortBy(x => x, false)

        println(sortByRDD.collect().mkString(","))
        //4,3,2,1
    }

}
